image Thứ Sáu, 03/04/2026

Các nhà nghiên cứu thông tin sai lệch đưa ra cảnh báo về Chatbot AI

Đức Mạnh

15/02/2023

Chia sẻ

Các nhà nghiên cứu dự đoán rằng công nghệ này có thể “tiếp tay” cho những kẻ đặt ra các thuyết âm mưu và truyền bá thông tin sai lệch…

Những mối lo ngại mới về chatbot AI
Những mối lo ngại mới về chatbot AI

Ngay sau khi ChatGPT được ra mắt vào năm ngoái, các nhà nghiên cứu đã kiểm tra xem chatbot AI này sẽ viết gì khi nó được hỏi những câu hỏi có nhiều thuyết âm mưu và thông tin sai sự thật. Kết quả cho thấy, các phản hồi của ChatGPT  dưới dạng bài báo, tiểu luận và kịch bản truyền hình đều lộn xộn đến mức các nhà nghiên cứu không thể “nghiền ngẫm” được chút nào.

Ông Gordon Crovitz, đồng giám đốc điều hành của NewsGuard, một công ty theo dõi thông tin sai lệch trực tuyến đã tiến hành thử nghiệm vào tháng trước và cho biết: “Sản phẩm này sẽ có thể trở thành công cụ phát tán thông tin sai lệch mạnh mẽ nhất từng có trên internet. Việc tạo ra một câu chuyện xuyên tạc mới giờ đây có thể được thực hiện ở quy mô lớn với tần suất thường xuyên hơn rất nhiều, giống như có hẳn một “đại lý” AI góp sức tạo ra thông tin giả vậy”.

Những thông tin sai lệch vốn đã rất khó giải quyết khi nó được tạo ra theo cách thủ công bởi con người. Các nhà nghiên cứu dự đoán rằng, công nghệ có thể khiến cho thông tin sai lệch được sản xuất dễ dàng hơn bởi một số lượng lớn những người theo thuyết âm mưu và lan truyền tin giả.

Các nhà nghiên cứu cho biết, những chatbot theo thời gian thực, được cá nhân hóa có thể chia sẻ các thuyết âm mưu theo những cách đáng tin và thuyết phục hơn, loại bỏ được các lỗi do con người gây ra như sai ngữ pháp và dịch sai. Họ cũng cho biết rằng, hiện có chưa có biện pháp ngăn chặn nào có thể giảm thiểu và chống lại vấn đề này một cách hiệu quả.

Tiền thân của ChatGPT được tạo bởi công ty trí tuệ nhân tạo OpenAI ở San Francisco đã được sử dụng trong nhiều năm để “tiêu diệt” các bình luận rác trên các diễn đàn trực tuyến và nền tảng truyền thông xã hội. Tuy nhiên vào năm 2016, sau khi giới thiệu chatbot mang tên Tay trên Twitter trong vòng 24 giờ, Microsoft đã phải tạm dừng hoạt động của chatbot này vì một số kẻ quấy phá đã dạy Tay phát biểu những ngôn từ mang tính phân biệt chủng tộc và bài ngoại.

ChatGPT lại mạnh mẽ và tinh vi hơn thế rất nhiều. Mặc dù được cung cấp các câu hỏi chứa đầy thông tin sai, song chúng vẫn có thể tạo ra hàng loạt biến thể rõ ràng, thuyết phục về nội dung trong vòng vài giây mà không tiết lộ nguồn. Mới đây, Microsoft và OpenAI đã giới thiệu một công cụ tìm kiếm Bing và trình duyệt web mới có thể sử dụng công nghệ chatbot để lên kế hoạch cho các kỳ nghỉ, dịch văn bản hoặc tiến hành nghiên cứu.

Vào năm 2020, các nhà nghiên cứu tại Trung tâm nghiên cứu quốc tế về chủ nghĩa khủng bố, chủ nghĩa cực đoan và chống khủng bố của Viện Nghiên cứu quốc tế Middlebury (Mỹ) đã phát hiện ra rằng GPT-3, công nghệ cơ bản của ChatGPT có kiến thức ấn tượng về các cộng đồng cực đoan và có thể thúc đẩy để tạo ra các cuộc luận chiến. Công cụ này thậm chí có thể biện hộ cho thuyết âm mưu QAnon và tạo ra các văn bản cực đoan đa ngôn ngữ. 

Một phát ngôn viên cho biết, OpenAI sử dụng máy móc và con người để giám sát nội dung được đưa vào và sản xuất bởi ChatGPT. Công ty dựa vào cả “người huấn luyện” AI và những phản hồi từ người dùng để xác định và lọc ra dữ liệu độc hại trong khi dạy ChatGPT nhằm tạo ra phản hồi đầy đủ thông tin hơn. 

Các chính sách của OpenAI nghiêm cấm việc sử dụng công nghệ của mình để thúc đẩy sự lừa dối, thao túng người dùng hoặc cố gắng gây ảnh hưởng đến chính trị. Công ty đã cung cấp một công cụ kiểm duyệt miễn phí để xử lý nội dung kích động, tự ngược đãi bản thân, bạo lực hoặc tình dục. Nhưng hiện tại, công cụ hỗ trợ này vẫn còn hạn chế với các ngôn ngữ khác tiếng Anh và chưa xác định được thư rác, chiêu trò lừa đảo hoặc các phần mềm độc hại. ChatGPT cảnh báo người dùng rằng nó đôi khi có thể tạo ra các hướng dẫn có hại hoặc nội dung sai lệch.

Ông Arvind Narayanan, giáo sư khoa học máy tính tại Đại học Princeton (Mỹ), đã viết trên Twitter vào tháng 12/2022 rằng ông đã hỏi ChatGPT một số câu hỏi cơ bản về bảo mật thông tin mà ông đã đặt ra cho các sinh viên trong một kỳ thi. Ông chia sẻ rằng chatbot đã trả lời bằng những câu trả lời nghe có vẻ hợp lý nhưng thực ra lại hoàn toàn vô nghĩa.

“Điều nguy hiểm là bạn không thể biết khi nào chatbot trả lời sai trừ khi bạn đã biết câu trả lời.Thật đáng lo ngại, tôi phải xem lại các gợi ý tham khảo của mình để đảm bảo rằng mình không bị mất trí”, vị giáo sư cho biết. 

Check Point Research, một cơ sở phát hiện các mối đe dọa trên mạng đã phát hiện ra rằng tội phạm mạng đã thử nghiệm sử dụng ChatGPT để tạo phần mềm độc hại. Ông Mark Ostrowski, trưởng bộ phận kỹ thuật của Check Point cho biết, mặc dù việc hack thường đòi hỏi kiến ​​thức lập trình ở trình độ cao nhưng ChatGPT đã hỗ trợ cho cả những lập trình viên mới vào nghề.

Các nhà nghiên cứu cũng lo ngại rằng công nghệ này có thể bị khai thác bởi các đặc vụ nước ngoài với hy vọng lan truyền thông tin sai lệch bằng tiếng Anh. Một số công ty đã sử dụng chatbot đa ngôn ngữ để hỗ trợ khách hàng mà không cần người phiên dịch.


Cuộc đua khốc liệt tạo video bằng AI sau quyết định “khai tử” Sora AI của OpenAI

Sora nhanh chóng phải dừng lại khi tài nguyên được công ty mẹ ưu tiên sử dụng vào mục đích khác trong bối cảnh đối thủ cạnh tranh ngày càng mạnh…

15:31 02/04/2026
Ngành chip châu Á đối mặt “cú siết” nguồn cung naphtha

Cuộc khủng hoảng nguồn cung naphtha – nguyên liệu đầu vào quan trọng của ngành hóa dầu và sản xuất bán dẫn – đang lan rộng khắp châu Á trong bối cảnh căng thẳng địa chính trị tại Trung Đông leo thang...

16:37 01/04/2026
Sony bắt tay hãng Trung Quốc TCL, “chia đôi quyền lực” mảng TV BRAVIA

Điểm gây tranh cãi lớn nhất chính là cơ cấu sở hữu: TCL nắm 51% cổ phần, trong khi Sony giữ 49%...

16:34 01/04/2026
Đầu tư vào viễn thông Trung Quốc năm 2026 dự báo giảm mạnh nhất trong vòng 15 năm

Chi tiêu vốn (capex) của các nhà mạng quốc doanh Trung Quốc được dự báo sẽ giảm xuống mức thấp nhất trong vòng 15 năm vào năm 2026, khi làn sóng đầu tư cho hạ tầng 5G đã đi qua giai đoạn cao trào...

16:33 01/04/2026
Trung Quốc: Nhiều tổ chức kêu gọi chính phủ thiết lập "giới hạn đỏ" với AI

Các cố vấn chính phủ Trung Quốc cảnh báo việc phát triển và ứng dụng AI nếu thiếu kiểm soát có thể gây ra những hệ lụy nghiêm trọng về việc làm và an ninh dữ liệu. Họ kêu gọi thiết lập các “lằn ranh đỏ” cho công nghệ này…

09:51 31/03/2026
Doanh nghiệp lượng tử thế giới “đua” lên sàn

Làn sóng niêm yết của các công ty lượng tử diễn ra trong bối cảnh thị trường toàn cầu đầy biến động, khi các xung đột địa chính trị làm suy giảm niềm tin của nhà đầu tư, đặc biệt với các tài sản rủi ro cao như công nghệ mới nổi…

09:50 31/03/2026
Cổ phiếu chip nhớ “bốc hơi” 100 tỷ USD sau một nghiên cứu của Google Research

Nguyên nhân đến từ một nghiên cứu mới của Google Research, cho thấy các trung tâm dữ liệu AI trong tương lai có thể cần ít bộ nhớ hơn đáng kể so với kỳ vọng trước đó...

14:27 30/03/2026
AI và bot chính thức “chiếm lĩnh” Internet: Lưu lượng máy vượt con người

Một báo cáo mới từ Human Security cho thấy lưu lượng truy cập do AI và bot tạo ra đã vượt qua con người, đánh dấu bước ngoặt lớn của Internet trong kỷ nguyên trí tuệ nhân tạo...

09:36 28/03/2026
Trung Quốc dự báo nâng tỷ trọng công suất wafer bán dẫn toàn cầu lên 42% vào năm 2028

Con số này tăng mạnh so với mức 32% của năm 2025, phản ánh tốc độ mở rộng đáng kể của năng lực sản xuất nội địa…

15:32 26/03/2026
Lo "chảy máu" công nghệ, Trung Quốc rà soát thương vụ 2 tỷ USD giữa Meta và Manus

Một trong những mối quan ngại lớn của giới chức Trung Quốc là hiện tượng “bán lúa non” - khi các công ty công nghệ nội địa, đặc biệt trong các lĩnh vực chiến lược như trí tuệ nhân tạo, bị bán lại cho nhà đầu tư nước ngoài ở giai đoạn còn non trẻ…

14:33 26/03/2026