Các nhà nghiên cứu thông tin sai lệch đưa ra cảnh báo về Chatbot AI
Đức Mạnh
15/02/2023
Các nhà nghiên cứu dự đoán rằng công nghệ này có thể “tiếp tay” cho những kẻ đặt ra các thuyết âm mưu và truyền bá thông tin sai lệch…
Ngay sau khi ChatGPT được ra mắt vào năm ngoái, các nhà nghiên cứu đã kiểm tra xem chatbot AI này sẽ viết gì khi nó được hỏi những câu hỏi có nhiều thuyết âm mưu và thông tin sai sự thật. Kết quả cho thấy, các phản hồi của ChatGPT dưới dạng bài báo, tiểu luận và kịch bản truyền hình đều lộn xộn đến mức các nhà nghiên cứu không thể “nghiền ngẫm” được chút nào.
Ông Gordon Crovitz, đồng giám đốc điều hành của NewsGuard, một công ty theo dõi thông tin sai lệch trực tuyến đã tiến hành thử nghiệm vào tháng trước và cho biết: “Sản phẩm này sẽ có thể trở thành công cụ phát tán thông tin sai lệch mạnh mẽ nhất từng có trên internet. Việc tạo ra một câu chuyện xuyên tạc mới giờ đây có thể được thực hiện ở quy mô lớn với tần suất thường xuyên hơn rất nhiều, giống như có hẳn một “đại lý” AI góp sức tạo ra thông tin giả vậy”.
Những thông tin sai lệch vốn đã rất khó giải quyết khi nó được tạo ra theo cách thủ công bởi con người. Các nhà nghiên cứu dự đoán rằng, công nghệ có thể khiến cho thông tin sai lệch được sản xuất dễ dàng hơn bởi một số lượng lớn những người theo thuyết âm mưu và lan truyền tin giả.
Các nhà nghiên cứu cho biết, những chatbot theo thời gian thực, được cá nhân hóa có thể chia sẻ các thuyết âm mưu theo những cách đáng tin và thuyết phục hơn, loại bỏ được các lỗi do con người gây ra như sai ngữ pháp và dịch sai. Họ cũng cho biết rằng, hiện có chưa có biện pháp ngăn chặn nào có thể giảm thiểu và chống lại vấn đề này một cách hiệu quả.
Tiền thân của ChatGPT được tạo bởi công ty trí tuệ nhân tạo OpenAI ở San Francisco đã được sử dụng trong nhiều năm để “tiêu diệt” các bình luận rác trên các diễn đàn trực tuyến và nền tảng truyền thông xã hội. Tuy nhiên vào năm 2016, sau khi giới thiệu chatbot mang tên Tay trên Twitter trong vòng 24 giờ, Microsoft đã phải tạm dừng hoạt động của chatbot này vì một số kẻ quấy phá đã dạy Tay phát biểu những ngôn từ mang tính phân biệt chủng tộc và bài ngoại.
ChatGPT lại mạnh mẽ và tinh vi hơn thế rất nhiều. Mặc dù được cung cấp các câu hỏi chứa đầy thông tin sai, song chúng vẫn có thể tạo ra hàng loạt biến thể rõ ràng, thuyết phục về nội dung trong vòng vài giây mà không tiết lộ nguồn. Mới đây, Microsoft và OpenAI đã giới thiệu một công cụ tìm kiếm Bing và trình duyệt web mới có thể sử dụng công nghệ chatbot để lên kế hoạch cho các kỳ nghỉ, dịch văn bản hoặc tiến hành nghiên cứu.
Vào năm 2020, các nhà nghiên cứu tại Trung tâm nghiên cứu quốc tế về chủ nghĩa khủng bố, chủ nghĩa cực đoan và chống khủng bố của Viện Nghiên cứu quốc tế Middlebury (Mỹ) đã phát hiện ra rằng GPT-3, công nghệ cơ bản của ChatGPT có kiến thức ấn tượng về các cộng đồng cực đoan và có thể thúc đẩy để tạo ra các cuộc luận chiến. Công cụ này thậm chí có thể biện hộ cho thuyết âm mưu QAnon và tạo ra các văn bản cực đoan đa ngôn ngữ.
Một phát ngôn viên cho biết, OpenAI sử dụng máy móc và con người để giám sát nội dung được đưa vào và sản xuất bởi ChatGPT. Công ty dựa vào cả “người huấn luyện” AI và những phản hồi từ người dùng để xác định và lọc ra dữ liệu độc hại trong khi dạy ChatGPT nhằm tạo ra phản hồi đầy đủ thông tin hơn.
Các chính sách của OpenAI nghiêm cấm việc sử dụng công nghệ của mình để thúc đẩy sự lừa dối, thao túng người dùng hoặc cố gắng gây ảnh hưởng đến chính trị. Công ty đã cung cấp một công cụ kiểm duyệt miễn phí để xử lý nội dung kích động, tự ngược đãi bản thân, bạo lực hoặc tình dục. Nhưng hiện tại, công cụ hỗ trợ này vẫn còn hạn chế với các ngôn ngữ khác tiếng Anh và chưa xác định được thư rác, chiêu trò lừa đảo hoặc các phần mềm độc hại. ChatGPT cảnh báo người dùng rằng nó đôi khi có thể tạo ra các hướng dẫn có hại hoặc nội dung sai lệch.
Ông Arvind Narayanan, giáo sư khoa học máy tính tại Đại học Princeton (Mỹ), đã viết trên Twitter vào tháng 12/2022 rằng ông đã hỏi ChatGPT một số câu hỏi cơ bản về bảo mật thông tin mà ông đã đặt ra cho các sinh viên trong một kỳ thi. Ông chia sẻ rằng chatbot đã trả lời bằng những câu trả lời nghe có vẻ hợp lý nhưng thực ra lại hoàn toàn vô nghĩa.
“Điều nguy hiểm là bạn không thể biết khi nào chatbot trả lời sai trừ khi bạn đã biết câu trả lời.Thật đáng lo ngại, tôi phải xem lại các gợi ý tham khảo của mình để đảm bảo rằng mình không bị mất trí”, vị giáo sư cho biết.
Check Point Research, một cơ sở phát hiện các mối đe dọa trên mạng đã phát hiện ra rằng tội phạm mạng đã thử nghiệm sử dụng ChatGPT để tạo phần mềm độc hại. Ông Mark Ostrowski, trưởng bộ phận kỹ thuật của Check Point cho biết, mặc dù việc hack thường đòi hỏi kiến thức lập trình ở trình độ cao nhưng ChatGPT đã hỗ trợ cho cả những lập trình viên mới vào nghề.
Các nhà nghiên cứu cũng lo ngại rằng công nghệ này có thể bị khai thác bởi các đặc vụ nước ngoài với hy vọng lan truyền thông tin sai lệch bằng tiếng Anh. Một số công ty đã sử dụng chatbot đa ngôn ngữ để hỗ trợ khách hàng mà không cần người phiên dịch.
Một báo cáo mới từ Human Security cho thấy lưu lượng truy cập do AI và bot tạo ra đã vượt qua con người, đánh dấu bước ngoặt lớn của Internet trong kỷ nguyên trí tuệ nhân tạo...
Con số này tăng mạnh so với mức 32% của năm 2025, phản ánh tốc độ mở rộng đáng kể của năng lực sản xuất nội địa…
Một trong những mối quan ngại lớn của giới chức Trung Quốc là hiện tượng “bán lúa non” - khi các công ty công nghệ nội địa, đặc biệt trong các lĩnh vực chiến lược như trí tuệ nhân tạo, bị bán lại cho nhà đầu tư nước ngoài ở giai đoạn còn non trẻ…
VIRESA gia nhập mạng lưới toàn cầu với hơn 100 quốc gia nhằm phát triển hệ thống đội tuyển quốc gia và kết nối cộng đồng trong nước, qua đó góp phần nâng cao sự hiện diện của Việt Nam trên đấu trường quốc tế...
Hội đồng Cố vấn về Khoa học và Công nghệ (PCAST) sẽ đóng vai trò như một “bộ não chiến lược” hỗ trợ Nhà Trắng trong việc xây dựng chính sách liên quan đến AI, lực lượng lao động và các công nghệ mới nổi…
AI agent – những hệ thống có khả năng tự động thực hiện chuỗi tác vụ phức tạp – đang thay đổi hoàn toàn cách AI được sử dụng...
Mỹ đang cố gắng cân bằng giữa hai mục tiêu: thúc đẩy đổi mới công nghệ và duy trì lợi thế cạnh tranh; kiểm soát rủi ro an ninh phát sinh từ chính các công nghệ đó...
Các ứng dụng AI tạo ra doanh thu trên mỗi người dùng cao hơn 41% so với ứng dụng không dùng AI, nhưng lại kém “gây nghiện” hơn, theo nền tảng đăng ký RevenueCat…
Đằng sau làn sóng công nghệ là một nỗi lo âm ỉ: nếu không kịp thích nghi, họ có thể bị thay thế bất cứ lúc nào...
OpenAI tăng tốc mở rộng nhân sự, dồn lực vào thị trường doanh nghiệp trong cuộc đua AI hàng trăm tỷ USD…