16:08 03/07/2025

Chatbot Grok dưới bóng tỷ phú Elon Musk: Khi AI có thể bị lập trình theo quan điểm cá nhân

Bảo Ngọc

CEO Elon Musk không hài lòng khi chatbot Grok do xAI phát triển đưa ra câu trả lời trái ý. Việc vị tỷ phú yêu cầu “viết lại toàn bộ tri thức nhân loại” cho Grok 4 khiến giới chuyên gia lo ngại AI sẽ bị uốn theo quan điểm cá nhân, làm dấy lên tranh cãi về tính khách quan trong công nghệ trí tuệ nhân tạo…

CEO Elon Musk không hài lòng với một số câu trả lời gần đây của Grok.
CEO Elon Musk không hài lòng với một số câu trả lời gần đây của Grok.

Tuần trước, Grok, chatbot của startup xAI do tỷ phú Elon Musk sáng lập, đã trả lời một người dùng trên mạng xã hội X (trước đây là Twitter) về vấn đề bạo lực chính trị. Chatbot này khẳng định kể từ năm 2016, bạo lực chính trị xuất phát từ phe cánh hữu nhiều hơn phe cánh tả.

Ông Musk vô cùng thất vọng về câu trả lời này.

“Thất bại nặng nề, vì điều này hoàn toàn sai sự thật. Grok đang lặp lại những gì truyền thông cũ nói”, nhà lãnh đạo viết, mặc dù Grok trích dẫn dữ liệu từ một số nguồn chính phủ như Bộ An ninh Nội địa Hoa Kỳ. Chỉ trong vòng ba ngày, CEO Musk hứa sẽ tung ra bản cập nhật lớn cho Grok, nhấn mạnh chatbot sẽ “viết lại toàn bộ tri thức loài người”. Vị Giám đốc cũng kêu gọi người dùng X gửi về các “sự thật gây tranh cãi” để giúp huấn luyện lại mô hình.

“Có quá nhiều thông tin rác trong bất kỳ mô hình nền tảng nào được huấn luyện dựa trên dữ liệu chưa qua chỉnh sửa”, ông Musk bày tỏ.

Vào ngày 27/6 (giờ địa phương), nhà sáng lập xAI thông báo rằng mô hình mới, mang tên Grok 4, sẽ ra mắt ngay sau ngày 4/7.

Nhiều cuộc trao đổi liên quan làm dấy lên lo ngại về việc người đàn ông giàu nhất thế giới đang cố ảnh hưởng đến Grok để chatbot phản ánh góc nhìn cá nhân – điều này có thể dẫn đến nhiều lỗi sai và trục trặc hơn, đồng thời đặt ra câu hỏi lớn về khả năng thiên vị cũng như định kiến, theo nhiều chuyên gia. 

Trí tuệ nhân tạo được dự đoán sẽ định hình cách con người làm việc, giao tiếp và tìm kiếm thông tin, và cũng tác động đến nhiều lĩnh vực như phát triển phần mềm, y tế và giáo dục. Và quyết định của những người có quyền lực như tỷ phú Musk về cách phát triển công nghệ AI có thể tạo ra ảnh hưởng đáng kể, đặc biệt khi Grok được tích hợp vào một trong những mạng xã hội phổ biến nhất thế giới – nơi mà hàng rào kiểm soát thông tin sai lệch đang dần bị gỡ bỏ. Dù Grok không phổ biến như ChatGPT của OpenAI, nhưng việc được đưa vào nền tảng truyền thông xã hội X đã giúp chatbot tiếp cận lượng lớn người dùng toàn cầu.

“Đây mới chỉ là khởi đầu của cuộc chiến trường kỳ sẽ diễn ra trong nhiều năm tới, về việc liệu hệ thống AI có nên bắt buộc phải đưa ra thông tin chính xác, hay nhà phát triển có thể điều chỉnh nội dung theo sở thích chính trị cá nhân hay không”, ông David Evan Harris, nhà nghiên cứu AI đồng thời là giảng viên tại Đại học UC Berkeley, từng làm việc trong nhóm AI có trách nhiệm tại Meta, nhận định.

Nguồn tin nội bộ chia sẻ với CNN rằng nhóm cố vấn đã nói rõ với ông Elon Musk rằng không thể "nặn" Grok theo quan điểm riêng mình, và vị CEO có vẻ cũng hiểu điều đó.

xAI từ chối đưa ra bình luận.

Grok tiếp cận hàng trăm triệu người dùng qua X. 
Grok tiếp cận hàng trăm triệu người dùng qua X. 

LO NGẠI XOAY QUANH VIỆC GROK PHẢN ÁNH QUAN ĐIỂM CÁ NHÂN CỦA TỶ PHÚ ELON MUSK

Trong nhiều tháng qua, người dùng từng nhiều lần hoài nghi về việc liệu tỷ phú Musk có đang định hướng Grok để phản ánh góc nhìn cá nhân hay không.

Vào tháng 5, chatbot này bất ngờ nhắc đến vấn đề “diệt chủng người da trắng” ở Nam Phi trong câu trả lời không hề liên quan. Ở một số phản hồi khác, Grok tuyên bố rằng hệ thống được “chỉ đạo công nhận rằng có diệt chủng người da trắng ở Nam Phi”.

Được biết, ông Musk sinh ra và lớn lên ở Nam Phi, từng nhiều lần cho rằng quốc gia này đã diễn ra cuộc “diệt chủng người da trắng” trong quá khứ.

Vài ngày sau, xAI đưa thông báo một “thay đổi trái phép” vào rạng sáng (theo giờ Thái Bình Dương) đã khiến chatbot phản hồi theo hướng chính trị trái với chính sách của xAI.

Khi ông Musk yêu cầu đội ngũ huấn luyện lại Grok, nhiều người trong lĩnh vực AI như nhà lãnh đạo Nick Frosst, đồng sáng lập Cohere, tin rằng vị tỷ phú đang cố xây dựng mô hình phản ánh quan điểm cá nhân.

“Ông ấy đang cố tạo ra mô hình phản ánh những điều mà ông tin tưởng, điều đó sẽ khiến mô hình trở nên tệ hơn đối với người dùng”, ông Frosst nói.

HUẤN LUYỆN LẠI GROK

Ông Frosst cho biết, việc hầu hết công ty AI như OpenAI, Meta hay Google liên tục cập nhật mô hình để cải thiện hiệu suất là chuyện bình thường. Tuy nhiên, việc huấn luyện lại từ đầu chỉ để loại bỏ những điều mà nhà sáng lập không thích sẽ tốn rất nhiều thời gian và tiền bạc – chưa kể còn khiến trải nghiệm người dùng kém đi.

“Và điều đó gần như chắc chắn sẽ làm mô hình tệ hơn”, vị chuyên gia dự đoán. “Bởi vì hệ thống sẽ loại bỏ nhiều dữ liệu và thêm vào đó sự thiên vị”.

Một cách khác để thay đổi hành vi từ mô hình mà không cần huấn luyện lại toàn bộ là điều chỉnh “prompt” và “trọng số” trong mã nguồn. Cách này có thể nhanh hơn vì mô hình sẽ giữ lại phần kiến thức đã học trước đó. Việc chỉnh sửa prompt nghĩa là hướng dẫn mô hình phản hồi theo tình huống cụ thể, trong khi trọng số ảnh hưởng đến quá trình ra quyết định của AI.

CEO Dan Neely của Vermillio, công ty bảo vệ người nổi tiếng khỏi video deepfake do AI tạo ra, nhận định với CNN rằng xAI có thể điều chỉnh trọng số và nhãn dữ liệu của Grok ở một số chủ đề cụ thể.

“Hãng sẽ xem xét lại trọng số và nhãn dữ liệu đã có từ trước ở nhóm nội dung mà họ coi là vấn đề”, CEO Neely chia sẻ. “Hãng sẽ đi sâu hơn vào chi tiết những mảng cụ thể đó”.

CEO Musk không nói rõ chi tiết thay đổi trong Grok 4, nhưng cho biết chatbot sẽ sử dụng “mô hình mã hóa chuyên biệt”.

Việc CEO Elon Musk yêu cầu đào tạo lại Grok làm dấy lên lo ngại về sự thiên vị trong AI. 
Việc CEO Elon Musk yêu cầu đào tạo lại Grok làm dấy lên lo ngại về sự thiên vị trong AI. 

THIÊN VỊ TRONG AI

Tỷ phú Musk từng nói rằng chatbot của xAI sẽ theo đuổi “sự thật tối đa”, nhưng thực tế mọi mô hình đều còn thiên vị vì được xây dựng từ dữ liệu và sự lựa chọn của con người.

“AI không có tất cả dữ liệu cần thiết. Khi có đầy đủ, hệ thống có thể phản ánh đúng sự thật”, ông Neely nói. “Tuy nhiên, rất nhiều nội dung trên Internet vốn dĩ đã mang định kiến nhất định – dù bạn có đồng ý hay không”.

Có thể trong tương lai, người dùng sẽ lựa chọn trợ lý AI dựa trên hệ giá trị và thế giới quan của mô hình. Nhưng ông Frosst tin rằng những trợ lý AI có xu hướng nghiêng về một phe sẽ ít phổ biến hơn.

“Đa số mọi người không tìm đến AI chỉ để nghe việc lặp đi lặp lại tư tưởng phiến diện – điều đó không giúp ích gì nhiều”, đồng sáng lập Cohere cho biết. “Người ta tìm đến AI để giúp đỡ làm việc, hoàn thành nhiệm vụ”.