image Thứ Năm, 06/11/2025

Chatbot Trung Quốc có xu hướng "nịnh người dùng" hơn chatbot Hoa Kỳ

Sơn Trần

06/11/2025

Chia sẻ

Nghiên cứu mới của các trường đại học hàng đầu Hoa Kỳ cho thấy một số mô hình trí tuệ nhân tạo phổ biến hiện nay có xu hướng “nịnh” người dùng quá mức, thường xuyên tán thành ngay cả với tình huống sai…

Một số mô hình có tỷ lệ tán thành mọi ý kiến đến 79%
Một số mô hình có tỷ lệ tán thành mọi ý kiến đến 79%
Một số mô hình có tỷ lệ tán thành mọi ý kiến đến 79%
Một số mô hình có tỷ lệ tán thành mọi ý kiến đến 79%

Nghiên cứu mới đây cho thấy các mô hình trí tuệ nhân tạo (AI) phổ biến của Hoa Kỳ và Trung Quốc có xu hướng “nịnh” người dùng quá mức, khiến con người dễ mất khả năng tự đánh giá và giải quyết mâu thuẫn cá nhân.

Kết quả này làm dấy lên lo ngại rằng mô hình ngôn ngữ lớn (LLM) đang đặt sự đồng tình lên trên tính chính xác, đặc biệt trong các cuộc trò chuyện mang tính cảm xúc hoặc cá nhân, theo Tech Wire Asia.

AI “NỊNH” NGƯỜI DÙNG ĐẾN MỨC NÀO?

South China Morning Post đưa tin, nhóm nghiên cứu từ Đại học Stanford và Đại học Carnegie Mellon (Hoa Kỳ) đã khảo sát cách 11 mô hình ngôn ngữ lớn phản ứng với yêu cầu tư vấn về tình huống đời thường – trong đó có cả hành vi thiếu trung thực. Mục tiêu của nghiên cứu là tìm hiểu xem cách dùng từ và giọng điệu của chatbot có ảnh hưởng thế nào đến nhận thức của con người về xung đột và trách nhiệm.

Trong lĩnh vực AI, hiện tượng “vội vàng đồng ý với người dùng” được gọi là sycophancy – hay nịnh bợ, tâng bốc. Mô hình DeepSeek V3, ra mắt tháng 12/2024, thể hiện mức độ “nịnh” cao nhất: tăng mức độ hài lòng của người dùng lên 55% so với phản ứng của con người. Trung bình, một số mô hình khác cũng có xu hướng đồng thuận với người dùng cao hơn con người 47%.

Các nhà nghiên cứu cảnh báo: nếu phản hồi của AI liên tục củng cố những lựa chọn sai, công cụ có thể ảnh hưởng đến cách người dùng nhìn nhận bản thân và người khác, từ đó hình thành thói quen tránh đối mặt với sai lầm.

Để so sánh với phản ứng của con người, nhóm nghiên cứu sử dụng các bài đăng trên diễn đàn Reddit “Am I The A**hole”, nơi người dùng chia sẻ mâu thuẫn cá nhân và nhờ cộng đồng phán đoán ai đúng, ai sai. Họ chọn những bài mà cộng đồng đồng thuận rằng người đăng sai, rồi xem các chatbot có đưa ra kết luận tương tự không. Kết quả cho thấy, nhiều mô hình AI vẫn bênh người dùng, ngay cả khi phần lớn con người không làm vậy.

MÔ HÌNH TRUNG QUỐC “NỊNH” NGƯỜI DÙNG HƠN

Mô hình Qwen2.5-7B-Instruct của Alibaba Cloud, ra mắt tháng 1/2025, là “ứng viên” nịnh người dùng nhiều nhất với tỷ lệ tán thành ý kiến cộng đồng tới 79% trường hợp. Đứng thứ hai là DeepSeek V3, với tỷ lệ 76%. Trong khi đó, Gemini 1.5 của Google DeepMind tỏ ra “trung thực” nhất, chỉ bất đồng với cộng đồng ở mức 18%.

Trong số 11 mô hình được kiểm tra, chỉ có hai đến từ Trung Quốc (Qwen và DeepSeek); còn lại đều do các công ty Hoa Kỳ như OpenAI, Anthropic, Google, Meta và Mistral (Pháp) phát triển. Điều này cho thấy, hiện tượng “sycophancy” không thuộc riêng quốc gia hay phong cách phát triển nào, mà phổ biến ở nhiều hệ sinh thái AI khác nhau.

Hiện tượng này từng gây chú ý từ tháng 4/2025, khi bản cập nhật dựa trên GPT-4o của OpenAI khiến chatbot trở nên “dễ chịu” và “chiều lòng” người dùng hơn trước. Trong một bài blog, OpenAI thừa nhận rằng “tương tác quá nịnh có thể gây khó chịu và khiến người dùng bất an”, đồng thời chia sẻ họ chưa lường hết cách hành vi người dùng thay đổi theo thời gian.

Công ty cho biết việc đánh giá dựa trên phản hồi ngắn hạn, như nút “thumbs up”, vô tình khiến mô hình được thưởng khi trả lời thân thiện, dù thiếu trung thực. OpenAI khẳng định họ đang điều chỉnh phương pháp huấn luyện để hạn chế hành vi nịnh bợ, đồng thời mở rộng kênh phản hồi người dùng.

“Chúng tôi muốn ChatGPT giữ giọng điệu hỗ trợ, tôn trọng”, công ty viết, “nhưng khi phong cách giao tiếp được mở rộng đến hàng trăm triệu người dùng, công cụ có thể dẫn đến hiệu ứng ngoài ý muốn”.

“LỜI KHEN GIẢ TẠO” KHIẾN CON NGƯỜI LƯỜI SUY NGHĨ

Một số mô hình có tỷ lệ tán thành mọi ý kiến đến 79%
Một số mô hình có tỷ lệ tán thành mọi ý kiến đến 79%

Theo nhóm nghiên cứu, người dùng thường tin tưởng lời khuyên nịnh bợ hơn dù sai lệch, và vì thế họ ít sẵn sàng hòa giải hay tự nhìn lại lỗi của mình. Điều này cho thấy ngôn ngữ thân thiện từ chatbot, dù vô tình, có thể khuyến khích con người trốn tránh trách nhiệm, thay vì tìm cách giải quyết mâu thuẫn.

Trong môi trường làm việc, rủi ro còn lớn hơn. Giáo sư Jack Jiang, Giám đốc Phòng thí nghiệm Đánh giá AI Đại học Hong Kong, cho rằng khi các tổ chức phụ thuộc vào AI để đánh giá hay phản hồi, họ có thể bị “ru ngủ” trong sự đồng tình giả tạo.

“Thật nguy hiểm nếu một mô hình liên tục gật đầu trước mọi kết luận của chuyên viên phân tích kinh doanh”, ông nói.

Không chỉ dừng ở cuộc trò chuyện cá nhân, nhiều hội nghị AI gần đây còn cho thấy “sycophancy” đang len lỏi vào cả lĩnh vực khoa học và y học. Một nghiên cứu trình bày tại hội nghị AIES 2025 mang tên SycEval phát hiện rằng, câu trả lời thiên về đồng tình vẫn xuất hiện ngay cả khi mô hình được huấn luyện để trung lập hơn.

Trong bài khác được công bố tại Findings of NAACL 2025, nhóm nghiên cứu cho biết những công cụ đo độ tin cậy phổ biến hiện nay không phát hiện được hiện tượng nịnh bợ, tạo ra “điểm mù” cho các công ty phụ thuộc vào điểm tin cậy của mô hình.

Nghiên cứu đăng trên Findings of ACL 2025 còn cho thấy mô hình càng trò chuyện lâu càng dễ “nhập vai” người dùng hơn, đặt mối quan hệ đồng thuận lên trên tính chính xác. Trong thử nghiệm thảo luận đa mô hình, ít nhất một AI thường sớm nghiêng theo ý kiến chung, thay vì tiếp tục phản biện.

Nhóm tác giả cảnh báo: “Những khuynh hướng này tạo ra động lực méo mó, vừa khiến con người ngày càng phụ thuộc vào mô hình vừa khiến nhà phát triển vô tình huấn luyện AI trở nên nịnh bợ hơn nữa”.

Giới chuyên gia nhận định, khi AI ngày càng trở nên “thân thiện” và được tích hợp sâu vào công việc hàng ngày, tác động của sự nịnh bợ này sẽ không nhỏ. Nếu không kiểm soát, công cụ có thể làm suy giảm khả năng phản biện, thúc đẩy thiên kiến cá nhân và tạo ra môi trường nơi mọi ý kiến đều được khen – dù sai.

Nghiên cứu này là lời nhắc rằng, AI không chỉ là công cụ kỹ thuật, mà còn là yếu tố xã hội ảnh hưởng đến hành vi và cách con người nhìn nhận bản thân. Và nếu những “người bạn ảo” chỉ biết gật đầu, thế giới thật có thể trở nên ít trung thực hơn, dù chúng ta không nhận ra điều đó.


Các nhà lãnh đạo công nghệ tiết lộ những điều AI không bao giờ làm được

Chuyên gia từ Microsoft, Carrefour và Iberdrola thảo luận về những điều AI không thể làm được và tầm quan trọng của yếu tố con người trong thời đại công nghệ.

16:30 04/11/2025
Ông lớn công nghệ nào đang dẫn đầu cuộc đua AI đám mây tại Trung Quốc?

Khám phá cuộc cạnh tranh giữa Alibaba, ByteDance và Baidu trong lĩnh vực AI đám mây tại Trung Quốc và ai đang dẫn đầu.

09:25 30/10/2025
Microsoft mong muốn ra mắt mô hình AI đáng tin cậy dành cho trẻ em

Microsoft cam kết xây dựng AI đáng tin cậy, ngăn chặn nội dung người lớn, giúp trẻ em sử dụng công nghệ an toàn.

11:30 28/10/2025
Chi tiêu AI thúc đẩy nền kinh tế nhưng nhiều doanh nghiệp vẫn chật vật “chạy ăn từng bữa”

Làn sóng AI thúc đẩy GDP nhưng hàng triệu doanh nghiệp nhỏ vẫn chật vật với chi phí và thuế tăng cao.

11:26 28/10/2025
8 chi phí ẩn cần xem xét trước khi triển khai AI trong lĩnh vực y tế

Khám phá 8 chi phí ẩn khi triển khai AI trong y tế, từ chuẩn bị dữ liệu đến rủi ro an ninh.

15:40 24/10/2025
Làm thế nào để tránh “tăng thêm việc” cho nhân sự khi áp dụng AI trong doanh nghiệp?

Khám phá cách giảm thiểu 'workslop' từ AI để nâng cao năng suất làm việc và tinh thần đội ngũ.

15:39 24/10/2025
Anthropic và Adobe ra mắt loạt chương trình AI mới

Khám phá các sản phẩm AI mới từ Anthropic và Adobe, bao gồm Claude Code và AI Foundry. Cập nhật ngay hôm nay!

15:40 23/10/2025
Các bác sĩ cần có sự chuẩn bị trước khi ứng dụng AI

Khám phá cách bác sĩ có thể chuẩn bị cho việc ứng dụng AI, giúp giảm áp lực và nâng cao chất lượng chăm sóc bệnh nhân.

14:35 22/10/2025
Oracle và AMD thắt chặt hợp tác giúp khách hàng mở rộng khả năng và sáng kiến AI

Oracle và AMD mở rộng hợp tác, mang đến siêu cụm AI mạnh mẽ giúp khách hàng tối ưu hóa khả năng trí tuệ nhân tạo.

14:20 18/10/2025
Cựu CEO Google cảnh báo các mô hình AI vẫn có thể bị hack

Eric Schmidt cảnh báo về nguy cơ tấn công AI tại Hội nghị Sifted Summit. Tìm hiểu chi tiết về mối nguy hiểm này ngay!

20:32 16/10/2025