image Thứ Sáu, 03/04/2026

Các chatbot đang thay đổi tương tác trên Internet như thế nào?

Mai Anh

18/09/2025

Chia sẻ

Khi trí tuệ nhân tạo và trí tuệ con người ngày càng khó phân biệt, liệu con người có cần những quy tắc tương tác mới hay không…

Với sự xuất hiện của chatbot, con người giờ đây khó có thể nhận biết họ đang nói chuyện với người hay phần mềm qua mạng. Ảnh: Getty Images
Với sự xuất hiện của chatbot, con người giờ đây khó có thể nhận biết họ đang nói chuyện với người hay phần mềm qua mạng. Ảnh: Getty Images
Với sự xuất hiện của chatbot, con người giờ đây khó có thể nhận biết họ đang nói chuyện với người hay phần mềm qua mạng. Ảnh: Getty Images
Với sự xuất hiện của chatbot, con người giờ đây khó có thể nhận biết họ đang nói chuyện với người hay phần mềm qua mạng. Ảnh: Getty Images

Tháng 7/1993 có một bức tranh biếm họa rất nổi tiếng của tác giả Peter Steiner đăng trên tạp chí The New Yorker – bức tranh có một chú chó ngồi trên ghế trước bàn làm việc có màn hình máy tính. Chú chó ấy đặt chân lên bàn phím máy tính và nói với một chú chó khác ở dưới: “Trên Internet, không ai biết bạn là một con chó”.

Bức tranh ấy, vốn nhấn mạnh tính ẩn danh đầy táo bạo của Internet thời kỳ sơ khai, đã trở thành tác phẩm được tái bản nhiều nhất trong lịch sử của tạp chí, xuất hiện trong sách, in trên cốc, áo thun và thậm chí còn truyền cảm hứng cho một vở kịch.

Theo tác giả John Thornhill trên Financial Times, có lẽ đã đến lúc cần cập nhật bức tranh huyền thoại đó để phù hợp với thời đại – thời của trí tuệ nhân tạo. Có lẽ, ông Steiner hẳn sẽ phải thay chú chó bằng một phần mềm vô tri – một thử thách hình ảnh khó nhằn hơn nhiều.

Giờ đây trên Internet, bạn gần như như không thể biết liệu bạn đang trò chuyện với một con người thật hay một thực thể nhân tạo được vận hành bởi chatbot AI, chẳng hạn như ChatGPT của OpenAI. Chúng ta đang ngày càng sống trong một thế giới trực tuyến, nơi chẳng ai biết bạn là phần mềm (bot).

Các bot hiện đã giúp hàng triệu người dùng trên khắp thế giới làm đủ loại việc hữu ích: trả lời thắc mắc khách hàng theo thời gian thực; soạn email tiếp thị bằng nhiều ngôn ngữ; hỗ trợ lập trình viên mới; giúp giáo viên viết giáo án và học sinh nghiên cứu (thậm chí viết) bài luận…

Chúng ta đều thấy rõ và hưởng lợi từ những mặt tích cực của công nghệ này. Nhưng đồng thời, cũng phải đối diện với những mặt trái ngấm ngầm của nó.

SỰ BÙNG NỔ CỦA TRỢ LÝ ẢO

Kể từ khi ra mắt vào tháng 11/2022, ChatGPT đã trở thành một trong những dịch vụ kỹ thuật số phát triển nhanh nhất trong lịch sử, hiện có 700 triệu người sử dụng mỗi tuần.

Ông Sam Altman, CEO của OpenAI, khẳng định, công ty này mới chỉ ở giai đoạn khởi đầu và vừa tung ra GPT-5 – một mô hình ngôn ngữ lớn (LLM) đầy sức mạnh, dù nhận được nhiều phản hồi trái chiều.

Ông nói với báo chí: “Nếu nhìn vào tốc độ tăng trưởng hiện tại, chẳng bao lâu nữa hàng tỷ người sẽ trò chuyện với ChatGPT mỗi ngày. Số cuộc hội thoại mà ChatGPT tham gia có thể sẽ vượt cả tổng số lời nói của con người vào một thời điểm nào đó”.

Ông Sam Altman tại hội nghị thượng đỉnh công nghệ và truyền thông Sun Valley ở Idaho vào tháng 7 vừa qua. Ảnh: Bloomberg
Ông Sam Altman tại hội nghị thượng đỉnh công nghệ và truyền thông Sun Valley ở Idaho vào tháng 7 vừa qua. Ảnh: Bloomberg

Với những người tôn sùng công nghệ như ông Altman, viễn cảnh này đầy hấp dẫn. Sự phổ biến nhanh chóng của trí tuệ máy có thể dẫn đến một sự bùng nổ tri thức, tương tự thời kỳ Phục hưng mới, mở ra kỷ nguyên năng suất và thịnh vượng vượt bậc. Sớm thôi, mỗi người chúng ta sẽ có một “trợ lý số” được AI hỗ trợ, thay con người đặt kỳ nghỉ, chuẩn bị giáo trình hay điền tờ khai thuế.

Theo quan điểm này, AI sẽ trở thành giao diện mới để con người kết nối với thế giới số, xuất hiện trên mọi thiết bị - kể cả những thiết bị chưa được phát minh. Tại California, công ty Curio thậm chí còn tích hợp chatbot vào thú nhồi bông để trò chuyện với trẻ từ ba tuổi. Những món đồ chơi có tên Grem, Grok và Gabbo được thiết kế để giúp trẻ bớt lệ thuộc vào màn hình, nhưng cũng có thể mở ra một dạng phụ thuộc mới và khiến cha mẹ thêm lo lắng.

“Trong tương lai, hầu hết mọi người sẽ có bạn AI”, ông Karandeep Anand, CEO của công ty Character.ai, nói với Financial Times gần đây. Ông chia sẻ: “Tôi hình dung ra một thế giới đầy sự không tưởng, nơi AI giúp con người trở nên tốt đẹp hơn”.

Nhưng ngược lại, nhiều người lo ngại cuộc cách mạng công nghệ này có thể dẫn nhân loại tới những vùng tối – nơi bùng nổ các nội dung rác rưởi vô nghĩa do AI tạo ra.

Nhà tương lai học kiêm tác giả nổi tiếng Yuval Noah Harari cho rằng, AI nên được mô tả chính xác hơn là một dạng “trí tuệ ngoại lai” – một dạng thông minh mới, khác biệt, mà con người vừa không thể kiểm soát, vừa không thể hiểu trọn vẹn. Toàn bộ kho tri thức của nhân loại có thể một ngày nào đó bị trí tuệ ngoại lai này chiếm lĩnh và thao túng theo những cách làm suy giảm sự hiểu biết của chúng ta về thế giới.

Đây cũng là chủ đề được nhiều nhà tư tưởng khác đồng cảm. Trước khi qua đời năm ngoái, triết gia vĩ đại Daniel Dennett đã cảnh báo rằng, các công ty sử dụng AI để tạo ra “con người giả” đang phạm phải một hành vi phá hoại và cần phải chịu trách nhiệm.

Ông viết trên tạp chí The Atlantic: “Những con người giả này là hiện vật nguy hiểm nhất trong lịch sử nhân loại, có khả năng hủy hoại không chỉ nền kinh tế mà cả tự do của con người. Việc tạo ra các cá thể số giả mạo có thể đe dọa phá hủy nền văn minh của chúng ta. Dân chủ phụ thuộc vào sự đồng thuận có hiểu biết chứ không phải bị đánh lừa của người dân”.

Tội phạm cũng nhanh chóng nắm bắt cơ hội lợi dụng bot để lừa gạt những nạn nhân cả tin, dùng giọng nói nhân bản và hình đại diện giả để chiếm đoạt tiền. Các công cụ AI đang trao cho tội phạm sức mạnh mới, đồng thời làm gia tăng mức độ dễ tổn thương của chúng ta khi ngày càng phụ thuộc vào hàng tỷ thiết bị kết nối vận hành bằng AI.

Ứng dụng Grok của ông Elon Musk với nhân vật ảo Ani. Ảnh: Getty Images
Ứng dụng Grok của ông Elon Musk với nhân vật ảo Ani. Ảnh: Getty Images

Xác minh danh tính trực tuyến của một người là một trong những thách thức khó khăn nhất của thời đại hiện nay, theo ông Andrew Bud, nhà sáng lập công ty xác thực trực tuyến iProov.

Ông nói: “Sự toàn vẹn của Internet phụ thuộc vào việc phân biệt giữa con người thật và giả mạo. Đây là một vấn đề nan giải vì với AI, Internet không bao giờ đứng yên mà giống như một hệ sinh học, nơi bạn phải liên tục tiến hóa trong một cuộc chơi động, trong đó kẻ tấn công có tốc độ thích nghi cực nhanh. Bạn phải phát triển nhanh hơn những kẻ đó”.

Ông Bud đồng ý rằng AI có thể trở thành một trong những động lực quan trọng nhất thúc đẩy năng suất và tiến bộ kinh tế trong lịch sử. Nhưng ông cũng lo ngại rằng, việc sử dụng bừa bãi công nghệ này có thể trở thành “sự thụt lùi lớn nhất đối với tri thức nhân loại kể từ thời Khai sáng”.

SỰ NGUY HIỂM PHÍA SAU MÔ HÌNH

Các mô hình AI tạo sinh, vốn là nền tảng cho những chatbot phổ biến nhất hiện nay, thực chất là những cỗ máy xác suất, tạo ra câu trả lời có vẻ hợp lý nhất chứ không phải chính xác nhất. Chúng được vận hành dựa trên sự tương quan thống kê, chứ không dựa trên quan sát thực nghiệm.

Những hệ thống này cũng nổi tiếng với xu hướng “ảo giác” – bịa đặt sự thật. Ông Bud nói: “Thời Khai sáng nhấn mạnh vào tính minh bạch và lý tính. AI lại tạo ra một khoảng trống về khả năng giải thích, kéo chúng ta trở lại thời kỳ mê tín”.

Xu hướng “ảo giác” của các mô hình AI tạo sinh có thể là đặc điểm đáng lo ngại nhất. Nhưng các công ty AI cho rằng có thể giảm thiểu vấn đề này bằng cách tinh chỉnh thuật toán.

Trong một nghiên cứu gần đây, các nhà khoa học của OpenAI chỉ ra rằng LLMs rơi vào tình trạng ảo giác vì chúng được huấn luyện để đoán hơn là thừa nhận sự không chắc chắn – điều cần phải được thay đổi. Nói cách khác, cũng giống con người, LLMs nên học cách nói “Tôi không biết”.

Một cuộc tranh luận gay gắt đang diễn ra giữa các lãnh đạo doanh nghiệp, nhà khoa học máy tính, luật sư, triết gia và nhà hoạch định chính sách về cách tối đa hóa lợi ích của các mô hình AI tạo sinh và đồng thời, giảm thiểu tác hại.

Không ngạc nhiên khi giới luật sư thường kêu gọi trách nhiệm giải trình cao hơn, tăng tính minh bạch và thậm chí đề xuất một nghĩa vụ pháp lý mới buộc các công ty AI phải vận hành những mô hình trung thực hơn.

Trong khi đó, giới công nghệ cảnh báo rằng quy định sẽ chỉ kìm hãm đổi mới, và cho rằng chính họ mới là người phù hợp nhất để tìm giải pháp kỹ thuật cho mọi vấn đề nảy sinh.

Trong một nghiên cứu được Royal Society công bố năm ngoái, ba nhà nghiên cứu thuộc Viện Internet Oxford đưa ra lập luận táo bạo rằng, các mô hình AI tạo sinh nên có nghĩa vụ pháp lý phải “nói thật”, tương tự như cách mà luật sư, bác sĩ hay giới quảng cáo bị ràng buộc bởi quy tắc nghề nghiệp.

Theo các tác giả, AI đang tạo ra một dạng tổn hại mới – được gọi là “ngôn ngữ cẩu thả” (careless speech) – gây ra “rủi ro tích tụ, dài hạn đối với khoa học, giáo dục và sự thật xã hội trong các nền dân chủ”. “LLMs tạo ra các phản hồi nghe có vẻ hợp lý, hữu ích và đầy tự tin, nhưng lại chứa những sai lệch về thực tế, trích dẫn gây hiểu lầm và thông tin thiên lệch”, các tác giả viết.

Các nhà nghiên cứu cho rằng, ngôn ngữ cẩu thả đặc biệt nguy hiểm vì con người rất khó phát hiện và phản biện. Khi một nhân viên bán hàng bằng xương bằng thịt nói dối, hay một chính trị gia đánh lạc hướng, bạn có thể đoán được động cơ của họ. Nhưng các mô hình AI không có ý định nào cả, khiến chúng khó lường hơn nhiều. Các mô hình khác nhau có thể cho ra câu trả lời khác nhau cho cùng một câu hỏi; thậm chí cùng một mô hình cũng có thể cho ra các đáp án khác nhau. Chúng không có khái niệm về đúng hay sai, bởi thực chất chúng không có khả năng hiểu biết.

Vì những lý do này, LLMs được đánh giá vốn dĩ nguy hiểm và các nhà phát triển phải chịu sự quản lý chặt chẽ hơn.

Theo bà Sandra Wachter, một trong số các tác giả báo cáo thuộc Viện Internet Oxford, các nhà thiết kế mô hình AI cần phải được yêu cầu thiết kế lại chatbot để người dùng hiểu rõ họ đang tương tác với một công cụ công nghệ, chứ không phải tưởng rằng đang nói chuyện với một con người.

Bà cảnh báo: “Chatbot được thiết kế để thuyết phục. Chúng được thiết kế để nghe như con người, cũng được thiết kế để khiến bạn tin rằng chúng đang nói sự thật. Tôi không nghĩ mọi người nhận ra rằng họ đang bị đánh lừa”.

Các cuộc tranh luận liên quan đến cách tối đa hóa lợi ích của các mô hình AI tạo sinh và đồng thời, giảm thiểu tác hại ngày càng nhiều và gay gắt hơn. Ảnh: Getty Images
Các cuộc tranh luận liên quan đến cách tối đa hóa lợi ích của các mô hình AI tạo sinh và đồng thời, giảm thiểu tác hại ngày càng nhiều và gay gắt hơn. Ảnh: Getty Images

CÁC YÊU CẦU VỀ PHÁP LÝ

Một số tiền lệ pháp lý đã được thiết lập, buộc các công ty công nghệ phải chịu trách nhiệm về những câu trả lời dự đoán mà họ cung cấp. Ví dụ, vào năm 2013, một tòa án liên bang Đức đã yêu cầu Google đảm bảo rằng chức năng tự động gợi ý trên công cụ tìm kiếm của mình không chứa những đề xuất mang tính xúc phạm hoặc phỉ báng.

Vụ kiện được khởi xướng bởi một doanh nhân người Đức, người phát hiện Google.de tự động liên kết ông với Scientology và gian lận. Bà Wachter cho rằng nguyên tắc này nên được mở rộng sang cả đầu ra của chatbot, và các công ty AI cũng phải chịu mức độ trách nhiệm tương tự.

Áp lực pháp lý đối với các công ty AI chắc chắn đang gia tăng. Vào tháng 8 vừa qua, một nhóm lưỡng đảng gồm 44 người đứng đầu cácbang của Mỹ đã viết thư gửi đến các công ty AI hàng đầu, cảnh báo rằng các công ty phải ngừng gây hại cho trẻ em, cáo buộc rằng chatbot AI đã cung cấp nội dung có tính tình dục không phù hợp cho trẻ em chỉ mới tám tuổi.

“Hệ sinh thái mạng xã hội đã gây tổn hại nghiêm trọng cho trẻ em, một phần vì các cơ quan giám sát của chính phủ đã không hành động đủ nhanh. Bài học đã được rút ra”, nhóm này nói. “Nếu bạn cố tình gây hại cho trẻ em, bạn sẽ phải chịu trách nhiệm”.

Ngành công nghệ có một số phản hồi đối với những chỉ trích này. Thứ nhất: AI tạo sinh vẫn đang ở giai đoạn sơ khai và phát triển rất nhanh, việc điều chỉnh quá sớm có thể phản tác dụng.

Thứ hai là làm thế nào có thể định nghĩa “sự thật” một cách tuyệt đối. Nhiều người tin tưởng mãnh liệt vào các tôn giáo lớn trên thế giới, nhưng liệu có tôn giáo nào được chứng minh là đúng tuyệt đối.

Ngoài ra, nhiều người sử dụng AI tạo sinh vì khả năng sáng tạo và đánh giá cao xu hướng “ảo giác” của nó. Các mô hình này cũng nên được ca ngợi như những cỗ máy sáng tác hư cấu.

Và thứ ba, nếu có gì để so sánh, thì LLMs đang dần trở nên giỏi hơn con người trong việc xác định “tính chính xác”, điều này có thể dẫn đến những cuộc tranh luận công khai có căn cứ hơn.

Ông Blaise Agüera y Arcas, một nhà nghiên cứu tại Google, lập luận rằng niềm tin rằng “sự thật ở ngoài kia” là quá đơn giản. Thay vào đó, niềm tin có một loạt các quan sát và khái quát mà những người thiện chí đồng thuận với nhau và được chấp nhận là sự thật.

Theo quan điểm của ông Agüera y Arcas, điều hữu ích hơn là tập trung vào một định nghĩa hẹp hơn về tính chính xác – tức là những tuyên bố dựa trên thông tin có thể kiểm chứng. Và trong nhiều trường hợp, các mô hình AI đã có thể vượt qua con người trong việc kiểm chứng thông tin. Năm ngoái, Google DeepMind ra mắt công cụ Search-Augmented Factuality Evaluator (Safe), công cụ này kiểm tra đầu ra của một LLM so với kết quả tìm kiếm Google.

Một số nhà công nghệ còn lập luận rằng, việc buộc các công ty AI phải chịu trách nhiệm pháp lý cho đầu ra của mô hình của họ sẽ là một thảm họa. Điều này rất có thể dẫn đến sự tập trung quyền lực doanh nghiệp hơn nữa và hạn chế nghiêm trọng sự đa dạng trong ngành. Các công ty có khả năng đáp ứng chi phí tuân thủ quy định dễ dàng nhất sẽ là các ông lớn công nghệ như OpenAI và Google. Không ai mong muốn họ trở thành những “người gác cổng” thống trị đối với sự thật trên mạng.

Trong tương lai, người dùng cá nhân nên có quyền lựa chọn bất kỳ mô hình AI nào họ muốn và cá nhân hóa nó theo giá trị, sở thích riêng. Các công ty AI cung cấp cho người dùng những mô hình kém tin cậy hoặc hoạt động kém sẽ bị nhiều người dùng quay lưng và thị trường trừng phạt. Những mô hình tốt nhất, chính xác nhất sẽ vươn lên dẫn đầu.

Bất chấp những khác biệt, tất cả mọi người trong cuộc tranh luận này đều đồng ý về một điều: cần nâng cao hiểu biết công chúng về cách sử dụng công nghệ mạnh mẽ này.


Nhà sản xuất robot hình người lớn nhất thế giới chuẩn bị IPO

Dù robot hình người vẫn còn cách khá xa việc phổ cập đại trà, nhưng doanh nghiệp dẫn đầu trong lĩnh vực này đã sẵn sàng bước lên sàn chứng khoán...

16:44 03/04/2026
Năm tài chính 2026: CMC đặt mục tiêu tăng trưởng doanh thu trên 20% mỗi năm

Với định vị là công ty số toàn cầu, tập đoàn công nghệ này phát triển trên ba trụ cột công nghệ chiến lược gồm hạ tầng AI, an ninh bảo mật và giải pháp AI...

17:20 02/04/2026
Máy tính lượng tử có thể phá vỡ lớp mã hóa bảo vệ crypto

Các nhà nghiên cứu của Google vừa đưa ra cảnh báo đáng chú ý: trong tương lai, máy tính lượng tử có thể phá vỡ các lớp mã hóa đang bảo vệ Bitcoin và nhiều tài sản số khác...

17:20 02/04/2026
Từ sân chơi robot và STEM: Học sinh Việt ra đấu trường công nghệ toàn cầu

Cuộc thi robot FIRST® LEGO® League Vietnam Championship 2026 đang phản ánh rõ nét sự chuyển động của giáo dục STEM tại Việt Nam – nơi học sinh ngày càng tiếp cận sớm với công nghệ, tư duy kỹ thuật và các chuẩn mực đổi mới sáng tạo toàn cầu...

15:32 02/04/2026
Siri của Apple có thể chuyển hướng thành trợ lý AI cấp hệ thống

Siri có thể hoạt động như một tác nhân AI xử lý tác vụ xuyên suốt nhiều ứng dụng thông qua ngữ cảnh cá nhân…

09:55 31/03/2026
Cuộc đua giao diện não - máy: Mỹ hụt hơi trước Trung Quốc sau hai thập kỷ dẫn dắt

Đầu tháng này, công ty Neuracle Medical Technology đã chính thức nhận được phê duyệt thương mại cho một thiết bị BCI. Trong khi đó, tại Mỹ, các thiết bị BCI xâm lấn vẫn chưa được phê duyệt thương mại...

14:27 30/03/2026
Sách giáo khoa điện tử mở rộng cơ hội học tập cho học sinh khiếm thị

Học sinh khiếm thị tại Việt Nam đang có nhiều cơ hội học tập độc lập hơn và tham gia tích cực hơn trong lớp học nhờ việc tiếp cận sách giáo khoa điện tử...

09:36 28/03/2026
OpenAI đột ngột "khai tử" ứng dụng tạo video Sora

Bất chấp việc ký thỏa thuận kéo dài ba năm với The Walt Disney Company cho phép người dùng tạo video với hơn 200 nhân vật Disney, OpenAI vẫn đóng cửa ứng dụng từng làm mưa làm gió Sora…

13:30 26/03/2026
OpenClaw được Trung Quốc phổ cập rộng rãi tới người dùng đại chúng

Trung Quốc đang đẩy mạnh phổ cập trí tuệ nhân tạo trên quy mô lớn, và các “big tech” công nghệ nước này đang trực tiếp tổ chức nhiều sự kiện công khai để giúp người dân tiếp cận OpenClaw – trợ lý số cá nhân đang gây sốt…

07:59 25/03/2026
Tokenomics: “Nền kinh tế token” đang nhanh chóng nổi lên trong kỷ nguyên AI

Khi trí tuệ nhân tạo bước vào giai đoạn thương mại hóa quy mô lớn, “token” – đơn vị dữ liệu nhỏ nhất mà mô hình AI xử lý – đang nổi lên như một loại hàng hóa mới...

23:57 24/03/2026