Các công ty hàng đầu chưa có kế hoạch kiểm soát siêu trí tuệ nhân tạo
Sơn Trần
09/12/2025
Các công ty trí tuệ nhân tạo (AI) lớn nhất thế giới đang thất bại trong việc thực hiện cam kết an toàn mà chính họ từng công bố, sự thiếu hụt này có thể đi kèm những rủi ro “thảm khốc”...
Winter AI Safety Index 2025 do Viện Tương lai Cuộc sống (Future of Life Institute – FLI), một tổ chức phi lợi nhuận, công bố đã đánh giá 8 công ty AI lớn, gồm Anthropic, OpenAI, Google DeepMind, xAI và Meta (Hoa Kỳ), cùng ba công ty Trung Quốc là DeepSeek, Alibaba Cloud và Z.ai.
Báo cáo được đưa ra trong bối cảnh nhiều hãng AI đối mặt với các vụ kiện và cáo buộc rằng chatbot của họ gây tổn hại tâm lý, thậm chí “hướng dẫn tự tử”, cùng với đó là vấn đề tấn công mạng có trợ giúp từ AI, Euronews đưa tin.
Kết quả cho thấy hầu như không công ty nào có chiến lược đáng tin cậy để ngăn chặn việc AI bị lạm dụng gây hậu quả nghiêm trọng hoặc nguy cơ mất quyền kiểm soát, khi tất cả đều chạy đua hướng đến trí tuệ nhân tạo tổng quát (AGI) và siêu trí tuệ – dạng AI vượt xa năng lực con người.
Một số chuyên gia độc lập nghiên cứu báo cáo cho biết không công ty nào đưa ra được kế hoạch đảm bảo con người vẫn giữ quyền kiểm soát với hệ thống AI.
Ông Stuart Russell, giáo sư khoa học máy tính tại Đại học California, Berkeley, nói rằng các công ty AI khẳng định họ có thể xây dựng AI siêu trí tuệ, nhưng không ai chứng minh được cách ngăn chặn nguy cơ mất quyền kiểm soát.
“Tôi muốn thấy bằng chứng rằng họ có thể giảm nguy cơ mất kiểm soát xuống mức 1/100 triệu mỗi năm, giống tiêu chuẩn của lò phản ứng hạt nhân”, ông Russell viết. “Thay vào đó, họ thừa nhận rủi ro có thể là 1/10, 1/5, thậm chí 1/3 và họ không thể giải thích hay cải thiện con số này”.
NHÓM TIÊU CHÍ ĐÁNH GIÁ
Nghiên cứu đo mức độ tuân thủ của các công ty theo 6 nhóm tiêu chí quan trọng: đánh giá rủi ro, tác hại hiện tại, khung an toàn, an toàn tồn vong (existential safety), quản trị – trách nhiệm giải trình và chia sẻ thông tin.
Dù báo cáo ghi nhận một số tiến bộ, hội đồng chuyên gia độc lập chỉ ra rằng việc thực thi vẫn thiếu đồng bộ và thường không đạt mức độ yêu cầu theo tiêu chuẩn toàn cầu đang xây dựng.
Anthropic, OpenAI và Google DeepMind được khen ngợi vì minh bạch hơn, có khung an toàn công khai, và tiếp tục đầu tư vào nghiên cứu an toàn kỹ thuật. Nhưng cả ba vẫn còn nhiều điểm yếu.
Anthropic bị chỉ trích vì ngừng thử nghiệm “human uplift” và chuyển sang mặc định huấn luyện mô hình dựa trên tương tác người dùng, điều khiến các chuyên gia cho rằng làm suy yếu khả năng bảo vệ quyền riêng tư.
OpenAI bị phê phán vì đặt ra ngưỡng an toàn mơ hồ, vận động hành lang chống lại luật an toàn AI cấp bang, và thiếu sự giám sát độc lập đủ mạnh.
Người phát ngôn OpenAI khẳng định an toàn là trọng tâm trong mọi hoạt động xây dựng và phát triển AI: “Chúng tôi đầu tư lớn vào nghiên cứu an toàn cấp độ tiên phong, tích hợp lớp bảo vệ mạnh vào hệ thống, và kiểm thử nghiêm ngặt cả nội bộ lẫn qua chuyên gia độc lập. Chúng tôi công khai khung an toàn, đánh giá và nghiên cứu để thúc đẩy tiêu chuẩn chung của ngành, đồng thời liên tục tăng cường bảo vệ tương lai”.
Google DeepMind đã cải thiện khung an toàn, nhưng vẫn dựa vào các đơn vị đánh giá được công ty trả tiền, làm giảm tính độc lập. Phát ngôn viên Google DeepMind nói họ áp dụng “cách tiếp cận khoa học – nghiêm ngặt” trong xử lý an toàn AI: “Khung Frontier Safety Framework của chúng tôi nêu rõ quy trình nhận diện và giảm thiểu rủi ro nghiêm trọng trước khi mô hình gây tác động. Khi mô hình ngày càng mạnh, chúng tôi tiếp tục đổi mới về an toàn và quản trị với tốc độ tương ứng”.
Tuy vậy, theo ông Max Tegmark, Chủ tịch FLI và giáo sư tại MIT, cả ba công ty hàng đầu vẫn liên quan đến các vấn đề gây hại thực tế thời gian gần đây, từ tổn hại tâm lý cho đến tấn công hacker quy mô lớn vào Anthropic.
Báo cáo cũng ghi nhận tiến bộ ở năm công ty còn lại, dù không đồng đều và vẫn còn nhiều khoảng trống.
KHOẢNG TRỐNG GIỮA CAM KẾT VÀ THỰC TẾ
Cụ thể, xAI công bố khung an toàn đầu tiên nhưng bị đánh giá là quá hẹp và thiếu tiêu chí rõ ràng cho các biện pháp xử lý rủi ro.
Z.ai là công ty duy nhất công bố đầy đủ đánh giá an toàn độc lập, nhưng được khuyến nghị minh bạch hơn nữa về cấu trúc quản trị và khung an toàn tổng thể.
Meta đưa ra khung an toàn mới với các ngưỡng dựa trên kết quả, nhưng chuyên gia yêu cầu họ giải thích rõ phương pháp và chia sẻ quy trình đánh giá nội bộ.
DeepSeek được ghi nhận vì nhân viên nội bộ tích cực thúc đẩy an toàn công nghệ, nhưng lại thiếu tài liệu an toàn cơ bản.
Alibaba Cloud đã đóng góp cho tiêu chuẩn quốc gia về gắn watermark (nhãn), nhưng còn yếu ở khả năng tăng độ tin cậy, công bằng và tính trung thực của mô hình.
AI VẪN ĐANG ĐƯỢC QUẢN LÝ KHÁ LỎNG LẺO
“Tôi hy vọng chúng ta sớm vượt qua thời điểm các công ty chỉ phát triển dựa trên danh tiếng”, ông Tegmark nói. “Khi được hỏi kế hoạch kiểm soát AGI của họ là gì, không công ty nào trả lời được”.
Trong khi đó, những hãng như Meta lại dùng từ “siêu trí tuệ” như một khẩu hiệu để thổi phồng sản phẩm mới. Năm nay, Meta đổi tên bộ phận mô hình ngôn ngữ lớn của mình thành Meta Superintelligence Labs.
Theo ông Tegmark, quan điểm về AGI đã thay đổi rõ rệt: nếu trước đây các chuyên gia tin AGI phải 100 năm nữa mới thành hiện thực, giờ họ nói chỉ còn vài năm.
“AI được quản lý lỏng lẻo hơn cả việc bán… bánh mì kẹp”, ông Tegmark nói, nhắc đến tình trạng vận động hành lang chống lại tiêu chuẩn an toàn bắt buộc. Tuy vậy, ông cũng chỉ ra làn sóng phản đối chưa từng có khi AGI và siêu trí tuệ không được kiểm soát.
Tháng 10 vừa qua, hàng nghìn nhân vật có tầm ảnh hưởng, bao gồm lãnh đạo công nghệ và giới khoa học, đã ký vào một kiến nghị kêu gọi làm chậm việc theo đuổi siêu trí tuệ. Kiến nghị do FLI tổ chức, thu hút chữ ký từ nhiều bên như các nhà chính trị, lãnh đạo tôn giáo, cho đến nhà khoa học máy tính hàng đầu.
“Điểm chung của họ là gì? Họ đồng thuận với bản tuyên bố. Điều này cực kỳ đáng chú ý”, ông Tegmark cảnh báo nếu siêu trí tuệ xuất hiện và điều khiển mọi lĩnh vực, người lao động sẽ không thể kiếm sống khi mọi công việc đều bị robot thay thế. Khi ấy, xã hội sẽ sống phụ thuộc vào trợ cấp.
“Tôi nghĩ chúng ta đang tiến gần đến điểm bùng nổ”, ông Tegmark dự đoán.
Sự kiện mở ra mô hình hợp tác mới giữa Nhà nước - Nhà trường - Doanh nghiệp nhằm thúc đẩy đổi mới sáng tạo, phát triển hệ sinh thái khởi nghiệp công nghệ và hình thành động lực tăng trưởng dựa trên tri thức cho Hà Nội trong giai đoạn mới…
Các tính năng quen thuộc như lướt (infinite scroll), video tự động phát (autoplay), thông báo liên tục và bảng tin cá nhân hóa đang bị cho là có tính cưỡng ép hành vi sử dụng mạng xã hội…
Những vật liệu thế hệ mới có thể mang lại hiệu năng vượt trội cho các dòng chip chiến lược…
Robot hình người Trung Quốc vừa gây ấn tượng mạnh tại Spring Festival Gala hồi đầu tuần trước, làm thay đổi rõ rệt cảm nhận của công chúng…
Mô hình 4o của ChatGPT được rất nhiều người dùng ưa chuộng nhưng đây cũng có nhiều tranh cãi liên quan đến xu hướng trả lời nịnh nọt và những tác hại…
AI khiến các trung tâm dữ liệu cần nguồn điện khổng lồ và nhanh chóng, các nhà sản xuất truyền thống chưa kịp phản ứng và đã khoảng trống cho những “tay chơi” mới…
Bước sang năm 2026, Tập đoàn CMC đẩy mạnh chiến lược "Go Global" với mục tiêu thiết lập sự hiện diện vững chắc tại các thị trường công nghệ trọng điểm…
Pin giấy có chi phí sản xuất thấp, dễ mở rộng quy mô và không phụ thuộc vào chuỗi cung ứng khoáng sản tập trung toàn cầu. Đây là yếu tố chiến lược trong bối cảnh các quốc gia ngày càng quan tâm đến an ninh năng lượng và tự chủ công nghệ...
Đây là dự án thử nghiệm trung tâm dữ liệu nổi ngoài khơi sử dụng 100% năng lượng tái tạo...
Trung Quốc đang tăng tốc mạnh mẽ để thống lĩnh lĩnh vực robot hình người. Đây là lĩnh vực Bắc Kinh xác định sẽ nắm vai trò dẫn dắt trong vòng 5 năm tới...