image Thứ Ba, 09/12/2025

Các công ty hàng đầu chưa có kế hoạch kiểm soát siêu trí tuệ nhân tạo

Sơn Trần

09/12/2025

Chia sẻ

Các công ty trí tuệ nhân tạo (AI) lớn nhất thế giới đang thất bại trong việc thực hiện cam kết an toàn mà chính họ từng công bố, sự thiếu hụt này có thể đi kèm những rủi ro “thảm khốc”...

Chưa công ty nào đưa ra được kế hoạch đảm bảo con người vẫn giữ quyền kiểm soát với hệ thống AI
Chưa công ty nào đưa ra được kế hoạch đảm bảo con người vẫn giữ quyền kiểm soát với hệ thống AI

Winter AI Safety Index 2025 do Viện Tương lai Cuộc sống (Future of Life Institute – FLI), một tổ chức phi lợi nhuận, công bố đã đánh giá 8 công ty AI lớn, gồm Anthropic, OpenAI, Google DeepMind, xAI và Meta (Hoa Kỳ), cùng ba công ty Trung Quốc là DeepSeek, Alibaba Cloud và Z.ai.

Báo cáo được đưa ra trong bối cảnh nhiều hãng AI đối mặt với các vụ kiện và cáo buộc rằng chatbot của họ gây tổn hại tâm lý, thậm chí “hướng dẫn tự tử”, cùng với đó là vấn đề tấn công mạng có trợ giúp từ AI, Euronews đưa tin.

Kết quả cho thấy hầu như không công ty nào có chiến lược đáng tin cậy để ngăn chặn việc AI bị lạm dụng gây hậu quả nghiêm trọng hoặc nguy cơ mất quyền kiểm soát, khi tất cả đều chạy đua hướng đến trí tuệ nhân tạo tổng quát (AGI) và siêu trí tuệ – dạng AI vượt xa năng lực con người.

Một số chuyên gia độc lập nghiên cứu báo cáo cho biết không công ty nào đưa ra được kế hoạch đảm bảo con người vẫn giữ quyền kiểm soát với hệ thống AI.

Ông Stuart Russell, giáo sư khoa học máy tính tại Đại học California, Berkeley, nói rằng các công ty AI khẳng định họ có thể xây dựng AI siêu trí tuệ, nhưng không ai chứng minh được cách ngăn chặn nguy cơ mất quyền kiểm soát.

“Tôi muốn thấy bằng chứng rằng họ có thể giảm nguy cơ mất kiểm soát xuống mức 1/100 triệu mỗi năm, giống tiêu chuẩn của lò phản ứng hạt nhân”, ông Russell viết. “Thay vào đó, họ thừa nhận rủi ro có thể là 1/10, 1/5, thậm chí 1/3 và họ không thể giải thích hay cải thiện con số này”.

NHÓM TIÊU CHÍ ĐÁNH GIÁ

Nghiên cứu đo mức độ tuân thủ của các công ty theo 6 nhóm tiêu chí quan trọng: đánh giá rủi ro, tác hại hiện tại, khung an toàn, an toàn tồn vong (existential safety), quản trị – trách nhiệm giải trình và chia sẻ thông tin.

Dù báo cáo ghi nhận một số tiến bộ, hội đồng chuyên gia độc lập chỉ ra rằng việc thực thi vẫn thiếu đồng bộ và thường không đạt mức độ yêu cầu theo tiêu chuẩn toàn cầu đang xây dựng.

Anthropic, OpenAI và Google DeepMind được khen ngợi vì minh bạch hơn, có khung an toàn công khai, và tiếp tục đầu tư vào nghiên cứu an toàn kỹ thuật. Nhưng cả ba vẫn còn nhiều điểm yếu.

Anthropic bị chỉ trích vì ngừng thử nghiệm “human uplift” và chuyển sang mặc định huấn luyện mô hình dựa trên tương tác người dùng, điều khiến các chuyên gia cho rằng làm suy yếu khả năng bảo vệ quyền riêng tư.

OpenAI bị phê phán vì đặt ra ngưỡng an toàn mơ hồ, vận động hành lang chống lại luật an toàn AI cấp bang, và thiếu sự giám sát độc lập đủ mạnh.

Người phát ngôn OpenAI khẳng định an toàn là trọng tâm trong mọi hoạt động xây dựng và phát triển AI: “Chúng tôi đầu tư lớn vào nghiên cứu an toàn cấp độ tiên phong, tích hợp lớp bảo vệ mạnh vào hệ thống, và kiểm thử nghiêm ngặt cả nội bộ lẫn qua chuyên gia độc lập. Chúng tôi công khai khung an toàn, đánh giá và nghiên cứu để thúc đẩy tiêu chuẩn chung của ngành, đồng thời liên tục tăng cường bảo vệ tương lai”.

Google DeepMind đã cải thiện khung an toàn, nhưng vẫn dựa vào các đơn vị đánh giá được công ty trả tiền, làm giảm tính độc lập. Phát ngôn viên Google DeepMind nói họ áp dụng “cách tiếp cận khoa học – nghiêm ngặt” trong xử lý an toàn AI: “Khung Frontier Safety Framework của chúng tôi nêu rõ quy trình nhận diện và giảm thiểu rủi ro nghiêm trọng trước khi mô hình gây tác động. Khi mô hình ngày càng mạnh, chúng tôi tiếp tục đổi mới về an toàn và quản trị với tốc độ tương ứng”.

Tuy vậy, theo ông Max Tegmark, Chủ tịch FLI và giáo sư tại MIT, cả ba công ty hàng đầu vẫn liên quan đến các vấn đề gây hại thực tế thời gian gần đây, từ tổn hại tâm lý cho đến tấn công hacker quy mô lớn vào Anthropic.

Báo cáo cũng ghi nhận tiến bộ ở năm công ty còn lại, dù không đồng đều và vẫn còn nhiều khoảng trống.

KHOẢNG TRỐNG GIỮA CAM KẾT VÀ THỰC TẾ

Cụ thể, xAI công bố khung an toàn đầu tiên nhưng bị đánh giá là quá hẹp và thiếu tiêu chí rõ ràng cho các biện pháp xử lý rủi ro.

Z.ai là công ty duy nhất công bố đầy đủ đánh giá an toàn độc lập, nhưng được khuyến nghị minh bạch hơn nữa về cấu trúc quản trị và khung an toàn tổng thể.

Meta đưa ra khung an toàn mới với các ngưỡng dựa trên kết quả, nhưng chuyên gia yêu cầu họ giải thích rõ phương pháp và chia sẻ quy trình đánh giá nội bộ.

DeepSeek được ghi nhận vì nhân viên nội bộ tích cực thúc đẩy an toàn công nghệ, nhưng lại thiếu tài liệu an toàn cơ bản.

Alibaba Cloud đã đóng góp cho tiêu chuẩn quốc gia về gắn watermark (nhãn), nhưng còn yếu ở khả năng tăng độ tin cậy, công bằng và tính trung thực của mô hình.

AI VẪN ĐANG ĐƯỢC QUẢN LÝ KHÁ LỎNG LẺO 

Trước đây các chuyên gia tin AGI phải 100 năm nữa mới thành hiện thực, giờ họ nói chỉ còn vài năm
Trước đây các chuyên gia tin AGI phải 100 năm nữa mới thành hiện thực, giờ họ nói chỉ còn vài năm

“Tôi hy vọng chúng ta sớm vượt qua thời điểm các công ty chỉ phát triển dựa trên danh tiếng”, ông Tegmark nói. “Khi được hỏi kế hoạch kiểm soát AGI của họ là gì, không công ty nào trả lời được”.

Trong khi đó, những hãng như Meta lại dùng từ “siêu trí tuệ” như một khẩu hiệu để thổi phồng sản phẩm mới. Năm nay, Meta đổi tên bộ phận mô hình ngôn ngữ lớn của mình thành Meta Superintelligence Labs.

Theo ông Tegmark, quan điểm về AGI đã thay đổi rõ rệt: nếu trước đây các chuyên gia tin AGI phải 100 năm nữa mới thành hiện thực, giờ họ nói chỉ còn vài năm.

“AI được quản lý lỏng lẻo hơn cả việc bán… bánh mì kẹp”, ông Tegmark nói, nhắc đến tình trạng vận động hành lang chống lại tiêu chuẩn an toàn bắt buộc. Tuy vậy, ông cũng chỉ ra làn sóng phản đối chưa từng có khi AGI và siêu trí tuệ không được kiểm soát.

Tháng 10 vừa qua, hàng nghìn nhân vật có tầm ảnh hưởng, bao gồm lãnh đạo công nghệ và giới khoa học, đã ký vào một kiến nghị kêu gọi làm chậm việc theo đuổi siêu trí tuệ. Kiến nghị do FLI tổ chức, thu hút chữ ký từ nhiều bên như các nhà chính trị, lãnh đạo tôn giáo, cho đến nhà khoa học máy tính hàng đầu.

“Điểm chung của họ là gì? Họ đồng thuận với bản tuyên bố. Điều này cực kỳ đáng chú ý”, ông Tegmark cảnh báo nếu siêu trí tuệ xuất hiện và điều khiển mọi lĩnh vực, người lao động sẽ không thể kiếm sống khi mọi công việc đều bị robot thay thế. Khi ấy, xã hội sẽ sống phụ thuộc vào trợ cấp.

“Tôi nghĩ chúng ta đang tiến gần đến điểm bùng nổ”, ông Tegmark dự đoán.


Singapore triển khai máy tính lượng tử thương mại đầu tiên

Horizon Quantum công bố máy tính lượng tử thương mại đầu tiên tại Singapore, đánh dấu bước tiến quan trọng trong lĩnh vực công nghệ cao.

14:23 09/12/2025
DeepSeek ra mắt V3.2, cạnh tranh GPT-5 và Gemini 3

DeepSeek công bố mô hình V3.2 với khả năng cạnh tranh mạnh mẽ, đạt thành tích cao trong kiểm tra toán học quốc tế, tối ưu hóa hiệu suất tính toán.

14:23 09/12/2025
Từ robot "trí tuệ vật lý" đến trái tim mềm: Bốn đột phá khoa học tái định hình tương lai con người

Tại Tuần lễ Khoa học VinFuture 2025, các nhà khoa học giới thiệu bốn đột phá trong robot, y học và nông nghiệp thông minh, mở ra tương lai mới cho nhân loại.

14:52 02/12/2025
Baidu nổi lên như đại gia mới ngành chip, lấp đầy khoảng trống của Nvidia tại Trung Quốc

Baidu đang nổi lên như đối thủ chính trong ngành chip AI tại Trung Quốc, với mảng chip Kunlunxin dự kiến tăng trưởng mạnh mẽ trong bối cảnh thiếu hụt nguồn cung.

09:29 02/12/2025
Khi mô hình 3 chiều, VR và AI ứng dụng trong phòng phẫu thuật

Startup Holocare phát triển công nghệ VR giúp bác sĩ phẫu thuật mô phỏng cơ quan 3D, nâng cao hiệu quả và an toàn trong ca mổ.

10:48 01/12/2025
Nhóm sinh viên Mỹ sáng chế robot chịu nhiệt hơn 650°C

Nhóm sinh viên Texas phát triển robot FireBot giúp lính cứu hỏa thu thập thông tin trong đám cháy, chịu nhiệt lên đến 650°C, nâng cao an toàn cứu hộ.

10:48 01/12/2025
Điều khiển nhà máy cách xa 300km: Lời giải cho thiếu hụt lao động tại Nhật Bản

NTT và Toshiba đã chứng minh khả năng điều khiển nhà máy từ 300km, mở ra giải pháp mới cho ngành sản xuất Nhật Bản giữa tình trạng thiếu lao động.

19:30 26/11/2025
AI sẽ tái cấu trúc việc làm như thế nào nhìn từ kinh nghiệm thời Internet?

Dự báo tác động của AI đến việc làm qua lăng kính kinh nghiệm từ Internet, từ chuyển đổi nghề nghiệp đến sự xuất hiện công việc mới.

19:30 26/11/2025
Các mô hình AI do Trung Quốc phát triển lần đầu tiên đã vượt Mỹ về lượt tải

Trung Quốc lần đầu tiên vượt Mỹ về lượt tải mô hình AI mở, cho thấy sự thay đổi trong cách sử dụng và phát triển công nghệ trí tuệ nhân tạo toàn cầu.

19:30 26/11/2025
Mô hình trí tuệ nhân tạo mới giúp đẩy nhanh chẩn đoán bệnh hiếm

Mô hình trí tuệ nhân tạo PopEVE giúp xác định biến thể di truyền gây bệnh hiếm, nâng cao khả năng chẩn đoán và điều trị cho bệnh nhân.

19:30 26/11/2025