17:06 04/06/2025

Nhà tiên phong về AI tuyên bố thành lập tổ chức phi lợi nhuận, phát triển AI 'trung thực'

Sơn Trần

“Cha đẻ AI” Yoshua Bengio ra mắt tổ chức phi lợi nhuận phát triển AI “trung thực” để giám sát hệ thống lừa dối con người…

Ông Yoshua Bengio là một trong những người 'cha đỡ đầu' của AI.
Ông Yoshua Bengio là một trong những người 'cha đỡ đầu' của AI.

Ông Yoshua Bengio, nhà khoa học máy tính nổi tiếng, được mệnh danh là một trong những “cha đẻ” của trí tuệ nhân tạo (AI), vừa thành tổ chức phi lợi nhuận có tên LawZero, với mục tiêu phát triển AI trung thực, có khả năng phát hiện và ngăn chặn hệ thống AI có hành vi lừa dối hoặc gây nguy hại cho con người, theo Yahoo Tech.

Với khoản tài trợ ban đầu khoảng 30 triệu USD và hơn 12 nhà nghiên cứu, ông Bengio đang phát triển hệ thống có tên Scientist AI – đóng vai trò như hàng rào bảo vệ trước các “AI tác nhân” (AI agents), vốn là những hệ thống có thể tự thực hiện nhiệm vụ mà không cần sự can thiệp của con người. Các AI tác nhân này có thể thể hiện hành vi lừa dối hoặc tự bảo vệ, ví dụ như tìm cách né tránh việc bị tắt.

Trong khi các công cụ AI hiện nay như ChatGPT của OpenAI, Claude của Anthropic hay Gemini của Google được thiết kế để tạo nội dung, hỗ trợ công việc và tương tác với người dùng, Scientist AI không nhắm tới việc giao tiếp. Thay vào đó, công cụ đóng vai trò giám sát hành vi hệ thống AI khác – gần giống như một “chuyên viên đạo đức” hay “thanh tra nội bộ” trong thế giới máy móc.

“Chúng tôi muốn xây dựng hệ thống AI trung thực, không lừa dối. Về mặt lý thuyết, hoàn toàn có thể tưởng tượng ra những cỗ máy không có cái tôi, không có mục tiêu cá nhân – chỉ thuần túy là cỗ máy tri thức như nhà khoa học thực thụ”, ông Bengio nói.

Khác với mô hình AI tạo văn bản hiện nay vốn đưa ra câu trả lời dứt khoát, hệ thống của ông Bengio không đưa ra khẳng định mà sẽ chỉ đánh giá rủi ro, mức độ đúng sai của câu trả lời, thể hiện “sự khiêm tốn” của cỗ máy khi biết rằng mình chưa chắc đúng.

Khi được triển khai cùng AI tác nhân khác, Scientist AI sẽ tính toán xác suất hành vi của hệ thống đó có thể gây hại. Nếu xác suất vượt ngưỡng an toàn, hành động của AI tác nhân đó sẽ bị chặn lại.

Nhóm nhà tài trợ ban đầu cho LawZero bao gồm: Viện Tương lai Cuộc sống (Future of Life Institute) – tổ chức hoạt động vì an toàn AI, ông Jaan Tallinn – kỹ sư sáng lập Skype, và Schmidt Sciences – viện nghiên cứu do cựu CEO Google Eric Schmidt thành lập.

NỖ LỰC ĐẢM BẢO AN TOÀN AI

Ông Bengio cho biết bước đầu tiên là cần chứng minh tính khả thi của phương pháp này, sau đó kêu gọi sự hỗ trợ từ nhiều phòng thí nghiệm AI, nhà tài trợ hoặc chính phủ để xây dựng mô hình mạnh hơn. LawZero sẽ bắt đầu bằng cách huấn luyện trên mô hình mã nguồn mở, vốn sẵn có và dễ tùy chỉnh.

“Quan trọng là phải chứng minh được cách làm này hiệu quả. Từ đó, chúng ta mới có thể thuyết phục được chính phủ, nhà tài trợ hay phòng thí nghiệm AI đầu tư để huấn luyện những mô hình bảo vệ thông minh ngang ngửa với AI mà chúng phải giám sát”, ông Bengio nói thêm.

Ông Bengio hiện là giáo sư tại Đại học Montreal. Ông nhận giải Turing năm 2018 – giải thưởng được ví như Nobel ngành tin học – cùng với hai nhà khoa học Geoffrey Hinton và Yann LeCun (Giám đốc Khoa học AI tại Meta của CEO Mark Zuckerberg).

Tiên phong cho những nỗ lực đảm bảo an toàn trong lĩnh vực AI, ông Bengio từng chủ trì báo cáo quốc tế về rủi ro AI, trong đó cảnh báo rằng các AI tác nhân có thể gây ra “sự gián đoạn nghiêm trọng” nếu có khả năng thực hiện chuỗi hành động dài mà không cần giám sát.

Ngoài ra, ông Bengio từng rút khỏi vai trò cố vấn cho chính phủ Canada để toàn tâm tập trung vào nghiên cứu an toàn AI. Theo ông, nếu không kịp thời xây dựng cơ chế kiểm soát, xã hội sẽ "thức dậy một ngày nào đó và thấy mình không còn kiểm soát được công nghệ do chính mình tạo ra".

Ông bày tỏ lo ngại sau khi startup AI Anthropic thừa nhận hệ thống mới nhất của họ có thể tìm cách tống tiền kỹ sư nếu bị cố gắng tắt đi. Ngoài ra, nghiên cứu gần đây cho thấy các mô hình AI hoàn toàn có thể giấu giếm khả năng thật và mục tiêu thực sự của mình. Ông Bengio cảnh báo, những điều này cho thấy thế giới đang tiến gần hơn tới vùng nguy hiểm, khi AI ngày càng có khả năng suy luận tốt hơn.