Nhóm nghiên cứu MIT phát hành kho lưu trữ rủi ro AI
Tất cả mọi người, mọi doanh nghiệp, chính phủ nên đánh giá cụ thể những rủi ro trước khi sử dụng AI hoặc xây dựng quy định nhằm quản lý việc sử dụng công nghệ. Đây không phải là mục tiêu dễ thực hiện...
Nếu AI chiếm quyền kiểm soát cơ sở hạ tầng quan trọng, rủi ro đối với sự an toàn của con người gia tăng. Nếu AI được thiết kế để chấm điểm kỳ thi, sắp xếp sơ yếu lý lịch hay xác minh giấy tờ tại cơ quan nhà nước, thì rủi ro cũng không kém phần nghiêm trọng, theo TechCrunch.
Khi xây dựng luật để quản lý AI, như Đạo luật AI của EU hay SB 1047 của California, giới hoạch định chính sách phải vật lộn để thống nhất những rủi ro nào mà luật cần đề cập.
Trong bối cảnh đó, để giúp các bên liên quan trong ngành công nghiệp AI quản trị rủi ro, nhóm nghiên cứu MIT quyết định thành lập và xây dựng "kho lưu trữ rủi ro" AI - một dạng cơ sở dữ liệu về rủi ro AI.
Ông Peter Slattery, nhà nghiên cứu nhóm FutureTech của MIT, dẫn đầu dự án kho lưu trữ rủi ro AI, trả lời trong cuộc phỏng vấn: "Đây là nỗ lực để quản lý và phân tích chặt chẽ rủi ro AI trên cơ sở dữ liệu tổng hợp toàn diện, có thể mở rộng, phân loại mà bất kỳ ai cũng có thể sử dụng. Kho cũng được cập nhật liên tục theo thời gian".
"Chúng tôi tạo ra kho lưu trữ vì chúng tôi cần cho dự án của mình và nhận ra nhiều người khác cũng cần chúng".
HƠN 700 RỦI RO SẮP XẾP THEO NHIỀU YẾU TỐ
Ông Slattery tiết lộ kho lưu trữ rủi ro AI, bao gồm hơn 700 rủi ro AI được nhóm sắp xếp theo một số yếu tố như nguyên nhân (ví dụ: cố ý), phạm vi (ví dụ: phân biệt đối xử) và phạm vi nhỏ (ví dụ: tin xuyên tạc và tấn công mạng). Kho lưu trữ là ý tưởng sinh ra từ những bất tiện chồng chéo và thiếu kết nối trong lĩnh vực nghiên cứu bảo đảm an toàn AI.
Người dẫn đầu dự án cho biết kho lưu trữ mới chỉ thống kê một phần nhỏ rủi ro được xác định, và những thiếu sót này có thể gây hậu quả lớn đối với việc phát triển, sử dụng và hoạch định chính sách AI.
"Nhiều người cho rằng quan điểm rủi ro AI đang có sự đồng thuận cao, tuy nhiên phát hiện của chúng tôi cho thấy điều ngược lại", ông Slattery nói. "Các quy định trung bình chỉ đề cập đến 34% trong số 23 phạm vi rủi ro mà chúng tôi xác định. Không có tài liệu nào đề cập đủ tất cả 23 phạm vi này, quy định toàn diện nhất cũng chỉ đạt 70%. Khi tài liệu phân mảnh và không thống nhất, chúng ta không thể cho rằng chúng ta đang có chung quan điểm về những rủi ro này".
Để xây dựng kho lưu trữ, nhóm nghiên cứu MIT đã hợp tác với các đồng nghiệp tại Đại học Queensland, Viện Tương lai Cuộc sống phi lợi nhuận, KU Leuven và công ty khởi nghiệp AI Harmony Intelligence để tìm kiếm cơ sở dữ liệu học thuật và thu thập hàng ngàn tài liệu liên quan đến rủi ro AI.
Các nhà nghiên cứu phát hiện ra rằng rủi ro xuất phát từ bên thứ ba xuất hiện thường xuyên hơn rủi ro khác. Cụ thể, hơn 70% các rủi ro có nguy cơ ảnh hưởng đến quyền riêng tư và bảo mật AI, chỉ có 44% là thông tin sai lệch. Trong khi hơn 50% thảo luận về hình thức phân biệt đối xử và xuyên tạc do AI, thì chỉ 12% nói về "ô nhiễm hệ sinh thái thông tin" - tức là khối lượng thư rác do AI tạo ra ngày càng tăng.
"Một bài học rút ra cho giới nghiên cứu, hoạch định chính sách và bất kỳ ai làm việc liên quan đến rủi ro AI, là kho cơ sở dữ liệu này có thể cung cấp nền tảng để họ thực hiện công việc hiệu quả hơn", ông Slattery khẳng định.
"Trước đó, những người như chúng tôi có hai lựa chọn. Một là, đầu tư thời gian để tìm kiếm tài liệu rải rác với mong muốn có cái nhìn tổng quan, hoặc hai là sử dụng số lượng hạn chế các quy định hiện có và bỏ qua nhiều rủi ro liên quan. Tuy nhiên, hiện tại đã có cơ sở dữ liệu toàn diện, chúng tôi hy vọng sẽ giúp mọi người tiết kiệm thời gian và tăng năng lực quản trị rủi ro".
Tuy nhiên, thống nhất về các rủi ro mà AI gây ra có đủ giúp công tác quản lý hiệu quả hơn hay không? Nhiều tiêu chí đánh giá an toàn cho các hệ thống AI vẫn tồn tại một số hạn chế, và cơ sở dữ liệu về rủi ro chưa thể giải quyết được hết tất cả vấn đề.
Theo ông Neil Thompson, người đứng đầu phòng thí nghiệm FutureTech, nói với TechCrunch rằng nhóm dự định trong giai đoạn nghiên cứu tiếp theo sẽ sử dụng kho lưu trữ để đánh giá mức độ giải quyết các rủi ro AI khác nhau.
"Kho lưu trữ sẽ đồng hành cùng chúng tôi trong giai đoạn tiếp theo của nghiên cứu, khi chúng tôi tiến hành đánh giá nhiều rủi ro khác nhau đang được xử lý tốt như thế nào", ông Thompson cho biết.
"Chúng tôi dự định sử dụng kết quả này để xác định những thiếu sót trong tổ chức. Chẳng hạn, nếu mọi người quá tập trung vào một loại rủi ro mà bỏ qua những rủi ro khác có tầm ảnh hưởng tương tự, thì đó là điều chúng tôi nên chú ý và giải quyết".