Các chương trình AI miễn phí dễ gặp rủi ro bảo mật
Nhiệm vụ tìm lỗi trong các mô hình AI mới chỉ ở giai đoạn sơ khai, nhưng một công ty đang cung cấp một công cụ quét miễn phí để trợ giúp việc này…
Các nhà nghiên cứu bảo mật cho biết, những công ty đang gấp rút áp dụng các loại trí tuệ nhân tạo mới nên thận trọng khi sử dụng phiên bản nguồn mở của công nghệ này. Một số phiên bản có thể không hoạt động như đã được quảng cáo hoặc chứa các lỗ hổng mà tin tặc có thể khai thác.
Ông Hyrum Anderson, kỹ sư nổi tiếng tại Robust Intelligence Inc. (Mỹ), cho biết có một số cách để biết trước liệu một mô hình AI cụ thể có an toàn hay không. Công ty bảo mật máy học này cũng cho biết Bộ Quốc phòng Hoa Kỳ đã từng là khách hàng của họ.
Ông Anderson đã phát hiện ra rằng, một nửa số mô hình phân loại hình ảnh công khai đã thất bại 40% trong các thử nghiệm của ông. Mục tiêu của những thử nghiệm này là để xác định xem một tác nhân độc hại có thể thay đổi kết quả đầu ra của các chương trình AI, ví dụ như tạo ra rủi ro bảo mật hoặc cung cấp thông tin không chính xác hay không.
Thông thường, những mô hình sử dụng các loại tệp đặc biệt dễ bị lỗi bảo mật. Đó là một vấn đề lớn bởi thay vì tạo ra mô hình của riêng mình, rất nhiều công ty đang lấy các mô hình AI từ những nguồn công khai có sẵn mà không hiểu đầy đủ về công nghệ cơ bản. Ông Anderson chia sẻ: “Mọi người đang sử dụng mô hình của người khác”.
Ông Anderson cũng cho biết, 90% công ty Robust Intelligence hoạt động với các mô hình tải xuống từ Hugging Face, một kho lưu trữ các mô hình AI. Tuy nhiên, công ty này sẽ sớm công bố một công cụ mới có thể quét các mô hình AI để tìm lỗi bảo mật, ngoài ra còn có thể kiểm tra xem chúng có hiệu quả như đã được giới thiệu và liệu chúng có vấn đề gì về sự thiên vị hay không.
Công cụ này sử dụng thông tin từ cơ sở dữ liệu rủi ro AI mà Robust Intelligence đã thu thập. Ý tưởng của sản phẩm này là để các công ty muốn sử dụng chương trình AI công khai có thể kiểm tra chương trình đó, đánh giá xem chương trình có an toàn và hiệu quả hay không đồng thời sử dụng dữ liệu đã được phân tích đó để giúp họ có được các lựa chọn tốt nhất.
Công cụ này được mô phỏng theo VirusTotal - một sản phẩm do Google của Alphabet sở hữu, kết hợp với vô số sản phẩm quét vi-rút khác nhau và cho phép người dùng kiểm tra các sự cố mà phần mềm chống vi-rút của chính họ có thể đã bỏ sót. Ông Anderson cho biết, Robust Intelligence đang hy vọng công cụ mới này sẽ cho phép họ thu thập các lỗi khác được báo cáo từ cộng đồng bảo mật rộng lớn hơn.
Với sự bùng nổ của ChatGPT và mô hình Dall-E để tạo hình ảnh đến từ OpenAI, các doanh nghiệp và nhà phát triển ứng dụng internet đang gấp rút bổ sung khả năng AI vào quy trình và sản phẩm kinh doanh của họ. Các doanh nghiệp này có thể lựa chọn trả tiền cho OpenAI để có quyền truy cập vào các công cụ của công ty này, tuy nhiên, nhiều khách hàng đang chọn các phiên bản mã nguồn mở miễn phí có sẵn trên internet. Ngoài ra, với các công cụ nguồn mở, người dùng có thể tải xuống mô hình AI đó, trong khi OpenAI sẽ giữ bí mật các mô hình của mình và thay vào đó chỉ cấp quyền truy cập để sử dụng chúng.
Ông Anderson chia sẻ rằng có một yếu tố đáng sợ đối với các công cụ nguồn mở. Khi ông tải xuống mô hình AI từ nguồn này, nó sẽ chạy mã trên máy của người dùng mà không có sự cho phép của họ. Điều này là rủi ro bảo mật vì kẻ xấu có thể sử dụng việc thực hiện các mã như vậy để chạy thứ gì đó nguy hiểm hoặc chiếm quyền điều khiển máy.
Mặt khác, cũng có thể có những sai sót trong các sản phẩm của OpenAI. Mới đây, OpenAI đã tạm thời đóng ChatGPT để sửa lỗi khi chatbot này cho phép một số người dùng xem tiêu đề lịch sử trò chuyện của người khác. Phòng thí nghiệm nghiên cứu AI sau đó cho biết lỗ hổng bảo mật cũng đã làm lộ một số dữ liệu thanh toán và thông tin cá nhân.
Một số công ty lớn, chẳng hạn như Microsoft và Google cũng đăng các mô hình trên Hugging Face và sử dụng các chương trình AI được lưu trữ trên đó. Hugging Face đã làm việc với nhóm cảnh báo mối đe dọa của Microsoft về một công cụ quét các chương trình AI để tìm các lỗ hổng dọa bảo mật cụ thể và ông Anderson đã chia sẻ phát hiện của mình với Hugging Face.
“Ngoài ra, Hugging Face đang chạy một chương trình chống vi-rút để tìm kiếm các vấn đề trong những chương trình AI mà công ty lưu trữ”, ông Luc Georges, kỹ sư phần mềm và máy học phụ trách bảo mật tại Hugging Face cho biết.
Microsoft đã liên hệ với Hugging Face sau khi nhóm AI Red Team - nhóm hacker đảm nhận công việc tấn công để tìm kiếm những lỗ hổng bảo mật của họ phát hiện ra một số mô hình trên trang web dễ bị tin tặc tấn công. Ông Ram Shankar Siva Kumar, người đứng đầu nhóm cho biết: “Ý tưởng của việc này là tìm cách mà một hacker với các công cụ thông thường có thể khai thác các chương trình AI”.
Ông Sam Crowther, người sáng lập và giám đốc điều hành của Kasada Pty Ltd. - công ty phát triển phần mềm bảo mật và bảo vệ các ứng dụng web cho biết: “Điều này sẽ tạo ra một thế hệ các công ty chuyên làm sạch dữ liệu đầu vào cho các mô hình AI. Và đồng thời cũng sẽ thúc đẩy những người đang xây dựng mô hình hiểu rõ hơn về cách mô hình AI của họ có thể bị lợi dụng và làm thế nào để dạy chúng không bị lợi dụng theo những cách đó”.