18:38 12/03/2024

“Góc khuất” của AI bị phơi bày từ lâu nhưng chưa thể tìm ra lời giải

Sơn Trần

Các công cụ AI như ChatGPT đã trở thành xu hướng công nghệ chủ đạo trong một vài năm gần đây. Đa số công ty đứng sau công nghệ mới nổi này đều sẵn sàng rót hàng tỷ USD với tham vọng thay đổi cách con người sống và làm việc…

Nhưng bên cạnh lợi ích được hứa hẹn là hàng loạt vấn đề liên quan, nhiều chuyên gia lo ngại AI cho ra kết quả chứa định kiến, thiếu chính xác khi trả lời. Các công cụ AI tạo sinh, bao gồm ChatGPT, thường xuyên bị cáo buộc vi phạm bản quyền. Thậm chí, chúng được sử dụng để tạo ra hình ảnh nhạy cảm, theo CNN Business.

Gần đây nhất, khái niệm "deepfakes" đã trở thành tâm điểm chú ý khi những hình ảnh khiêu dâm của ca sĩ nổi tiếng Taylor Swift do AI tạo ra đã lan truyền trên mạng xã hội, cho thấy “góc khuất” mà công nghệ này gây ra.

Trong bài phát biểu Thông điệp Liên bang năm 2024, Tổng thống Joe Biden kêu gọi Quốc hội thông qua luật trí tuệ nhân tạo, cấm "mạo danh giọng nói AI và hơn thế nữa". Ông cho rằng các nhà lập pháp cần "khai thác tiềm năng AI và bảo vệ người dùng khỏi mặt tối của công nghệ", cần làm rõ rủi ro nếu không được kiểm soát.

“Góc khuất” của AI bị phơi bày từ lâu nhưng chưa thể tìm ra lời giải - Ảnh 1

Tuyên bố được đưa ra ngay sau chiến dịch “robocall” lan truyền gần đây, khi công nghệ AI đã bắt chước giọng nói của một số chính khách Hoa Kỳ và nhắm mục tiêu vào hàng ngàn cử tri sơ bộ. Giới chức trách nhận định, đây là động thái cố gắng can thiệp vào kết quả bầu cử thông qua AI của các bên tranh cử. Nhiều người mong đợi Quốc hội sớm thông qua luật AI trước năm bầu cử đầy kịch tính.

CUỘC ĐUA CÔNG NGHỆ MỚI NỔI VẪN TIẾP DIỄN 

Tuy nhiên, điều này không thể ngăn cản các big tech tiếp tục thu hút người dùng bằng nhiều tính năng và khả năng mới của AI.

Gần đây nhất, OpenAI, công ty đứng sau thành công của ChatGPT, đã giới thiệu mô hình trí tuệ nhân tạo mới mang tên Sora. Mô hình có thể tạo ra các video dài tối đa 60 giây từ văn bản lệnh yêu cầu. Microsoft cũng bổ sung trợ lý AI Copilot, chạy trên nền tảng công nghệ ChatGPT, vào bộ sản phẩm “đinh” của hãng bao gồm Word, PowerPoint, Teams và Outlook - các phần mềm được nhiều doanh nghiệp sử dụng trên toàn thế giới. Và Gemini từ Google, chatbot AI đã bắt đầu thay thế tính năng Google Assistant trên một số thiết bị Android.

MỐI QUAN TÂM CỦA CHUYÊN GIA

Đa số nhà nghiên cứu, giáo sư và chuyên gia pháp lý về trí tuệ nhân tạo lo ngại AI sẽ được áp dụng hàng loạt trước khi Chính phủ các nước ban hành quy định kiểm soát. Trong số này, hàng trăm chuyên gia đã ký một lá thư ngỏ yêu cầu các công ty AI thực hiện thay đổi chính sách và đồng ý tuân thủ đánh giá độc lập vì lý do an toàn và trách nhiệm giải trình.

Một số công ty đã đóng băng tài khoản của đa số nhà nghiên cứu và thay đổi điều khoản dịch vụ nhằm ngăn chặn đánh giá và lưu ý rằng "việc trao quyền cho nhà nghiên cứu độc lập không phải nghĩa vụ của các công ty AI".

Bức thư được đưa ra chưa đầy một năm sau khi một số tên tuổi lớn trong lĩnh vực công nghệ, bao gồm tỷ phú Elon Musk, kêu gọi những phòng thí nghiệm trí tuệ nhân tạo ngừng đào tạo hệ thống AI tân tiến trong ít nhất sáu tháng tới, với lý do "ảnh hưởng sâu sắc đến xã hội và nhân loại", nhưng thông điệp đã không được đón nhận.

"Điều đáng lo ngại nhất xung quanh AI là khoảng cách giữa lời hứa và thực tế", ông Suresh Venkatasubramanian, Giáo sư Đại học Brown, người được bổ nhiệm vào Văn phòng Chính sách Khoa học và Công nghệ Nhà Trắng năm 2021 chuyên tư vấn về chính sách AI đồng thời là một trong những chuyên gia đã ký bức thư ngỏ, nhận định.

"Quyền truy cập vào những hệ thống AI tạo sinh phổ biến nhất đều đang được kiểm soát bởi một vài công ty tư nhân", Giáo sư Venkatasubramanian lưu ý rằng hầu hết hệ thống dễ dàng mắc lỗi và có thể tạo ra nội dung gây hại. "Nếu không trang bị khả năng đánh giá AI độc lập, nhà nghiên cứu sẽ rất khó thực hiện công việc quan trọng là đánh giá mức độ an toàn, bảo mật và tin cậy của hệ thống AI tạo sinh, từ đó cung cấp thông tin đầy đủ cho nhà hoạch định chính sách để đưa ra hành động kịp thời".

Ông Arvind Narayanan, Giáo sư khoa học máy tính tại Princeton, người cũng đã ký vào bức thư, đồng ý với luận điểm trên, bày tỏ với CNN rằng ông đặc biệt lo ngại về tốc độ AI đang phát triển - nhanh hơn nhiều so với khả năng thích ứng của con người.

"Các công ty công nghệ đã trở nên giàu có từ mô hình kinh doanh nơi họ gặt hái lợi nhuận từ các công nghệ mới, trong khi chi phí tổn thất của những công nghệ đó do xã hội gánh chịu", ông Narayanan nói, thừa nhận rằng AI không phải là trường hợp đầu tiên xảy ra tình trạng này.

"Chính sách bảo vệ cho một số tác hại cụ thể là cần thiết nhưng sẽ không ảnh hưởng tới mô hình kinh doanh cơ bản", ông nói thêm. Ông tin rằng cải cách táo bạo hơn cũng có thể là phương án tốt, chẳng hạn như đánh thuế các công ty AI để tài trợ cho mạng lưới an sinh xã hội.

HỎI AI VỀ TƯƠNG LAI CỦA AI

Khi CNN hỏi ChatGPT liệu nền tảng này (và cả các công cụ AI khác) đã sẵn sàng để được áp dụng hàng loạt hay chưa, hệ thống trả lời: "Có". Nhưng đi kèm với cảnh báo: "Những nỗ lực liên tục nhằm giải quyết thách thức liên quan tới vấn đề đạo đức, xã hội và quy định là rất quan trọng đối với quá trình áp dụng hàng loạt AI có trách nhiệm và thực sự hữu ích".

Công cụ Gemini AI của Google - trước đây có tên là Bard - cũng trả lời tương tự nhưng thận trọng hơn một chút: "AI tạo sinh đang trong thời kỳ phát triển vượt bậc, nhưng có thể gây ra hệ quả phức tạp khi áp dụng hàng loạt".

"Mặc dù được sử dụng rộng rãi, các nghiên cứu vẫn chưa cho thấy kết quả gia tăng năng suất lớn", Gemini viết. "Đội ngũ nhân viên con người cần được đào tạo nhiều hơn để sử dụng AI tạo sinh đúng cách nhất".

Gemini cũng đồng tình khi đề cập đến các vấn đề đạo đức: "Sự thiên vị trong dữ liệu đào tạo có thể dẫn đến đầu ra AI thiên vị", công cụ này nhấn mạnh. "Và luôn tồn tại những lo ngại về việc sử dụng AI có trách nhiệm".