18:02 09/02/2023

CTO OpenAI: "Cần có những quy định kiểm soát AI"

Bảo Ngọc

Giám đốc công nghệ (CTO) OpenAI Mira Murati đã gây ra làn sóng ý kiến trái chiều khi thừa nhận trong một cuộc phỏng vấn với tạp chí Time rằng công nghệ AI cần được quản lý chặt chẽ…

"Điều quan trọng mà OpenAI và các công ty tương tự cần quan tâm là áp dụng công nghệ này gắn với ý thức cộng đồng theo cách được kiểm soát và có trách nhiệm", bà Murati chia sẻ với Time. "Nhưng chúng tôi chỉ là một thành phần nhỏ, và chúng tôi cần thêm rất nhiều sự góp sức vượt ra ngoài phạm vi công nghệ - chắc chắn là từ các cơ quan quản lý và chính phủ cùng tất cả người sử dụng khác".

Khi được hỏi liệu sự tham gia của chính phủ trong giai đoạn phát triển AI đỉnh cao này có thể cản trở những bước tiến vượt bậc hay không, bà trả lời: “Thời điểm này không còn quá sớm để vào cuộc. Vì những công nghệ này hoàn toàn có thể tác động rất lớn đến đời sống của con người trong tương lai”.

Đồng sáng lập website tin tức Near Media Greg Sterling, đồng ý rằng những quy định là rất cần thiết khi thị trường AI đang ngày càng lớn mạnh.

Sterling chia sẻ với TechNewsWorld: "Những quy định được xây dựng một cách chỉn chu chống lại hành vi phi đạo đức có thể giảm thiểu khả năng lạm dụng AI, nhưng nếu bộ quy định được xây dựng kém thì rất có thể sẽ không ngăn chặn được bất kỳ điều gì". Ông cũng thừa nhận rằng ban hành quy định quá sớm hoặc quá nặng tay có thể ảnh hưởng tới quá trình nghiên cứu phát triển và hạn chế lợi ích mà AI mang lại.

"Chính phủ nên tập hợp các chuyên gia AI và nhà lãnh đạo đầu ngành để cùng nhau đưa ra một khuôn khổ cho các quy định tiềm năng trong tương lai, không chỉ ở phạm vi quốc gia mà còn áp dụng cho cả khu vực và quốc tế”. 

NHỮNG QUY ĐỊNH HIỆN HÀNH

Trí tuệ nhân tạo, giống như nhiều công nghệ và công cụ khác, có thể được sử dụng cho nhiều mục đích khác nhau, bà Jennifer Huddleston, một nhà nghiên cứu chính sách công nghệ tại Viện Cato (Washington, Hoa Kỳ), giải thích.

Rất nhiều ứng dụng của AI đã được người tiêu dúng đón nhận một cách vô cùng tích cực, chẳng hạn như dịch thuật theo thời gian thực và hỗ trợ điều phối giao thông, vị chuyên gia này tiếp tục. "Trước khi đề ra quy định mới, các nhà hoạch định chính sách nên xem xét luật hiện hành xung quanh một số vấn đề lớn, chẳng hạn như phân biệt đối xử".

Trí tuệ nhân tạo nên được kiểm soát bởi các quy định, nhưng quy định như thế nào là bài toán khó tiếp theo, ông Mason Kortz, giảng viên tại Trường Luật Đại học Harvard, cho biết. "Chúng ta có rất nhiều quy định chung về các hành động hợp pháp hay bất hợp pháp, bất kể được thực hiện bởi con người hay AI".

Ông khẳng định: "Chúng ta cần xem xét rằng các luật hiện hành liệu đã đủ để kiểm soát AI hay chưa, và điều tiếp theo chúng ta cần phải làm là gì”. Ví dụ, cố vấn này lưu ý rằng không có quy định chung về trách nhiệm pháp lý của xe tự hành. Tuy nhiên, nếu một chiếc xe tự hành gây ra tai nạn, vẫn còn rất nhiều lĩnh vực pháp luật khác có thể cân nhắc, chẳng hạn như luật trách nhiệm sản phẩm. Đó là một trong những phương pháp tiếp cận tiềm năng trong việc điều chỉnh quy định sử dụng AI, ông giải thích.

KHỞI ĐẦU NHẸ NHÀNG

Chủ tịch SmartTech Research có trụ sở tại San Jose (California), ông Mark N. Vena, lập luận rằng quy định nặng nề có thể kìm hãm ngành công nghiệp AI đang phát triển.

"Ở giai đoạn này, tôi không nghiêng về phía các quy định của chính phủ dành cho AI", CEO Vena nói với TechNewsWorld. "AI có thể mang lại rất nhiều lợi ích và sự can thiệp của chính phủ có thể khiến thị trường chững lại".

Vào những năm 1990, khi internet bắt đầu trở nên phổ biến, Chính phủ đã đưa ra những quy định “nhẹ nhàng” đủ để ngành công nghiệp này tiếp tục phát triển mạnh mẽ, ví dụ như Mục 230 Đạo luật về phép lịch sự trong giao tiếp, cho phép các nền tảng trực tuyến miễn trừ trách nhiệm pháp lý đối với nội dung của bên thứ ba xuất hiện trên trang web của họ.

Tuy nhiên, chuyên gia Kortz tin rằng chính phủ có thể “đặt phanh” hợp lý cho các quy định mà không ảnh hưởng đến cả một ngành công nghiệp.

Ông nói: "Khi mọi người chỉ trích về FDA vì nhiều lý do, hãy nhớ rằng chúng ta vẫn ở trong một thế giới tốt hơn so với trước, khi bất kỳ ai cũng có thể bán bất cứ thứ gì và dán bất cứ thứ gì lên nhãn".

"Có giải pháp nào chỉ nắm bắt những khía cạnh tốt của AI và ngăn chặn tất cả những khía cạnh xấu không? Có lẽ là không", Vena tiếp tục, "nhưng rõ ràng, việc trang bị một cấu trúc tốt hơn là không có cấu trúc". 

ÁP DỤNG QUY ĐỊNH CÓ CHỌN LỌC

Có một số điều mà các nhà hoạch định chính sách có thể làm để kiểm soát AI mà không cản trở những bước tiến mới. Theo ông Daniel Castro, phó chủ tịch Quỹ Đổi mới & Công nghệ Thông tin, một tổ chức nghiên cứu và chính sách công ở Washington (Hoa Kỳ), nhận xét: "Nên tập trung vào các trường hợp sử dụng cụ thể. Ví dụ, việc kiểm soát ô tô tự lái sẽ khác với việc ban hành quy định về AI được sử dụng để tạo ra âm nhạc".

"Một cách khác là tập trung vào hành vi", ông tiếp tục. "Ví dụ, việc phân biệt đối xử khi thuê nhân viên hoặc cho thuê căn hộ là bất hợp pháp - cho dù là con người hay hệ thống AI đưa ra quyết định".

"Nhưng chính phủ nên cẩn thận để không điều hướng AI theo một tiêu chuẩn khác một cách không công bằng hoặc đưa ra các quy định không có ý nghĩa đối với AI", ông nói thêm. "Ví dụ, một số yêu cầu an toàn cho các phương tiện ngày nay, như vô lăng và gương chiếu hậu, không có ý nghĩa đối với xe tự lái vận hành bởi hệ thống AI".

Đồng quan điểm, CEO Vena muốn thấy một cách tiếp cận "minh bạch" đối với các quy định về AI.

Ông nói: "Tôi mong muốn một quy định yêu cầu các nhà phát triển AI và nhà sản xuất nội dung phải hoàn toàn minh bạch xung quanh các thuật toán mà họ đang sử dụng. Sự minh bạch có thể được xem xét bởi bên thứ ba bao gồm các học giả và một số cơ sở kiểm tra".

Ông khẳng định: “Minh bạch xung quanh các thuật toán và nguồn gốc của các công cụ AI nội dung sẽ khuyến khích sự cân bằng và giảm thiểu lạm dụng”.

LẬP KẾ HOẠCH CHO CÁC TÌNH HUỐNG XẤU NHẤT

Về phía giảng viên luật Kortz, ông lưu ý rằng công nghệ là trung lập.

"Chúng ta phải nghĩ về những người sử dụng AI vì mục đích xấu, cả một số quyết định sai lầm của những người tạo ra công nghệ này và đưa chúng ra ngoài thế giới".

"Tôi khuyến khích bất kỳ tổ chức nào đang phát triển công nghệ AI cho một trường hợp sử dụng cụ thể không chỉ suy nghĩ về mục đích sử dụng chính là gì, mà còn cả những