Việt Nam cần các chiến lược để phát triển AI có trách nhiệm
Khi trí tuệ nhân tạo (AI) tạo sinh phát triển mạnh mẽ, tiềm năng thúc đẩy đổi mới là không thể phủ nhận nhưng đi kèm với đó là những rủi ro. Từ bê bối deepfake đến thông tin sai lệch do AI tạo ra, công nghệ này đặt ra những thách thức đạo đức nghiêm trọng…

Để AI trở thành công cụ phục vụ thay vì gây hại cho con người, chúng ta phải ưu tiên phát triển AI có trách nhiệm. Tiến sĩ Sam Goundar, giảng viên cấp cao ngành Công nghệ thông tin tại RMIT Việt Nam, chia sẻ về cách Việt Nam có thể dẫn đầu trong việc ứng dụng AI một cách đạo đức.
VIỆT NAM CẦN LÀM GÌ ĐỂ PHÁT TRIỂN AI CÓ TRÁCH NHIỆM?
Theo Tiến sĩ Sam Goundar, Việt Nam đang nổi lên như một quốc gia đi đầu về đổi mới AI, tuy nhiên việc đảm bảo AI phát triển có đạo đức là điều hết sức quan trọng để tránh những thành kiến trong thuật toán, rủi ro về quyền riêng tư và mất niềm tin của công chúng. Để căn chỉnh AI theo các nguyên tắc đạo đức, Việt Nam nên tập trung vào việc đầu tư nghiên cứu về đạo đức AI, hợp tác với các trường đại học để đưa ra khung pháp lý cho việc triển khai AI có trách nhiệm.
Đồng thời, cần lồng ghép đạo đức AI vào chương trình giảng dạy đại học nhằm trang bị cho sinh viên hiểu biết về công bằng, minh bạch và quản trị AI bên cạnh các kỹ năng kỹ thuật.
Việc mở rộng các chương trình trang bị kiến thức về AI cũng rất cần thiết, giúp lãnh đạo doanh nghiệp, những người làm công tác giáo dục và các nhà hoạch định chính sách có đủ kiến thức để đối mặt với những thách thức AI đặt ra. Ngoài ra, việc nâng cao nhận thức cộng đồng, giúp cá nhân và doanh nghiệp hiểu rõ tác động của AI đối với quyền riêng tư, bảo mật dữ liệu và các quyết định kinh doanh cũng là một yếu tố quan trọng.
Cuối cùng, cần khuyến khích AI vì mục đích xã hội để thúc đẩy đổi mới AI trong y tế, giải quyết các vấn đề môi trường và giáo dục, nhằm tạo ra lợi ích xã hội thay vì chỉ tập trung vào lợi nhuận.
Bên cạnh giáo dục và nâng cao nhận thức, khung pháp lý rõ ràng đóng vai trò quan trọng trong việc duy trì phát triển AI có trách nhiệm. Những quốc gia có hệ thống quản trị AI chặt chẽ, lực lượng lao động sẵn sàng và cơ chế giám sát hiệu quả sẽ định hình tương lai AI toàn cầu.
Tiến sĩ Sam Goundar cũng cho biết, để trở thành quốc gia dẫn đầu trong khu vực, Việt Nam cần có hành động quyết đoán bằng cách thực hiện các quy định AI chặt chẽ nhằm thực thi luật bảo mật dữ liệu, hướng dẫn đạo đức, cũng như phòng chống thông tin sai lệch và thiên kiến. Đồng thời, cần tăng cường khung pháp lý AI để bảo vệ người dùng và giải quyết những rủi ro từ việc tích hợp AI quá nhanh.
Việt Nam cũng cần tiếp cận các mô hình quản trị AI quốc tế để áp dụng thực tiễn tốt nhất, đồng thời điều chỉnh các chính sách phù hợp với bối cảnh kinh tế-xã hội của đất nước.
Để đảm bảo tính minh bạch, công bằng và bảo mật, việc giới thiệu Chứng nhận AI có đạo đức là điều cần thiết. Cuối cùng, việc xây dựng Hệ thống Phân loại và Kiểm định rủi ro AI để đánh giá các ứng dụng AI dựa trên tác hại tiềm ẩn và yêu cầu kiểm định bắt buộc với những hệ thống có rủi ro cao là một bước đi quan trọng.
“Những chính sách chiến lược này sẽ giúp Việt Nam giành lợi thế cạnh tranh, đồng thời đảm bảo tính đạo đức và trách nhiệm cho AI. Khi đặt mục tiêu trở thành cường quốc AI của khu vực vào năm 2030, thành công của Việt Nam sẽ không chỉ phụ thuộc vào tiến bộ công nghệ mà còn dựa vào các quy định chặt chẽ, đầu tư AI có đạo đức và nhận thức cộng đồng để bảo vệ chống lại các rủi ro tiềm ẩn”, Tiến sĩ Sam Goundar chia sẻ.
2025 CHỨNG KIẾN SỰ CHUYỂN DỊCH RÕ RỆT SANG AI CÓ TRÁCH NHIỆM
Tiến sĩ Sam Goundar cho biết, khi trí tuệ nhân tạo tiếp tục phát triển, năm 2025 chứng kiến sự chuyển dịch rõ rệt sang AI có trách nhiệm, lấy con người làm trung tâm, đảm bảo tính minh bạch, trách nhiệm giải trình và niềm tin với các hệ thống AI. Trước những lo ngại ngày càng tăng về thành kiến, thông tin sai lệch và rủi ro đạo đức, công nghệ AI minh bạch (Explainable AI - XAI) đang được ưu tiên, giúp người dùng hiểu rõ cách AI đưa ra quyết định.
Một số quốc gia như Hoa Kỳ, Canada, Brazil, EU, Vương quốc Anh, Úc, Trung Quốc, Ấn Độ và Nhật Bản đã bắt đầu triển khai các quy định về AI, và dự kiến nhiều nước khác sẽ tiếp bước vào năm 2025. Những chính sách này nhằm quản lý AI, đảm bảo triển khai một cách có đạo đức trên toàn ngành.
Thay vì thay thế vai trò của con người, AI ngày càng được thiết kế để bổ trợ và nâng cao năng lực cho con người. AI lai (Hybrid AI), mô hình kết hợp giữa AI và con người, được kỳ vọng sẽ phát triển mạnh mẽ.
Bên cạnh đó, AI sẽ mở rộng ứng dụng trong an ninh mạng, giúp tăng cường khả năng phân tích rủi ro và đối phó với các mối đe dọa số. Trong phát triển bền vững, AI sẽ đóng vai trò quan trọng trong giải quyết biến đổi khí hậu và thúc đẩy công nghệ xanh. Khi việc áp dụng AI ngày càng tăng tốc, đảm bảo quản trị AI có trách nhiệm sẽ là điều thiết yếu để tối ưu hóa lợi ích của công nghệ, đồng thời giảm thiểu rủi ro tiềm ẩn.