Ban Nghiên cứu phát triển kinh tế tư nhân (Ban IV) vừa công bố báo cáo tổng hợp các khó khăn, vướng mắc liên quan đến chính sách khoa học công nghệ, đổi mới sáng tạo và chuyển đổi số, đồng thời phản ánh nhanh tình hình thực thi Nghị quyết số 68-NQ/TW về phát triển kinh tế tư nhân.
Theo đó, góp ý về Luật Trí tuệ nhân tạo, một số hiệp hội và doanh nghiệp quan tâm là quy định về nghĩa vụ gắn nhãn và thông báo hiển thị đối với nội dung do hệ thống trí tuệ nhân tạo tạo ra hoặc chỉnh sửa.
Cụ thể, trong Khoản 1 Điều 19 Dự thảo Nghị định quy định quy định “Bên triển khai có trách nhiệm thông báo và gắn nhãn hiển thị khi
cung cấp ra công cộng nội dung do hệ thống
trí tuệ nhân tạo tạo ra hoặc chỉnh sửa trong 2 trường
hợp là nội dung mô phỏng, giả lập ngoại hình, giọng nói của người thật; hoặc nội dung tái hiện, mô phỏng sự kiện thực tế, hiện tượng có khả
năng gây nhầm lẫn đối với người tiếp nhận về tính xác thực.”
Góp ý về quy định này, các doanh nghiệp đề xuất xem xét bỏ quy định về nghĩa vụ gắn nhãn và thông báo hiển thị. Trong trường hợp vẫn duy trì quy định này, doanh nghiệp kiến nghị chỉ áp dụng đối với nội dung do hệ thống AI rủi ro cao tạo ra hoặc chỉnh sửa trong các lĩnh vực như y tế, an ninh và quốc phòng, đặc biệt là các nội dung mô phỏng có khả năng ảnh hưởng đến sức khỏe, tính mạng con người hoặc an ninh quốc gia.
Theo các ý kiến góp ý, việc áp dụng nghĩa vụ gắn nhãn trên phạm vi rộng đối với mọi nội dung do AI tạo ra hoặc chỉnh sửa có thể dẫn đến cách tiếp cận quản lý đồng loạt, vượt quá mức độ rủi ro thực tế và chưa phản ánh đúng tinh thần quản lý theo mức độ rủi ro của Luật Trí tuệ nhân tạo. Vì vậy, nghĩa vụ minh bạch gắn nhãn nên được giới hạn đối với các trường hợp có nguy cơ gây nhầm lẫn nghiêm trọng, liên quan trực tiếp đến sức khỏe, tính mạng con người hoặc an ninh quốc gia.
Doanh nghiệp cũng cho rằng việc bắt buộc gắn nhãn rộng rãi có thể làm gia tăng chi phí tuân thủ và rủi ro pháp lý, đồng thời ảnh hưởng đến động lực ứng dụng trí tuệ nhân tạo trong hoạt động sản xuất, kinh doanh, đặc biệt đối với doanh nghiệp vừa và nhỏ.
Bên cạnh đó, quy định quá rộng có thể làm “loãng” ý nghĩa cảnh báo của việc gắn nhãn hoặc tạo định kiến đối với các sản phẩm có yếu tố AI, trong khi công nghệ này ngày càng được sử dụng phổ biến như một công cụ hỗ trợ trong sáng tạo nội dung, truyền thông và kinh doanh.
Một nội dung khác được doanh nghiệp đề cập là việc xây dựng danh mục các hệ thống trí tuệ nhân tạo được xếp vào nhóm rủi ro cao.
Theo dự thảo, danh mục hệ thống AI rủi ro cao đang được xây dựng dựa trên một số lĩnh vực như y tế và chăm sóc sức khỏe, tài chính – ngân hàng, tuyển dụng và quản lý nhân sự, giáo dục và đào tạo, an ninh – trật tự – tư pháp, giao thông vận tải, hạ tầng kỹ thuật trọng yếu và quản lý nhà nước, dịch vụ công.
Tuy nhiên, một số hiệp hội và doanh nghiệp kiến nghị điều chỉnh danh mục này theo hướng chỉ áp dụng chế độ quản lý rủi ro cao đối với các hệ thống AI có khả năng tác động trực tiếp, nghiêm trọng đến tính mạng và sức khỏe con người, đặc biệt trong các lĩnh vực như thiết bị y tế, chẩn đoán và điều trị, cũng như các hệ thống liên quan đến an ninh quốc gia, trật tự an toàn xã hội và hoạt động tư pháp.
Đối với các lĩnh vực khác như tài chính – ngân hàng, tuyển dụng và quản lý nhân sự, giáo dục và đào tạo, doanh nghiệp đề xuất không xếp toàn bộ các hệ thống AI vào nhóm rủi ro cao mà cần khoanh vùng cụ thể các trường hợp có liên quan đến dữ liệu lớn hoặc yếu tố an ninh quốc gia để quản lý.
Các ý kiến góp ý cho hay nhiều hệ thống AI trong các lĩnh vực dân sự – thương mại như tài chính, quản trị doanh nghiệp, nhân sự hay giáo dục chủ yếu phục vụ mục tiêu nâng cao năng suất và năng lực cạnh tranh của doanh nghiệp, không mặc nhiên tạo ra rủi ro xã hội nghiêm trọng ở cấp độ công cộng. Vì vậy, việc áp dụng chế độ quản lý rủi ro cao đối với toàn bộ các hệ thống này có thể mở rộng phạm vi kiểm soát vượt quá nhu cầu bảo vệ lợi ích công cộng thiết yếu.
Bên cạnh đó, các lĩnh vực này cũng được xem là trụ cột quan trọng trong quá trình chuyển đổi số quốc gia. Nếu toàn bộ các hệ thống AI trong các lĩnh vực này đều bị xếp vào nhóm rủi ro cao, doanh nghiệp sẽ phải đáp ứng các nghĩa vụ tuân thủ nghiêm ngặt hơn, làm gia tăng chi phí gia nhập thị trường, làm chậm quá trình thương mại hóa sản phẩm AI và có thể tạo tâm lý e ngại trong hoạt động đổi mới sáng tạo.