Chuyên gia Trung Quốc kêu gọi tăng cường minh bạch trong quản trị AI
Bảo Ngọc
04/12/2025
Nhóm nhà nghiên cứu từ DeepSeek, Alibaba và nhiều trường đại học cho rằng các quy định về AI của Trung Quốc đang đi đúng hướng…
Hàng loạt lo ngại về mức độ an toàn của hệ thống AI đang gia tăng tại Trung Quốc, và một bài báo học thuật gần đây vừa góp thêm sức nặng cho cuộc thảo luận này, theo South China Morning Post. Bài báo xuất bản trên tạp chí Science, tập hợp ý kiến của nhiều chuyên gia pháp lý và nhà nghiên cứu từ DeepSeek, Alibaba cũng như một số trường đại học. Kết quả nghiên cứu cho thấy Trung Quốc đã đạt được tiến bộ trong quản trị AI, nhưng vẫn còn khoảng trống cần chú ý.
Nhóm tác giả cho biết Trung Quốc đã mang tới môi trường khuyến khích nghiên cứu và phát triển AI nguồn mở, nhưng quy định hiện hành lại vô tình tạo thành một hệ thống rời rạc và phức tạp. Nhóm cho rằng cách tiếp cận tạm thời hiệu quả, nhưng cần hướng dẫn rõ ràng hơn, đặc biệt khi ngày càng nhiều mô hình AI rủi ro cao xuất hiện. Một trong những điểm được nhấn mạnh là quy trình đăng ký mô hình AI. Theo đó, nhà phát triển phải nộp thông tin trước khi triển khai, nhưng khi bị từ chối thì thường không nhận được phản hồi hữu ích.
LO NGẠI VỀ MÔ HÌNH AI TIÊN TIẾN VÀ YÊU CẦU MINH BẠCH HƠN
Nhóm nghiên cứu cũng chỉ ra rủi ro liên quan đến mô hình “frontier”, thuật ngữ dùng để chỉ hệ thống sở hữu năng lực tiên tiến và có thể gây hại nghiêm trọng nếu bị lạm dụng. Các chuyên gia cảnh báo rằng những trường hợp rộng hơn bao gồm mô hình mã nguồn mở có thể tạo điều kiện cho hành động nguy hiểm. “Chúng tôi cho rằng các công ty AI hàng đầu Trung Quốc cần minh bạch hơn và dựa trên bằng chứng nhiều hơn về nỗ lực quản trị mô hình frontier”, các tác giả viết.
Tác giả chính của bài báo là ông Zhu Yue, trợ lý giáo sư luật tại Đại học Tongji đồng thời là cựu nghiên cứu viên tại ByteDance. Một số tác giả nổi bật khác gồm hai chuyên gia trong ngành: ông Wu Shaoqing, phụ trách quản trị AI tại DeepSeek, và ông Fu Hongyu từ bộ phận nghiên cứu AliResearch thuộc Alibaba. Ông Wu thường tham gia các cuộc thảo luận công khai về giám sát AI và từng phát biểu tại một hội thảo ở Hàng Châu vào tháng 9 năm ngoái về rào cản đạo đức trong hệ thống mã nguồn mở.
Một đồng tác giả khác, bà Zhang Linghan từ Đại học Chính trị và Luật Trung Quốc, cho biết bài báo nhằm giúp độc giả nước ngoài hiểu rõ hơn về cách tiếp cận “thực dụng” của Trung Quốc trong quản trị AI. Bà Linghan chia sẻ cách tiếp cận này thường bị hiểu sai ở nước ngoài. “Trung Quốc thực sự đã chuyển từ vai trò người theo sau thành người dẫn đầu trong quản trị AI, điều này rất đáng chú ý”, bà Zhang, người trước đó từng tham gia soạn thảo đề xuất cho một bộ luật AI quốc gia, nhấn mạnh.
LUẬT AI QUỐC GIA
Nhóm tác giả mô tả hệ thống quy định hiện tại của Trung Quốc được xây dựng dựa trên nhiều trụ cột, bao gồm ngoại lệ dành cho công cụ mã nguồn mở, biện pháp bảo vệ nghiên cứu khoa học ứng dụng AI, và quy trình triển khai từng bước các yêu cầu mới để cơ quan quản lý có thể điều chỉnh theo sự thay đổi của công nghệ. Tòa án cũng đang xử lý các vụ việc liên quan đến AI nhanh hơn, điều mà nhóm tác giả cho rằng là dấu hiệu chứng minh hệ thống pháp lý đang dần thích ứng.
Dù ghi nhận nhiều tiến triển, bài báo cho biết Trung Quốc vẫn thiếu một bộ luật AI thống nhất ở cấp quốc gia. Hai dự thảo do các học giả đề xuất mô tả cách công ty và người dùng có thể bị truy cứu trách nhiệm khi công cụ AI gây ra thiệt hại. Nhưng khi chưa được thông qua chính thức, hệ thống quy định của quốc gia vẫn là tập hợp của nhiều biện pháp chồng chéo.
Nhu cầu tăng cường giám sát cũng được phản ánh trong nghiên cứu riêng của Concordia AI, công ty tư vấn có trụ sở tại Bắc Kinh. Công ty đã xem xét 50 mô hình AI hàng đầu và cho biết hệ thống frontier của Trung Quốc hiện ghi nhận mức rủi ro tương đương với hệ thống của Hoa Kỳ. Báo cáo cảnh báo rằng các mô hình có thể trở thành mục tiêu cho hành vi độc hại hoặc hoạt động theo cách vượt ngoài tầm kiểm soát của con người. “Chúng tôi hy vọng phát hiện này có thể hỗ trợ công ty cải thiện độ an toàn của mô hình”, ông Fang Liang, người đứng đầu mảng an toàn và quản trị AI tại Concordia AI, bày tỏ.
DEEPSEEK GHI NHẬN MỨC RỦI RO CAO NHẤT
Mô hình R1 của DeepSeek thu hút sự chú ý đặc biệt. Nghiên cứu đánh giá mô hình có mức rủi ro cao nhất trong khả năng hỗ trợ cuộc tấn công mạng, dựa trên nhiều thử nghiệm mà công ty thực hiện trước đó trong năm.
Ông Fang cho biết nhóm tác giả của bài báo trên Science mô tả “logic quản trị khác với cách tiếp cận được áp dụng ở châu Âu và Hoa Kỳ”. Vị chuyên gia nói rằng khái niệm “mở” trong AI tại Trung Quốc được xem như biện pháp an toàn, chứ không phải là nguồn rủi ro.
Bài báo trên Science cho rằng khi năng lực AI của quốc gia tỷ dân mở rộng, khung quản lý của nước này cũng phải phát triển theo. Nhóm tác giả cho biết những công ty mạnh nhất Trung Quốc đang định hình nghiên cứu toàn cầu thông qua công cụ mã nguồn mở và mô hình lớn. Nhưng đi cùng ảnh hưởng là trách nhiệm, và bài báo kêu gọi toàn ngành công nghiệp lẫn cơ quan quản lý tập trung nhiều hơn vào các rủi ro đi kèm với tốc độ phát triển nhanh chóng.
Theo Packworks, doanh số cửa hàng bán lẻ tại Philippines tăng 46% nhờ ứng dụng AI, giúp tiểu thương tối ưu tồn kho và cải thiện hiệu quả bán hàng.
Năm 2026 sẽ là bước ngoặt cho ngành AI, khi doanh nghiệp cần minh bạch hơn trong đầu tư và quản trị để tạo ra giá trị bền vững.
Tại Hội nghị Ignite, chuyên gia CNTT chỉ ra rào cản lớn khiến Microsoft chưa thể phổ biến Copilot, mặc dù có hơn 150 triệu người dùng.
Google DeepMind mở phòng thí nghiệm nghiên cứu AI tại Singapore, tập trung vào phát triển công nghệ phục vụ nhu cầu đa dạng của khu vực châu Á – Thái Bình Dương.
Lực lượng Đặc nhiệm về AI được thành lập bởi OpenAI, Microsoft và hai Tổng chưởng lý tiểu bang Hoa Kỳ nhằm đảm bảo an toàn cho người dùng, đặc biệt là trẻ em.
Bắt đầu từ năm học 2026-2027, Ấn Độ sẽ đưa AI trở thành môn học bắt buộc từ lớp 3, nhằm nâng cao kỹ năng cho học sinh trong bối cảnh cạnh tranh toàn cầu.
Làn sóng đầu tư vào AI đang bùng nổ, với 92% tăng trưởng GDP Mỹ dự kiến đến từ lĩnh vực này. Các 'ông lớn' như Google, Meta, Amazon đang tái đầu tư vào AI để bảo vệ mô hình quảng cáo.
Nghiên cứu từ Đại học Stanford và Carnegie Mellon cho thấy chatbot Trung Quốc có xu hướng đồng tình cao hơn, ảnh hưởng đến khả năng tự đánh giá của người dùng.
Chuyên gia từ Microsoft, Carrefour và Iberdrola thảo luận về những điều AI không thể làm được và tầm quan trọng của yếu tố con người trong thời đại công nghệ.
Khám phá cuộc cạnh tranh giữa Alibaba, ByteDance và Baidu trong lĩnh vực AI đám mây tại Trung Quốc và ai đang dẫn đầu.