Chuyên gia Trung Quốc kêu gọi tăng cường minh bạch trong quản trị AI
Bảo Ngọc
04/12/2025
Nhóm nhà nghiên cứu từ DeepSeek, Alibaba và nhiều trường đại học cho rằng các quy định về AI của Trung Quốc đang đi đúng hướng…
Hàng loạt lo ngại về mức độ an toàn của hệ thống AI đang gia tăng tại Trung Quốc, và một bài báo học thuật gần đây vừa góp thêm sức nặng cho cuộc thảo luận này, theo South China Morning Post. Bài báo xuất bản trên tạp chí Science, tập hợp ý kiến của nhiều chuyên gia pháp lý và nhà nghiên cứu từ DeepSeek, Alibaba cũng như một số trường đại học. Kết quả nghiên cứu cho thấy Trung Quốc đã đạt được tiến bộ trong quản trị AI, nhưng vẫn còn khoảng trống cần chú ý.
Nhóm tác giả cho biết Trung Quốc đã mang tới môi trường khuyến khích nghiên cứu và phát triển AI nguồn mở, nhưng quy định hiện hành lại vô tình tạo thành một hệ thống rời rạc và phức tạp. Nhóm cho rằng cách tiếp cận tạm thời hiệu quả, nhưng cần hướng dẫn rõ ràng hơn, đặc biệt khi ngày càng nhiều mô hình AI rủi ro cao xuất hiện. Một trong những điểm được nhấn mạnh là quy trình đăng ký mô hình AI. Theo đó, nhà phát triển phải nộp thông tin trước khi triển khai, nhưng khi bị từ chối thì thường không nhận được phản hồi hữu ích.
LO NGẠI VỀ MÔ HÌNH AI TIÊN TIẾN VÀ YÊU CẦU MINH BẠCH HƠN
Nhóm nghiên cứu cũng chỉ ra rủi ro liên quan đến mô hình “frontier”, thuật ngữ dùng để chỉ hệ thống sở hữu năng lực tiên tiến và có thể gây hại nghiêm trọng nếu bị lạm dụng. Các chuyên gia cảnh báo rằng những trường hợp rộng hơn bao gồm mô hình mã nguồn mở có thể tạo điều kiện cho hành động nguy hiểm. “Chúng tôi cho rằng các công ty AI hàng đầu Trung Quốc cần minh bạch hơn và dựa trên bằng chứng nhiều hơn về nỗ lực quản trị mô hình frontier”, các tác giả viết.
Tác giả chính của bài báo là ông Zhu Yue, trợ lý giáo sư luật tại Đại học Tongji đồng thời là cựu nghiên cứu viên tại ByteDance. Một số tác giả nổi bật khác gồm hai chuyên gia trong ngành: ông Wu Shaoqing, phụ trách quản trị AI tại DeepSeek, và ông Fu Hongyu từ bộ phận nghiên cứu AliResearch thuộc Alibaba. Ông Wu thường tham gia các cuộc thảo luận công khai về giám sát AI và từng phát biểu tại một hội thảo ở Hàng Châu vào tháng 9 năm ngoái về rào cản đạo đức trong hệ thống mã nguồn mở.
Một đồng tác giả khác, bà Zhang Linghan từ Đại học Chính trị và Luật Trung Quốc, cho biết bài báo nhằm giúp độc giả nước ngoài hiểu rõ hơn về cách tiếp cận “thực dụng” của Trung Quốc trong quản trị AI. Bà Linghan chia sẻ cách tiếp cận này thường bị hiểu sai ở nước ngoài. “Trung Quốc thực sự đã chuyển từ vai trò người theo sau thành người dẫn đầu trong quản trị AI, điều này rất đáng chú ý”, bà Zhang, người trước đó từng tham gia soạn thảo đề xuất cho một bộ luật AI quốc gia, nhấn mạnh.
LUẬT AI QUỐC GIA
Nhóm tác giả mô tả hệ thống quy định hiện tại của Trung Quốc được xây dựng dựa trên nhiều trụ cột, bao gồm ngoại lệ dành cho công cụ mã nguồn mở, biện pháp bảo vệ nghiên cứu khoa học ứng dụng AI, và quy trình triển khai từng bước các yêu cầu mới để cơ quan quản lý có thể điều chỉnh theo sự thay đổi của công nghệ. Tòa án cũng đang xử lý các vụ việc liên quan đến AI nhanh hơn, điều mà nhóm tác giả cho rằng là dấu hiệu chứng minh hệ thống pháp lý đang dần thích ứng.
Dù ghi nhận nhiều tiến triển, bài báo cho biết Trung Quốc vẫn thiếu một bộ luật AI thống nhất ở cấp quốc gia. Hai dự thảo do các học giả đề xuất mô tả cách công ty và người dùng có thể bị truy cứu trách nhiệm khi công cụ AI gây ra thiệt hại. Nhưng khi chưa được thông qua chính thức, hệ thống quy định của quốc gia vẫn là tập hợp của nhiều biện pháp chồng chéo.
Nhu cầu tăng cường giám sát cũng được phản ánh trong nghiên cứu riêng của Concordia AI, công ty tư vấn có trụ sở tại Bắc Kinh. Công ty đã xem xét 50 mô hình AI hàng đầu và cho biết hệ thống frontier của Trung Quốc hiện ghi nhận mức rủi ro tương đương với hệ thống của Hoa Kỳ. Báo cáo cảnh báo rằng các mô hình có thể trở thành mục tiêu cho hành vi độc hại hoặc hoạt động theo cách vượt ngoài tầm kiểm soát của con người. “Chúng tôi hy vọng phát hiện này có thể hỗ trợ công ty cải thiện độ an toàn của mô hình”, ông Fang Liang, người đứng đầu mảng an toàn và quản trị AI tại Concordia AI, bày tỏ.
DEEPSEEK GHI NHẬN MỨC RỦI RO CAO NHẤT
Mô hình R1 của DeepSeek thu hút sự chú ý đặc biệt. Nghiên cứu đánh giá mô hình có mức rủi ro cao nhất trong khả năng hỗ trợ cuộc tấn công mạng, dựa trên nhiều thử nghiệm mà công ty thực hiện trước đó trong năm.
Ông Fang cho biết nhóm tác giả của bài báo trên Science mô tả “logic quản trị khác với cách tiếp cận được áp dụng ở châu Âu và Hoa Kỳ”. Vị chuyên gia nói rằng khái niệm “mở” trong AI tại Trung Quốc được xem như biện pháp an toàn, chứ không phải là nguồn rủi ro.
Bài báo trên Science cho rằng khi năng lực AI của quốc gia tỷ dân mở rộng, khung quản lý của nước này cũng phải phát triển theo. Nhóm tác giả cho biết những công ty mạnh nhất Trung Quốc đang định hình nghiên cứu toàn cầu thông qua công cụ mã nguồn mở và mô hình lớn. Nhưng đi cùng ảnh hưởng là trách nhiệm, và bài báo kêu gọi toàn ngành công nghiệp lẫn cơ quan quản lý tập trung nhiều hơn vào các rủi ro đi kèm với tốc độ phát triển nhanh chóng.
Nhiều công ty hạ tầng ghi nhận cổ phiếu tăng mạnh khi đầu tư vào trung tâm dữ liệu AI gia tăng, với Lumentum và Western Digital dẫn đầu.
Năm 2026, bộ phận nhân sự cần thay đổi cách tiếp cận để nâng cao trải nghiệm nhân viên, đặc biệt là ứng dụng AI và tự động hóa.
AI đang định hình lại thị trường lao động, dự báo 400 triệu người cần đào tạo lại trước năm 2030. Thách thức và cơ hội mới đang mở ra.
Doanh số mua sắm toàn cầu năm 2025 dự báo đạt 1.250 tỷ USD, trong đó AI đóng vai trò quan trọng trong quyết định mua sắm của người tiêu dùng.
Cảnh báo từ Fortinet về sự gia tăng tội phạm mạng tự động hóa hoàn toàn vào năm 2026, khi tốc độ tấn công vượt xa khả năng phòng thủ của doanh nghiệp.
Tỷ phú Elon Musk nhấn mạnh tầm quan trọng của sự thật, cái đẹp và sự tò mò trong phát triển AI, đồng thời cảnh báo về nguy cơ tiềm ẩn từ công nghệ này.
Theo Packworks, doanh số cửa hàng bán lẻ tại Philippines tăng 46% nhờ ứng dụng AI, giúp tiểu thương tối ưu tồn kho và cải thiện hiệu quả bán hàng.
Năm 2026 sẽ là bước ngoặt cho ngành AI, khi doanh nghiệp cần minh bạch hơn trong đầu tư và quản trị để tạo ra giá trị bền vững.
Tại Hội nghị Ignite, chuyên gia CNTT chỉ ra rào cản lớn khiến Microsoft chưa thể phổ biến Copilot, mặc dù có hơn 150 triệu người dùng.
Google DeepMind mở phòng thí nghiệm nghiên cứu AI tại Singapore, tập trung vào phát triển công nghệ phục vụ nhu cầu đa dạng của khu vực châu Á – Thái Bình Dương.