image Chủ Nhật, 07/12/2025

Chuyên gia Trung Quốc kêu gọi tăng cường minh bạch trong quản trị AI

Bảo Ngọc

04/12/2025

Chia sẻ

Nhóm nhà nghiên cứu từ DeepSeek, Alibaba và nhiều trường đại học cho rằng các quy định về AI của Trung Quốc đang đi đúng hướng…

Nhóm nhà nghiên cứu từ DeepSeek, Alibaba và nhiều trường đại học kêu gọi tăng cường biện pháp quản trị AI.
Nhóm nhà nghiên cứu từ DeepSeek, Alibaba và nhiều trường đại học kêu gọi tăng cường biện pháp quản trị AI.

Hàng loạt lo ngại về mức độ an toàn của hệ thống AI đang gia tăng tại Trung Quốc, và một bài báo học thuật gần đây vừa góp thêm sức nặng cho cuộc thảo luận này, theo South China Morning Post. Bài báo xuất bản trên tạp chí Science, tập hợp ý kiến của nhiều chuyên gia pháp lý và nhà nghiên cứu từ DeepSeek, Alibaba cũng như một số trường đại học. Kết quả nghiên cứu cho thấy Trung Quốc đã đạt được tiến bộ trong quản trị AI, nhưng vẫn còn khoảng trống cần chú ý.

Nhóm tác giả cho biết Trung Quốc đã mang tới môi trường khuyến khích nghiên cứu và phát triển AI nguồn mở, nhưng quy định hiện hành lại vô tình tạo thành một hệ thống rời rạc và phức tạp. Nhóm cho rằng cách tiếp cận tạm thời hiệu quả, nhưng cần hướng dẫn rõ ràng hơn, đặc biệt khi ngày càng nhiều mô hình AI rủi ro cao xuất hiện. Một trong những điểm được nhấn mạnh là quy trình đăng ký mô hình AI. Theo đó, nhà phát triển phải nộp thông tin trước khi triển khai, nhưng khi bị từ chối thì thường không nhận được phản hồi hữu ích.

LO NGẠI VỀ MÔ HÌNH AI TIÊN TIẾN VÀ YÊU CẦU MINH BẠCH HƠN

Nhóm nghiên cứu cũng chỉ ra rủi ro liên quan đến mô hình “frontier”, thuật ngữ dùng để chỉ hệ thống sở hữu năng lực tiên tiến và có thể gây hại nghiêm trọng nếu bị lạm dụng. Các chuyên gia cảnh báo rằng những trường hợp rộng hơn bao gồm mô hình mã nguồn mở có thể tạo điều kiện cho hành động nguy hiểm. “Chúng tôi cho rằng các công ty AI hàng đầu Trung Quốc cần minh bạch hơn và dựa trên bằng chứng nhiều hơn về nỗ lực quản trị mô hình frontier”, các tác giả viết.

Tác giả chính của bài báo là ông Zhu Yue, trợ lý giáo sư luật tại Đại học Tongji đồng thời là cựu nghiên cứu viên tại ByteDance. Một số tác giả nổi bật khác gồm hai chuyên gia trong ngành: ông Wu Shaoqing, phụ trách quản trị AI tại DeepSeek, và ông Fu Hongyu từ bộ phận nghiên cứu AliResearch thuộc Alibaba. Ông Wu thường tham gia các cuộc thảo luận công khai về giám sát AI và từng phát biểu tại một hội thảo ở Hàng Châu vào tháng 9 năm ngoái về rào cản đạo đức trong hệ thống mã nguồn mở.

Một đồng tác giả khác, bà Zhang Linghan từ Đại học Chính trị và Luật Trung Quốc, cho biết bài báo nhằm giúp độc giả nước ngoài hiểu rõ hơn về cách tiếp cận “thực dụng” của Trung Quốc trong quản trị AI. Bà Linghan chia sẻ cách tiếp cận này thường bị hiểu sai ở nước ngoài. “Trung Quốc thực sự đã chuyển từ vai trò người theo sau thành người dẫn đầu trong quản trị AI, điều này rất đáng chú ý”, bà Zhang, người trước đó từng tham gia soạn thảo đề xuất cho một bộ luật AI quốc gia, nhấn mạnh.

LUẬT AI QUỐC GIA

Nhóm tác giả mô tả hệ thống quy định hiện tại của Trung Quốc được xây dựng dựa trên nhiều trụ cột, bao gồm ngoại lệ dành cho công cụ mã nguồn mở, biện pháp bảo vệ nghiên cứu khoa học ứng dụng AI, và quy trình triển khai từng bước các yêu cầu mới để cơ quan quản lý có thể điều chỉnh theo sự thay đổi của công nghệ. Tòa án cũng đang xử lý các vụ việc liên quan đến AI nhanh hơn, điều mà nhóm tác giả cho rằng là dấu hiệu chứng minh hệ thống pháp lý đang dần thích ứng.

Dù ghi nhận nhiều tiến triển, bài báo cho biết Trung Quốc vẫn thiếu một bộ luật AI thống nhất ở cấp quốc gia. Hai dự thảo do các học giả đề xuất mô tả cách công ty và người dùng có thể bị truy cứu trách nhiệm khi công cụ AI gây ra thiệt hại. Nhưng khi chưa được thông qua chính thức, hệ thống quy định của quốc gia vẫn là tập hợp của nhiều biện pháp chồng chéo.

Nhu cầu tăng cường giám sát cũng được phản ánh trong nghiên cứu riêng của Concordia AI, công ty tư vấn có trụ sở tại Bắc Kinh. Công ty đã xem xét 50 mô hình AI hàng đầu và cho biết hệ thống frontier của Trung Quốc hiện ghi nhận mức rủi ro tương đương với hệ thống của Hoa Kỳ. Báo cáo cảnh báo rằng các mô hình có thể trở thành mục tiêu cho hành vi độc hại hoặc hoạt động theo cách vượt ngoài tầm kiểm soát của con người. “Chúng tôi hy vọng phát hiện này có thể hỗ trợ công ty cải thiện độ an toàn của mô hình”, ông Fang Liang, người đứng đầu mảng an toàn và quản trị AI tại Concordia AI, bày tỏ.

Trung Quốc còn thiếu một bộ luật chung áp dụng trên toàn quốc về AI.
Trung Quốc còn thiếu một bộ luật chung áp dụng trên toàn quốc về AI.

DEEPSEEK GHI NHẬN MỨC RỦI RO CAO NHẤT

Mô hình R1 của DeepSeek thu hút sự chú ý đặc biệt. Nghiên cứu đánh giá mô hình có mức rủi ro cao nhất trong khả năng hỗ trợ cuộc tấn công mạng, dựa trên nhiều thử nghiệm mà công ty thực hiện trước đó trong năm.

Mô hình R1 của DeepSeek ghi nhận mức rủi ro cao, có thể thúc đẩy hoạt động gây hại.
Mô hình R1 của DeepSeek ghi nhận mức rủi ro cao, có thể thúc đẩy hoạt động gây hại.

Ông Fang cho biết nhóm tác giả của bài báo trên Science mô tả “logic quản trị khác với cách tiếp cận được áp dụng ở châu Âu và Hoa Kỳ”. Vị chuyên gia nói rằng khái niệm “mở” trong AI tại Trung Quốc được xem như biện pháp an toàn, chứ không phải là nguồn rủi ro.

Bài báo trên Science cho rằng khi năng lực AI của quốc gia tỷ dân mở rộng, khung quản lý của nước này cũng phải phát triển theo. Nhóm tác giả cho biết những công ty mạnh nhất Trung Quốc đang định hình nghiên cứu toàn cầu thông qua công cụ mã nguồn mở và mô hình lớn. Nhưng đi cùng ảnh hưởng là trách nhiệm, và bài báo kêu gọi toàn ngành công nghiệp lẫn cơ quan quản lý tập trung nhiều hơn vào các rủi ro đi kèm với tốc độ phát triển nhanh chóng.


Các cửa hàng bán lẻ ứng dụng AI tại Philipines chứng kiến doanh số tăng 46%

Theo Packworks, doanh số cửa hàng bán lẻ tại Philippines tăng 46% nhờ ứng dụng AI, giúp tiểu thương tối ưu tồn kho và cải thiện hiệu quả bán hàng.

08:44 03/12/2025
Năm 2026 là phép thử cho tương lai AI

Năm 2026 sẽ là bước ngoặt cho ngành AI, khi doanh nghiệp cần minh bạch hơn trong đầu tư và quản trị để tạo ra giá trị bền vững.

11:02 29/11/2025
Microsoft không thể tận dụng vị thế doanh nghiệp để biến Copilot trở thành nền tảng phổ biến

Tại Hội nghị Ignite, chuyên gia CNTT chỉ ra rào cản lớn khiến Microsoft chưa thể phổ biến Copilot, mặc dù có hơn 150 triệu người dùng.

09:56 26/11/2025
Google DeepMind mở phòng thí nghiệm nghiên cứu AI tại Singapore, thúc đẩy AI ở châu Á – Thái Bình Dương

Google DeepMind mở phòng thí nghiệm nghiên cứu AI tại Singapore, tập trung vào phát triển công nghệ phục vụ nhu cầu đa dạng của khu vực châu Á – Thái Bình Dương.

14:24 24/11/2025
OpenAI và Microsoft hợp tác với các tiểu bang Hoa Kỳ thành lập lực lượng đặc nhiệm về an toàn AI

Lực lượng Đặc nhiệm về AI được thành lập bởi OpenAI, Microsoft và hai Tổng chưởng lý tiểu bang Hoa Kỳ nhằm đảm bảo an toàn cho người dùng, đặc biệt là trẻ em.

11:15 18/11/2025
Ấn Độ đưa chương trình giảng dạy AI vào bậc tiểu học

Bắt đầu từ năm học 2026-2027, Ấn Độ sẽ đưa AI trở thành môn học bắt buộc từ lớp 3, nhằm nâng cao kỹ năng cho học sinh trong bối cảnh cạnh tranh toàn cầu.

09:45 13/11/2025
Nguồn tiền khổng lồ từ quảng cáo đang ‘nuôi lớn’ cơn sốt AI

Làn sóng đầu tư vào AI đang bùng nổ, với 92% tăng trưởng GDP Mỹ dự kiến đến từ lĩnh vực này. Các 'ông lớn' như Google, Meta, Amazon đang tái đầu tư vào AI để bảo vệ mô hình quảng cáo.

10:12 09/11/2025
Chatbot Trung Quốc có xu hướng "nịnh người dùng" hơn chatbot Hoa Kỳ

Nghiên cứu từ Đại học Stanford và Carnegie Mellon cho thấy chatbot Trung Quốc có xu hướng đồng tình cao hơn, ảnh hưởng đến khả năng tự đánh giá của người dùng.

09:28 06/11/2025
Các nhà lãnh đạo công nghệ tiết lộ những điều AI không bao giờ làm được

Chuyên gia từ Microsoft, Carrefour và Iberdrola thảo luận về những điều AI không thể làm được và tầm quan trọng của yếu tố con người trong thời đại công nghệ.

16:30 04/11/2025
Ông lớn công nghệ nào đang dẫn đầu cuộc đua AI đám mây tại Trung Quốc?

Khám phá cuộc cạnh tranh giữa Alibaba, ByteDance và Baidu trong lĩnh vực AI đám mây tại Trung Quốc và ai đang dẫn đầu.

09:25 30/10/2025