Chuyên gia Trung Quốc kêu gọi tăng cường minh bạch trong quản trị AI
Bảo Ngọc
04/12/2025
Nhóm nhà nghiên cứu từ DeepSeek, Alibaba và nhiều trường đại học cho rằng các quy định về AI của Trung Quốc đang đi đúng hướng…
Hàng loạt lo ngại về mức độ an toàn của hệ thống AI đang gia tăng tại Trung Quốc, và một bài báo học thuật gần đây vừa góp thêm sức nặng cho cuộc thảo luận này, theo South China Morning Post. Bài báo xuất bản trên tạp chí Science, tập hợp ý kiến của nhiều chuyên gia pháp lý và nhà nghiên cứu từ DeepSeek, Alibaba cũng như một số trường đại học. Kết quả nghiên cứu cho thấy Trung Quốc đã đạt được tiến bộ trong quản trị AI, nhưng vẫn còn khoảng trống cần chú ý.
Nhóm tác giả cho biết Trung Quốc đã mang tới môi trường khuyến khích nghiên cứu và phát triển AI nguồn mở, nhưng quy định hiện hành lại vô tình tạo thành một hệ thống rời rạc và phức tạp. Nhóm cho rằng cách tiếp cận tạm thời hiệu quả, nhưng cần hướng dẫn rõ ràng hơn, đặc biệt khi ngày càng nhiều mô hình AI rủi ro cao xuất hiện. Một trong những điểm được nhấn mạnh là quy trình đăng ký mô hình AI. Theo đó, nhà phát triển phải nộp thông tin trước khi triển khai, nhưng khi bị từ chối thì thường không nhận được phản hồi hữu ích.
LO NGẠI VỀ MÔ HÌNH AI TIÊN TIẾN VÀ YÊU CẦU MINH BẠCH HƠN
Nhóm nghiên cứu cũng chỉ ra rủi ro liên quan đến mô hình “frontier”, thuật ngữ dùng để chỉ hệ thống sở hữu năng lực tiên tiến và có thể gây hại nghiêm trọng nếu bị lạm dụng. Các chuyên gia cảnh báo rằng những trường hợp rộng hơn bao gồm mô hình mã nguồn mở có thể tạo điều kiện cho hành động nguy hiểm. “Chúng tôi cho rằng các công ty AI hàng đầu Trung Quốc cần minh bạch hơn và dựa trên bằng chứng nhiều hơn về nỗ lực quản trị mô hình frontier”, các tác giả viết.
Tác giả chính của bài báo là ông Zhu Yue, trợ lý giáo sư luật tại Đại học Tongji đồng thời là cựu nghiên cứu viên tại ByteDance. Một số tác giả nổi bật khác gồm hai chuyên gia trong ngành: ông Wu Shaoqing, phụ trách quản trị AI tại DeepSeek, và ông Fu Hongyu từ bộ phận nghiên cứu AliResearch thuộc Alibaba. Ông Wu thường tham gia các cuộc thảo luận công khai về giám sát AI và từng phát biểu tại một hội thảo ở Hàng Châu vào tháng 9 năm ngoái về rào cản đạo đức trong hệ thống mã nguồn mở.
Một đồng tác giả khác, bà Zhang Linghan từ Đại học Chính trị và Luật Trung Quốc, cho biết bài báo nhằm giúp độc giả nước ngoài hiểu rõ hơn về cách tiếp cận “thực dụng” của Trung Quốc trong quản trị AI. Bà Linghan chia sẻ cách tiếp cận này thường bị hiểu sai ở nước ngoài. “Trung Quốc thực sự đã chuyển từ vai trò người theo sau thành người dẫn đầu trong quản trị AI, điều này rất đáng chú ý”, bà Zhang, người trước đó từng tham gia soạn thảo đề xuất cho một bộ luật AI quốc gia, nhấn mạnh.
LUẬT AI QUỐC GIA
Nhóm tác giả mô tả hệ thống quy định hiện tại của Trung Quốc được xây dựng dựa trên nhiều trụ cột, bao gồm ngoại lệ dành cho công cụ mã nguồn mở, biện pháp bảo vệ nghiên cứu khoa học ứng dụng AI, và quy trình triển khai từng bước các yêu cầu mới để cơ quan quản lý có thể điều chỉnh theo sự thay đổi của công nghệ. Tòa án cũng đang xử lý các vụ việc liên quan đến AI nhanh hơn, điều mà nhóm tác giả cho rằng là dấu hiệu chứng minh hệ thống pháp lý đang dần thích ứng.
Dù ghi nhận nhiều tiến triển, bài báo cho biết Trung Quốc vẫn thiếu một bộ luật AI thống nhất ở cấp quốc gia. Hai dự thảo do các học giả đề xuất mô tả cách công ty và người dùng có thể bị truy cứu trách nhiệm khi công cụ AI gây ra thiệt hại. Nhưng khi chưa được thông qua chính thức, hệ thống quy định của quốc gia vẫn là tập hợp của nhiều biện pháp chồng chéo.
Nhu cầu tăng cường giám sát cũng được phản ánh trong nghiên cứu riêng của Concordia AI, công ty tư vấn có trụ sở tại Bắc Kinh. Công ty đã xem xét 50 mô hình AI hàng đầu và cho biết hệ thống frontier của Trung Quốc hiện ghi nhận mức rủi ro tương đương với hệ thống của Hoa Kỳ. Báo cáo cảnh báo rằng các mô hình có thể trở thành mục tiêu cho hành vi độc hại hoặc hoạt động theo cách vượt ngoài tầm kiểm soát của con người. “Chúng tôi hy vọng phát hiện này có thể hỗ trợ công ty cải thiện độ an toàn của mô hình”, ông Fang Liang, người đứng đầu mảng an toàn và quản trị AI tại Concordia AI, bày tỏ.
DEEPSEEK GHI NHẬN MỨC RỦI RO CAO NHẤT
Mô hình R1 của DeepSeek thu hút sự chú ý đặc biệt. Nghiên cứu đánh giá mô hình có mức rủi ro cao nhất trong khả năng hỗ trợ cuộc tấn công mạng, dựa trên nhiều thử nghiệm mà công ty thực hiện trước đó trong năm.
Ông Fang cho biết nhóm tác giả của bài báo trên Science mô tả “logic quản trị khác với cách tiếp cận được áp dụng ở châu Âu và Hoa Kỳ”. Vị chuyên gia nói rằng khái niệm “mở” trong AI tại Trung Quốc được xem như biện pháp an toàn, chứ không phải là nguồn rủi ro.
Bài báo trên Science cho rằng khi năng lực AI của quốc gia tỷ dân mở rộng, khung quản lý của nước này cũng phải phát triển theo. Nhóm tác giả cho biết những công ty mạnh nhất Trung Quốc đang định hình nghiên cứu toàn cầu thông qua công cụ mã nguồn mở và mô hình lớn. Nhưng đi cùng ảnh hưởng là trách nhiệm, và bài báo kêu gọi toàn ngành công nghiệp lẫn cơ quan quản lý tập trung nhiều hơn vào các rủi ro đi kèm với tốc độ phát triển nhanh chóng.
Pearson, Experian cùng nhiều doanh nghiệp xuất bản và dữ liệu lớn tại châu Âu chứng kiến giá cổ phiếu giảm mạnh sau khi startup AI của Hoa Kỳ giới thiệu phần mềm tự động hóa hàng loạt dịch vụ chuyên môn…
Moltbook - mạng xã hội dành cho AI agent đang đặt ra nhiều câu hỏi: khi AI bắt đầu “nói chuyện” với nhau trên mạng xã hội, ranh giới giữa trình diễn, công nghệ và tương lai của trí tuệ nhân tạo thực sự nằm ở đâu?...
Từ dự án cá nhân ít người biết tới, OpenClaw nay trở thành một trong những công cụ được nhắc đến nhiều nhất trong thế giới trí tuệ nhân tạo năm nay…
Dù được ca ngợi là công nghệ mang tính cách mạng, AI tạo sinh vẫn đang bị nhiều doanh nghiệp đối xử như một công cụ thử nghiệm đơn lẻ…
Ông Dario Amodei, CEO của Anthropic, cảnh báo nhân loại cần sớm kiểm soát việc phát triển và sử dụng trí tuệ nhân tạo (AI), nếu không, công nghệ này có thể bị sử dụng sai mục đích…
Nhiệt từ làn sóng AI không chỉ làm nóng trung tâm dữ liệu, mà còn tạo ra hướng đi mới cho năng lượng đô thị: biến nhiệt thải từ chip AI thành nguồn sưởi sạch…
Phần lớn Giám đốc An ninh Thông tin (CISO) tin rằng mình nắm khá rõ mức độ sử dụng công cụ trong tổ chức nhưng khi nhóm bảo mật chuyên nghiệp vào cuộc, thực tế hoàn toàn khác lộ ra…
Amazon đang khiến không ít nhà bán lẻ trực tuyến phẫn nộ, khi nhiều doanh nghiệp cho biết họ không hề đồng ý để sản phẩm của mình bị “quét dữ liệu” và đưa lên niêm yết trên hệ sinh thái thương mại điện tử khổng lồ của công ty…
Trong kỷ nguyên AI, câu hỏi quan trọng nhất không còn là “ứng viên có làm được việc hay không”, mà là “bạn làm tốt hơn AI ở điểm nào”...
Tại CES 2026, AMD đã phác họa tầm nhìn khá rõ ràng khi trí tuệ nhân tạo không còn là tính năng “xa xỉ” chỉ xuất hiện trên những hệ thống đắt tiền hay trong trung tâm dữ liệu, mà sẽ trở thành một phần mặc định của cả máy tính cá nhân lẫn hệ thống thương mại…