Ngày 10/12/2025, tại Kỳ họp thứ 10, Quốc hội khóa XV đã biểu quyết thông qua Luật Trí tuệ nhân tạo (AI). Với việc thông qua Luật Trí tuệ nhân tạo, Việt Nam đã trở thành một trong số ít quốc gia có luật riêng toàn diện về AI.
Luật Trí tuệ nhân tạo có hiệu lực từ ngày 1/3/2026, gồm 35 điều, được thiết kế theo hướng bảo đảm cân bằng giữa kiểm soát rủi ro và thúc đẩy đổi mới sáng tạo, phù hợp với thông lệ quốc tế và hỗ trợ Việt Nam chủ động hội nhập với các chuẩn mực công nghệ mới.
Đây là lần đầu tiên Việt Nam xây dựng và ban hành một đạo luật riêng về AI, thể hiện rõ cam kết mạnh mẽ của Đảng và Nhà nước trong việc coi AI là một công nghệ chiến lược. Tinh thần xuyên suốt của Luật là xây dựng một hành lang pháp lý cởi mở, an toàn, dựa trên cách tiếp cận quản lý rủi ro để thúc đẩy đổi mới sáng tạo.
Để làm rõ hơn về tinh thần “cởi mở, an toàn, thúc đẩy đổi mới sáng tạo” của Luật AI, Tạp chí Kinh tế Việt Nam / VnEconomy đã có cuộc trao đổi với ông Nguyễn Đức Lam, chuyên gia về luật và quản trị nhà nước, Cố vấn chính sách tại Viện Nghiên cứu Chính sách và Phát triển truyền thông (IPS).
Ông Nguyễn Đức Lam đã có hơn 20 năm làm việc trong lĩnh vực pháp luật, chính sách công tại Văn phòng Quốc hội. Hiện nay, ông tập trung vào nghiên cứu, tư vấn chính sách công nghệ số như xây dựng chính quyền số, sử dụng dữ liệu trong hoạt động của Nhà nước, chính sách phát triển, kiểm soát rủi ro của AI.
Thưa ông, không ít chuyên gia cả trong nước và quốc tế cảnh báo nếu quản AI quá cứng nhắc có thể sẽ kìm hãm đổi mới sáng tạo. Với Luật AI vừa được thông qua, theo ông, các quy định đã đủ linh hoạt, vừa tạo điều kiện phát triển, vừa đảm bảo kiểm soát rủi ro?
Đây là một câu hỏi rất khó và tôi cũng phải thừa nhận rằng việc đảm bảo sự cân bằng giữa phát triển AI và kiểm soát rủi ro do AI gây ra là một vấn đề “đau đầu” chung của cả thế giới chứ không chỉ riêng Việt Nam hay bất kỳ quốc gia nào.
Tại Việt Nam, chúng ta đang đi theo hướng tiếp cận là phân loại rủi ro theo các cấp độ để kiểm soát. Cách tiếp cận này được đánh giá là phù hợp ở một mức độ nhất định vì nó không đánh đồng tất cả các loại rủi ro với nhau. Cụ thể, đối với những rủi ro cao thì áp dụng các biện pháp khắt khe hơn, còn rủi ro trung bình và thấp thì biện pháp sẽ nhẹ nhàng hơn. Đối với những rủi ro ở mức không chấp nhận được (như theo cách phân loại của Đạo luật AI của EU), Luật AI của Việt Nam đã chuyển thành các hành vi bị cấm. Việc phân biệt theo cấp độ như vậy giúp chúng ta có những biện pháp tương xứng, không đánh đồng, nhằm kiểm soát được rủi ro mà không cản trở sự phát triển của công nghệ.
Tuy nhiên, vấn đề khó khăn nằm ở chỗ làm sao xác định được AI có rủi ro thuộc nhóm nào. Trong đó, khó nhất là phải xác định được loại rủi ro nào là rủi ro cao để áp dụng biện pháp quản lý phù hợp.
Ngoài ra, xét từ góc độ phương pháp tiếp cận, chúng ta cũng nên xác định rằng không chỉ điều chỉnh rủi ro của AI bằng các văn bản luật “cứng”, Nghị định, hay Thông tư. Trên thế giới, người ta sử dụng rất nhiều công cụ chính sách khác nhau để điều chỉnh vấn đề này.
Thứ nhất, luật cứng, tức là các quy định bắt buộc của Nhà nước.
Thứ hai, các nguyên tắc mang tính khuyến nghị như của OECD hay UNESCO mà các quốc gia có thể tham khảo áp dụng.
Thứ ba, các tiêu chuẩn kỹ thuật của từng ngành, ví dụ như ngành y tế hay giáo dục có thể có những tiêu chuẩn riêng cho AI. Tại EU, các tiêu chuẩn này không bắt buộc, nhưng nếu doanh nghiệp tuân thủ thì đó sẽ là bằng chứng để họ chứng minh với cơ quan quản lý rằng mình đã tuân thủ quy định, giúp giảm bớt gánh nặng tuân thủ pháp lý về sau.
Thứ tư, các bộ quy tắc ứng xử mang tính tự nguyện do một ngành, một tổ chức hay doanh nghiệp tự xây dựng và áp dụng nội bộ.
Thứ năm, cơ chế thử nghiệm có kiểm soát (sandbox).
Như vậy, để hài hòa giữa kiểm soát và phát triển, chúng ta không chỉ dựa vào một đạo luật riêng về AI mà cần phối hợp nhiều công cụ. Thậm chí, ngay cả khi dựa vào pháp luật, chúng ta cũng có thể tận dụng các luật hiện hành như Luật Sở hữu trí tuệ, Luật Bảo vệ quyền lợi người tiêu dùng, Luật Cạnh tranh, các quy định về bảo vệ dữ liệu cá nhân để điều chỉnh rủi ro của AI thay vì chỉ trông chờ vào một đạo luật mới hoàn toàn. Cách tiếp cận đa dạng như thế sẽ góp phần giải quyết bài toán cân bằng khó khăn này.
Luật AI của Việt Nam chia ra các cấp độ rủi ro và ông có nói rằng cái khó là xác định các cấp độ rủi ro như thế nào để điều chỉnh cho phù hợp. Vậy theo kinh nghiệm quốc tế, các quốc gia khi xây dựng luật AI gặp thách thức gì lớn nhất trong việc cân bằng giữa phát triển AI và đảm bảo an toàn quyền lợi cho người dân, thưa ông?
Thách thức mấu chốt vẫn là câu chuyện xác định thế nào là rủi ro cao. Mặc dù rủi ro ở mức không chấp nhận được (hay là các hành vi bị cấm) có tính chất nguy hiểm nhất, nhưng đôi khi nó lại dễ xác định hơn là rủi ro cao. Rủi ro cao là mức độ mà chúng ta không cấm, nhưng lại phải áp đặt cho doanh nghiệp những nghĩa vụ pháp lý đủ chặt chẽ để kiểm soát, nhưng cũng không được quá trói buộc khiến họ không thể phát triển. Việc xác định ranh giới và nội hàm của cấp độ rủi ro cao này là rất khó khăn.
Theo quy định của Luật AI, danh mục các hệ thống AI có rủi ro cao sẽ do Thủ tướng Chính phủ ban hành và danh mục này sẽ được cập nhật hàng năm để đảm bảo phù hợp với thực tiễn. Điều quan trọng là để luật có thể thích ứng được với sự thay đổi nhanh chóng của công nghệ, tránh tình trạng quy định hôm nay thì đúng nhưng ngày mai lại trở nên lỗi thời hoặc kìm hãm sự phát triển, đồng thời đảm bảo sự linh hoạt, chúng ta cần một cơ chế cập nhật thường xuyên. Ví dụ, năm nay Chính phủ có thể thiết lập danh mục gồm các hệ thống AI được coi là có rủi ro cao và áp dụng các biện pháp kiểm soát ngặt nghèo hơn. Tuy nhiên, sang năm sau, khi công nghệ đã hoàn thiện hơn hoặc chúng ta đã hiểu rõ hơn về nó, có thể một số hệ thống trong đó không còn được coi là rủi ro cao nữa. Khi đó, chúng sẽ được chuyển xuống nhóm rủi ro trung bình và các nghĩa vụ pháp lý đi kèm cũng sẽ giảm đi.
Ngược lại, cũng có những loại AI năm nay chưa bị coi là rủi ro cao, nhưng sang năm sau, do sự phát triển đột phá của công nghệ, chúng lại phát sinh những nguy cơ mới và trở thành rủi ro cao. Lúc đó, chúng ta lại phải xếp nó vào nhóm cần kiểm soát chặt chẽ hơn. Cách tiếp cận của Luật AI như đã nói ở trên là phù hợp để đảm bảo tính cập nhật của pháp luật, nhưng điều quan trọng là danh mục này cần bám sát với thực tế phát triển của công nghệ.
Về cơ chế sandbox – tức mô hình thử nghiệm có kiểm soát dành cho AI – theo nghiên cứu của ông, các quốc gia hiện nay đang áp dụng những mô hình nào? Ông có thể chia sẻ thêm về kinh nghiệm quốc tế, đặc biệt là các mô hình ở những nước gần gũi với Việt Nam như Singapore, và cách họ đang triển khai sandbox cho AI ra sao?
Về sandbox thế giới đã có rất nhiều tài liệu nghiên cứu. Tuy nhiên, để nói ngắn gọn về những điểm tương đồng mà Việt Nam có thể tham khảo thì các nước thường tập trung vào các nội dung chính như: thời hạn thử nghiệm là bao lâu, cơ quan nào có thẩm quyền phê duyệt, điều kiện để doanh nghiệp được tham gia vào cơ chế này là gì, quy trình, thủ tục phê duyệt tham gia cơ chế này, miễn giảm các nghĩa vụ pháp lý của doanh nghiệp được tham gia sandbox.
Lấy ví dụ về thời hạn, thông thường các nước chỉ cho phép thử nghiệm trong khoảng từ 6 tháng đến 2 năm, rất ít nước cho phép thử nghiệm kéo dài đến 3 năm. Bởi vì nếu cho phép thử nghiệm quá dài sẽ tạo ra sự bất cân xứng trong cạnh tranh.
Trong lĩnh vực công nghệ, đặc biệt là AI, tốc độ phát triển cực kỳ nhanh. Nếu một doanh nghiệp được bao bọc trong cơ chế thử nghiệm tới 3 năm, giả sử được gia hạn thêm 3 năm nữa, tổng cộng là 6 năm, thì lợi thế cạnh tranh của họ so với các doanh nghiệp bên ngoài là quá lớn. Vì vậy, để cân bằng giữa thúc đẩy phát triển và đảm bảo cạnh tranh công bằng, các nước thường chỉ cho phép thời hạn vừa phải như đã nêu trên và gia hạn thêm khoảng ngắn như vậy. Đây là một điểm chúng ta cần lưu ý để đảm bảo sự cân bằng.
Ngoài ra, có một nội dung trong Luật AI về sandbox rất đáng được ủng hộ, đó là quy định dành cho các doanh nghiệp nhỏ và vừa. Nếu các doanh nghiệp này đã được phê duyệt tham gia và hoàn thành quá trình trong sandbox, thì sau này họ sẽ được miễn hoặc giảm một số thủ tục pháp lý tiếp theo.
Đây chính là sự cân bằng giữa kiểm soát và thúc đẩy. Một mặt, Nhà nước vẫn kiểm soát rủi ro thông qua quá trình thử nghiệm trong sandbox; mặt khác, lại tạo động lực phát triển bằng cách giảm bớt gánh nặng thủ tục hành chính cho doanh nghiệp sau khi họ đã chứng minh được sự tuân thủ.
Luật AI đã được thông qua và sẽ có hiệu lực từ ngày 1/3/2026. Ông đánh giá thế nào về mức độ sẵn sàng của hệ sinh thái AI Việt Nam, bao gồm doanh nghiệp, nhà đầu tư và người dùng, trước những quy định pháp lý này?
Về mức độ sẵn sàng, bản thân tôi cũng nghe khá nhiều doanh nghiệp bày tỏ lo ngại về các quy định kiểm soát chặt chẽ. Tuy nhiên, chúng ta cần nhìn nhận vấn đề từ nhiều chiều.
Tôi từng trao đổi với một giáo sư luật người Úc, chuyên gia quản trị AI về vấn đề này. Tôi hỏi bà ấy rằng: Liệu việc quy định kiểm soát rủi ro và áp đặt nghĩa vụ pháp lý cho các hệ thống AI rủi ro cao có tạo ra gánh nặng chi phí tuân thủ cho doanh nghiệp hay không? Bà ấy trả lời rất thẳng thắn: khi anh tham gia vào thị trường và tạo ra sản phẩm có khả năng gây rủi ro, thì anh buộc phải chịu sự kiểm soát. Chi phí tuân thủ là một phần tất yếu, vấn đề là mức chi phí đó phải hợp lý. Không thể vì muốn giảm chi phí mà đòi hỏi được nằm ngoài sự kiểm soát của pháp luật.
Tôi cũng muốn nói về sự cần thiết của Luật AI tại Việt Nam. Tại sao nhiều nước chưa vội ban hành luật riêng về AI? Vì họ nghĩ chưa cần thiết hoặc có thể dùng các luật hiện hành. ở Việt Nam, tư duy quản lý có chút khác biệt: phải có quy định thì mới dám làm, mới có cơ sở để hỗ trợ. Nếu không có luật, các cơ quan sẽ ngại đưa ra các biện pháp hỗ trợ vì lỡ sai, không có căn cứ pháp lý, có thể bị kỷ luật.
Vì vậy, trong bối cảnh Việt Nam, luật này cần thiết không chỉ để kiểm soát mà còn là cơ sở pháp lý quan trọng để thúc đẩy phát triển. Khi có luật, các cơ quan muốn hỗ trợ doanh nghiệp về vốn, về cơ chế sẽ có điểm tựa để thực hiện. Luật AI cũng có nhiều nội dung hướng tới mục tiêu này, đặc biệt là hỗ trợ doanh nghiệp nhỏ và vừa, như cơ chế miễn giảm thủ tục sau sandbox; hay quy định về Quỹ phát triển AI với một trong những mục tiêu là hỗ trợ các doanh nghiệp AI ra đời và lớn mạnh.
Trong các loại hỗ trợ doanh nghiệp, hỗ trợ, hướng dẫn kỹ thuật rất quan trọng, vì tính chất vừa mới mẻ, vừa phức tạp của công nghệ AI. Ví dụ ở Australia, doanh nghiệp có nghĩa vụ tự đánh giá rủi ro, nhưng Chính phủ không để họ "tự bơi". Chính phủ Australia thiết lập các trung tâm hỗ trợ nơi doanh nghiệp có thể tìm đến để được hướng dẫn chi tiết cách đánh giá rủi ro, cách tuân thủ quy định. Theo Luật AI của Việt Nam, Bộ Khoa học và Công nghệ có trách nhiệm hướng dẫn trong trường hợp nhà cung cấp chưa tự xác định được mức độ rủi ro của hệ thống trí tuệ nhân tạo. Sắp tới, cần quy định rõ hơn nội hàm trách nhiệm cụ thể, cách thức hướng dẫn doanh nghiệp làm việc đó như thế nào.
Theo ông, liệu một khung pháp lý về AI có giúp Việt Nam hấp dẫn hơn trong mắt các nhà đầu tư không?
Nếu luật đảm bảo được sự minh bạch thì chắc chắn sẽ tạo điều kiện tốt thu hút đầu tư nước ngoài, bởi vì một khung pháp lý đầy đủ sẽ giúp Việt Nam hấp dẫn hơn trong mắt các nhà đầu tư lĩnh vực AI. Các nhà đầu tư nước ngoài thường “soi” luật rất kỹ. Nếu họ biết rõ mình phải thực hiện nghĩa vụ gì, được hưởng quyền lợi gì, họ sẽ yên tâm bỏ vốn. Ngược lại, nếu họ thấy quy định mập mờ, rủi ro pháp lý cao, họ sẽ e ngại. Sự minh bạch chính là chìa khóa.
Gần đây tôi có làm việc với một giáo sư người Nhật, ông ấy vừa là giảng viên vừa là chủ một công ty tư vấn về AI. Ông ấy chia sẻ rất thú vị về Luật Thúc đẩy phát triển AI của Nhật Bản. Đúng như tên gọi, Luật AI của Nhật Bản là các quy định thúc đẩy, gần như không có nội dung về kiểm soát. Ông ấy cho biết Nhật Bản muốn trở thành đất nước thân thiện nhất với AI.
Khi hỏi có lo ngại về rủi ro không, ông ấy thừa nhận là có, nhưng cách tiếp cận của Nhật Bản là dựa vào các luật hiện hành để điều chỉnh. Ví dụ, vấn đề bản quyền liên quan đến AI sẽ được xử lý dựa trên Luật Bản quyền hiện có, kết hợp với các hướng dẫn của Chính phủ. Chính phủ Nhật Bản sẽ ban hành các hướng dẫn chi tiết, khuyến nghị doanh nghiệp để tránh vi phạm, chứ không ban hành các quy định khắt khe trong luật AI.
Cách tiếp cận này rất hay và cởi mở, nhưng cũng đặt ra một băn khoăn lớn về khả năng thực thi khi đưa vào thực tế, đặc biệt khi xảy ra tranh chấp tại tòa án. Nếu chỉ dựa vào hướng dẫn, nhiều tình huống pháp lý sẽ rơi vào vùng xám. Chẳng hạn, khi hai doanh nghiệp kiện nhau vì cáo buộc sản phẩm tạo ra bởi AI vi phạm bản quyền, một bên có thể lập luận rằng sản phẩm tuân thủ đúng “hướng dẫn của Chính phủ”, trong khi bên còn lại phản biện rằng các hướng dẫn đó không phải là văn bản luật. Khi đó, tòa án có thể sẽ gặp thách thức để đưa ra phán quyết vì thiếu căn cứ pháp lý mang tính ràng buộc.
Điều này cho thấy nếu phụ thuộc quá nhiều vào “soft law”, vốn mang tính khuyến nghị nhiều hơn là bắt buộc thì cũng có thể tạo khó khăn trong thực thi.
Tết đến, Xuân về, người Việt hay chúc nhau “An Khang, Thịnh Vượng”. Kiểm soát rủi ro từ AI chính là hướng tới một cuộc sống an vui, hạnh phúc cho mỗi người, mỗi nhà, toàn thể xã hội. Đồng thời, nhằm tăng năng suất lao động, cũng chính là đạt hai chữ “Thịnh Vượng”, cho mỗi người, mỗi nhà, toàn xã hội và cả quốc gia.
Nội dung đầy đủ bài viết được đăng tải trên Tạp chí Kinh tế Việt Nam số 7+8-2026 phát hành ngày 16-23/02/2026. Kính mời Quý độc giả tìm đọc tại đây:
Link: https://premium.vneconomy.vn/dat-mua/an-pham/tap-chi-kinh-te-viet-nam-so-78-xuan-binh-ngo.html
Thuế đối ứng của Mỹ có ảnh hướng thế nào đến chứng khoán?
Chính sách thuế quan mới của Mỹ, đặc biệt với mức thuế đối ứng 20% áp dụng từ ngày 7/8/2025 (giảm từ 46% sau đàm phán), có tác động đáng kể đến kinh tế Việt Nam do sự phụ thuộc lớn vào xuất khẩu sang Mỹ (chiếm ~30% kim ngạch xuất khẩu). Dưới đây là phân tích ngắn gọn về các ảnh hưởng chính: