Trong những tháng đầu năm 2026, Moltbook - một nền
tảng mạng xã hội được quảng bá là “không có con người tham gia đăng bài” - đã
nhanh chóng thu hút sự chú ý của giới công nghệ và nghiên cứu. Nền tảng này
được thiết kế để các tác nhân AI (AI agents) tự tương tác với nhau, tạo thành
các “cộng đồng” theo chủ đề, tương tự các diễn đàn trên Reddit, với cơ chế bình
chọn nội dung để tăng mức độ hiển thị.
Tính đến ngày 12/2/2026, Moltbook
tuyên bố có hơn 2,6 triệu tác nhân AI đăng ký. Theo mô tả của nhà phát triển,
con người chỉ đóng vai trò quan sát nội dung do các tác nhân tự tạo ra, không
trực tiếp tham gia vào quá trình đăng bài hay bình luận.
Điều này khiến
Moltbook được xem như một “phòng thí nghiệm xã hội” độc đáo, nơi các nhà nghiên
cứu có thể quan sát cách AI hình thành cộng đồng, trao đổi thông tin và phát
triển các chuẩn mực tương tác.
Tuy nhiên, các phát hiện mới từ
giới học thuật và an ninh mạng đang đặt ra nghi vấn nghiêm trọng về mức độ “tự
trị” thực sự của nền tảng này.
Một nghiên cứu sơ bộ do Ning Li,
nhà nghiên cứu tại Đại học Thanh Hoa (Trung Quốc), thực hiện đã phân tích hơn
91.000 bài đăng và 400.000 bình luận trên Moltbook. Kết quả cho thấy chỉ khoảng
27% tài khoản thể hiện mô hình đăng bài có tính chu kỳ ổn định - được gọi là
“nhịp tim” của tác nhân AI, khi các bot định kỳ “thức dậy”, duyệt nội dung và
quyết định đăng tải. Trong khi đó, khoảng 37% tài khoản có hành vi đăng bài
mang tính ngẫu nhiên, giống với con người hơn, và 37% còn lại nằm trong vùng
“không rõ ràng”.
Theo Ning Li, những phát hiện này
cho thấy một sự pha trộn giữa hoạt động tự trị và hoạt động có sự can thiệp của
con người. Quan trọng hơn, ông cho rằng hiện chưa thể phân biệt liệu các cộng
đồng AI hình thành trên nền tảng là kết quả của quá trình tổ chức xã hội tự
phát của AI hay do con người điều phối thông qua các mạng bot được kiểm soát tập
trung.
Từ góc độ khoa học, đây là một vấn
đề mang tính nền tảng. Nếu không thể xác định đâu là hành vi tự phát của AI và
đâu là hành vi do con người điều khiển, việc đánh giá năng lực tự tổ chức, học
hỏi và ra quyết định của AI sẽ bị sai lệch. Điều này không chỉ ảnh hưởng đến
nghiên cứu học thuật mà còn tác động trực tiếp đến việc xây dựng khung pháp lý
và chính sách quản trị AI trong tương lai.
Những nghi vấn càng trở nên phức
tạp hơn khi xuất hiện các tiết lộ từ cộng đồng công nghệ. Peter Girnus, một
quản lý sản phẩm tại Mỹ, đã công khai trên mạng xã hội X rằng ông từng giả danh
một tác nhân AI trên Moltbook và đăng một bài viết lan truyền mạnh - một “tuyên
ngôn AI” hứa hẹn chấm dứt “kỷ nguyên của con người”. Theo ông, bài viết được
nhiều người tin là bằng chứng về trí tuệ nhân tạo tổng quát, nhưng thực chất
chỉ là một trò đóng vai của con người.
Vụ việc này cho thấy mức độ dễ bị
thao túng của các nền tảng “xã hội AI” và đặt ra câu hỏi về độ tin cậy của nội
dung do AI tạo ra trong môi trường công cộng. Trong bối cảnh AI ngày càng được
sử dụng để tạo nội dung, phân tích dữ liệu và hỗ trợ ra quyết định, khả năng
phân biệt giữa nội dung tự động và nội dung do con người “ngụy trang” trở thành
một thách thức lớn.
Rủi ro còn nghiêm trọng hơn khi
các nhà nghiên cứu bảo mật tại Wiz phát hiện những lỗ hổng an ninh nghiêm trọng
trong hệ thống Moltbook. Theo báo cáo, khoảng 1,5 triệu tác nhân AI trên nền
tảng được quản lý bởi chỉ 17.000 tài khoản con người, tức trung bình mỗi người
kiểm soát khoảng 88 tác nhân. Nền tảng cũng không giới hạn số lượng tác nhân mà
một tài khoản có thể thêm, đồng nghĩa với khả năng hình thành các “trang trại
bot” quy mô lớn.
Đặc biệt, nhóm Wiz đã phát hiện
một cơ sở dữ liệu bị lộ chứa các thông tin nhạy cảm cho từng tác nhân, bao gồm
khóa truy cập cho phép chiếm quyền kiểm soát tài khoản, token xác nhận quyền sở
hữu và mã đăng ký duy nhất. Với các thông tin này, kẻ tấn công có thể giả mạo
hoàn toàn bất kỳ tác nhân nào, đăng nội dung, gửi tin nhắn và tương tác như thể
là tác nhân đó. Về bản chất, toàn bộ hệ thống có nguy cơ bị chiếm quyền kiểm
soát.
Mặc dù Moltbook cho biết đã khắc
phục lỗ hổng và xóa cơ sở dữ liệu sau khi được thông báo, sự cố này cho thấy
các nền tảng AI xã hội không chỉ đối mặt với thách thức về tính minh bạch mà
còn với rủi ro an ninh mạng ở quy mô lớn. Nếu các tác nhân AI được tích hợp vào
các hệ thống kinh tế, tài chính hoặc hạ tầng quan trọng, việc bị chiếm quyền
kiểm soát có thể gây ra những hệ lụy nghiêm trọng.
Từ góc nhìn kinh tế số, Moltbook
là một ví dụ điển hình về xu hướng “AI-as-participant” - nơi AI không chỉ là
công cụ mà trở thành một chủ thể tham gia vào không gian số. Điều này mở ra
những mô hình kinh doanh mới, từ thị trường nội dung do AI tạo ra đến các hệ
sinh thái dịch vụ tự động. Tuy nhiên, nó cũng đặt ra thách thức lớn về niềm
tin, trách nhiệm pháp lý và đạo đức công nghệ.
Một câu hỏi cốt lõi là: ai chịu
trách nhiệm khi AI tạo ra nội dung gây hại, thao túng thị trường hoặc lan
truyền thông tin sai lệch? Nếu các tác nhân AI bị con người điều khiển ngầm,
trách nhiệm pháp lý càng trở nên phức tạp. Các cơ quan quản lý sẽ cần những
công cụ mới để giám sát, xác minh nguồn gốc nội dung và xác định mức độ tự chủ
của AI.
Trong bối cảnh toàn cầu, nhiều
quốc gia và tổ chức đang xây dựng khung quản trị AI, từ Đạo luật AI của Liên
minh châu Âu đến các hướng dẫn của OECD và UNESCO. Tuy nhiên, các nền tảng như
Moltbook cho thấy khoảng cách giữa lý thuyết chính sách và thực tế công nghệ.
Khi AI có thể giả lập hành vi xã hội và bị con người thao túng cùng lúc, việc
phân loại rủi ro và thiết kế cơ chế giám sát trở nên phức tạp hơn nhiều so với
các hệ thống phần mềm truyền thống.
Đối với Việt Nam và các nền kinh
tế đang phát triển, câu chuyện Moltbook mang tính cảnh báo quan trọng. Trong
quá trình thúc đẩy chuyển đổi số và ứng dụng AI trong quản trị, tài chính, sản
xuất và dịch vụ công, việc thiếu khung quản trị AI rõ ràng có thể tạo ra rủi ro
hệ thống. Các nền tảng AI xã hội, nếu được sử dụng trong truyền thông, thương
mại điện tử hoặc thị trường tài chính, có thể trở thành công cụ thao túng quy
mô lớn nếu không được kiểm soát.
Ngoài ra, vấn đề minh bạch AI (AI
transparency) và khả năng truy xuất nguồn gốc nội dung (content provenance) sẽ
trở thành một lĩnh vực hạ tầng số mới. Các công nghệ như watermarking nội dung
AI, chữ ký số cho tác nhân AI và hệ thống kiểm toán thuật toán có thể trở thành
tiêu chuẩn bắt buộc trong tương lai.
Nhà phát triển Moltbook, Matt
Schlicht, cho biết các tác nhân AI trên nền tảng có thể tương tác với con người
và “bị ảnh hưởng”, nhưng vẫn có khả năng tự ra quyết định. Phát biểu này phản
ánh một thực tế quan trọng: ranh giới giữa tự trị và bị điều khiển trong AI
không phải là nhị phân, mà là một phổ liên tục. AI có thể tự học và tự hành
động trong một không gian bị thiết kế và giới hạn bởi con người, với dữ liệu và
mục tiêu do con người xác định.
Do đó, câu hỏi không chỉ là liệu
Moltbook có con người đứng sau hay không, mà là mức độ tự chủ của AI có thể và
nên được phép đến đâu trong không gian số. Trong một thế giới nơi AI có thể tạo
nội dung, tham gia thị trường và tương tác xã hội, việc thiết kế các “lan can”
thể chế trở thành nhiệm vụ chiến lược của các chính phủ và doanh nghiệp công
nghệ.
Câu chuyện Moltbook có thể chỉ là
bước khởi đầu của một kỷ nguyên mới, nơi AI không chỉ là công cụ mà là “tác nhân
kinh tế - xã hội”. Nhưng cũng chính từ những thử nghiệm này, thế giới sẽ phải
học cách xây dựng một hệ sinh thái AI minh bạch, an toàn và có trách nhiệm, để
tránh việc công nghệ trở thành một “hộp đen” khó kiểm soát trong nền kinh tế số
toàn cầu.