image Thứ Năm, 04/09/2025

Meta có thể thể dừng phát triển các hệ thống AI nếu quá rủi ro

Mai Anh

11/02/2025

Chia sẻ

Trong một số trường hợp, Meta có thể sẽ không phát hành hệ thống AI có năng lực cao mà họ đã tự phát triển…

Meta có thể thể dừng phát triển các hệ thống AI nếu quá rủi ro

CEO của Meta – ông Mark Zuckerberg – từng cam kết sẽ cung cấp trí tuệ nhân tạo tổng quát (AGI) công khai. Đây là công nghệ giúp AI có thể thực hiện bất kỳ nhiệm vụ nào mà con người có thể làm.

Tuy nhiên, tài liệu chính sách mới đây của công ty này cho thấy một số trường hợp Meta có thể sẽ không phát hành hệ thống AI có năng lực cao mà họ đã tự phát triển trong nội bộ, trang TechCrunch đưa tin.

Tài liệu có tên Khung AI tiên phong (Frontier AI Framework) đã xác định hai loại hệ thống AI mà doanh nghiệp này coi là quá rủi ro để phát hành: Hệ thống “rủi ro cao” và hệ thống “rủi ro nghiêm trọng". 

Theo định nghĩa của Meta, cả hai loại hệ thống trên đều có khả năng hỗ trợ các cuộc tấn công an ninh mạng, hóa học và sinh học. Điểm khác biệt là hệ thống rủi ro nghiêm trọng có thể dẫn đến một “hậu quả thảm khốc không thể giảm thiểu trong bối cảnh triển khai được đề xuất”.  

Trong khi đó, hệ thống rủi ro cao có thể giúp dễ dàng thực hiện một cuộc tấn công hơn nhưng không đáng tin cậy hoặc không chắc chắn bằng hệ thống rủi ro nghiêm trọng. 

Vậy cụ thể là những cuộc tấn công nào? Meta đưa ra một số ví dụ, như “xâm nhập tự động từ đầu đến cuối vào một môi trường doanh nghiệp được bảo vệ theo tiêu chuẩn tốt nhất” và “sự lan rộng của vũ khí sinh học có tác động cao”.

Meta đánh giá, danh sách các thảm họa tiềm tàng trong tài liệu không mang tính toàn diện, nhưng bao gồm những rủi ro mà công ty này tin là “cấp bách nhất” và có khả năng xảy ra trực tiếp do việc phát hành một hệ thống AI mạnh mẽ. 

Điều khá đáng ngạc nhiên là theo tài liệu này, Meta phân loại mức độ rủi ro của hệ thống không dựa trên một bài kiểm tra thực nghiệm cụ thể nào, mà dựa trên ý kiến của các nhà nghiên cứu cả nội bộ và bên ngoài – những người được xem xét bởi “các nhà lãnh đạo cấp cao”.

Câu hỏi đặt ra là tại sao lại như vậy. Meta cho rằng, khoa học đánh giá hiện tại chưa “đủ vững chắc để cung cấp các chỉ số định lượng mang tính quyết định” trong việc xác định mức độ rủi ro của một hệ thống.

Nếu Meta xác định một hệ thống thuộc phân loại rủi ro cao, công ty này sẽ hạn chế quyền truy cập vào hệ thống trong nội bộ và sẽ không phát hành nó cho đến khi triển khai các biện pháp giảm thiểu để “giảm rủi ro xuống mức trung bình.”

Ngược lại, nếu một hệ thống bị coi là rủi ro nghiêm trọng, Meta cho biết sẽ thực hiện các biện pháp bảo vệ an ninh để ngăn chặn việc hệ thống bị đánh cắp và sẽ dừng phát triển cho đến khi có thể làm cho hệ thống trở nên ít nguy hiểm hơn.

Khung AI tiên phong của Meta sẽ được phát triển cùng với bối cảnh AI đang thay đổi và theo cam kết mà doanh nghiệp đã công bố trước thềm Hội nghị thượng đỉnh hành động AI của Pháp vào tháng này. Động thái này dường như là phản ứng trước những lời chỉ trích về cách tiếp cận của công ty đối với việc phát triển hệ thống.

Meta đã áp dụng chiến lược công khai công nghệ AI của mình, mặc dù không phải là mã nguồn mở theo định nghĩa thông thường, trái ngược với các công ty như OpenAI lựa chọn bảo vệ hệ thống của họ bằng API.

Khi công bố khung phát triển mới nhất, Meta cũng có thể muốn đối chiếu chiến lược AI mở của mình với công ty AI Trung Quốc DeepSeek khi tay chơi đến từ Bắc Kinh đã công khai các hệ thống của mình. Nhưng AI của Trung Quốc có ít biện pháp bảo vệ và có thể dễ dàng bị điều khiển để tạo ra các đầu ra độc hại.

“Chúng tôi tin rằng, bằng cách cân nhắc cả lợi ích và rủi ro khi đưa ra quyết định về cách phát triển và triển khai AI tiên tiến, chúng tôi có thể cung cấp công nghệ đó cho xã hội theo cách bảo toàn lợi ích của công nghệ đó đối với xã hội, đồng thời vẫn duy trì mức độ rủi ro phù hợp”, Meta viết trong tài liệu.


Trung Quốc thúc đẩy làn sóng xuất khẩu ra toàn cầu nhờ "lực lượng lao động robot" giá rẻ

Khám phá cách Trung Quốc sử dụng robot giá rẻ để tăng cường xuất khẩu toàn cầu và duy trì lợi thế sản xuất.

14:43 04/09/2025
Hoa Kỳ ra chính sách “gây khó” cho TSMC, SK Hynix và Samsung khi sản xuất chip tại Trung Quốc

Khám phá chính sách mới của Mỹ đối với TSMC, Samsung và SK Hynix trong sản xuất chip tại Trung Quốc. Đọc ngay!

14:43 04/09/2025
Kỷ nguyên phần mềm tống tiền do AI tạo ra đã đến

Khám phá sự gia tăng ransomware do AI tạo ra, tội phạm mạng ngày càng tinh vi và cách họ thực hiện các cuộc tấn công hiệu quả.

17:01 03/09/2025
Triển vọng tăng trưởng của Nvidia "lung lay" bởi tình hình bất ổn tại Trung Quốc

Cổ phiếu Nvidia giảm nhẹ do lo ngại về doanh số tại Trung Quốc. Khám phá triển vọng tăng trưởng AI của công ty.

23:13 29/08/2025
Trung Quốc đẩy nhanh thương mại hóa các mô hình AI

Khám phá cách Trung Quốc đang thương mại hóa mô hình AI với chi phí đào tạo giảm mạnh, mở rộng ứng dụng trong nhiều lĩnh vực.

23:13 29/08/2025
Malaysia ra mắt bộ xử lý AI biên đầu tiên

Malaysia công bố bộ xử lý AI đầu tiên, khẳng định vị thế trong chuỗi cung ứng chip toàn cầu. Tìm hiểu thêm về bước tiến này!

00:37 29/08/2025
Trung Quốc đang tìm cách tăng gấp ba sản lượng chip AI

Khám phá kế hoạch của Trung Quốc trong việc tăng sản lượng chip AI gấp ba lần vào năm tới để cạnh tranh với các đối thủ phương Tây.

00:37 29/08/2025
Các nhà sản xuất chip, máy chủ Trung Quốc bước vào "siêu chu kỳ" nhờ AI

Khám phá sự bùng nổ trong ngành sản xuất chip và máy chủ Trung Quốc nhờ AI. Đầu tư hàng tỷ USD đang thay đổi cục diện công nghệ.

18:28 27/08/2025
Chiến lược sản xuất iPhone tại Ấn Độ của Apple gặp khó

Chiến lược sản xuất iPhone tại Ấn Độ của Apple gặp khó khăn do triệu hồi kỹ sư Trung Quốc. Tìm hiểu nguyên nhân và tác động ngay!

18:28 27/08/2025
Big Tech trở lại tinh thần startup, mong bứt phá trong cuộc đua AI

Khám phá cách các gã khổng lồ công nghệ như Meta, Google, Tesla tái sinh tinh thần startup trong cuộc đua AI.

19:59 25/08/2025