Chạy đua thương mại hóa sản phẩm AI, Big Tech Mỹ bị chỉ trích vì "xem nhẹ" đạo đức và tính an toàn
Sự chuyển dịch từ nghiên cứu sang thương mại hóa tại Thung lũng Silicon phản ánh áp lực cạnh tranh khốc liệt trong ngành AI. Nhưng khi Meta, Google và OpenAI chạy đua đưa sản phẩm ra thị trường, những lo ngại về an toàn và đạo đức ngày càng gia tăng...

Kể từ khi OpenAI ra mắt ChatGPT vào cuối năm 2022, ngành công nghệ Silicon Valley đã chuyển trọng tâm sang xây dựng các dịch vụ AI sẵn sàng phục vụ người dùng, và tính thương mại được ưu tiên hàng đầu. Tiềm năng lợi nhuận lớn, một số nhà phân tích dự đoán doanh thu hàng năm từ AI có thể đạt 1 nghìn tỷ USD vào năm 2028. Tuy nhiên, những hệ lụy tiềm tàng khiến một bộ phận trong cộng đồng AI lo ngại về tính an toàn, đặc biệt khi các công ty hàng đầu theo đuổi trí tuệ nhân tạo tổng quát (AGI) – công nghệ có khả năng sánh ngang hoặc vượt qua trí tuệ con người.
Theo CNBC, trong cuộc đua duy trì vị thế cạnh tranh, các công ty công nghệ ngày càng “đi tắt” trong việc kiểm tra an toàn nghiêm ngặt đối với các mô hình AI trước khi đưa ra công chúng.
NGUY CƠ AN TOÀN TRONG CUỘC ĐUA THƯƠNG MẠI HÓA
James White, Giám đốc Công nghệ tại startup bảo mật CalypsoAI, cho biết các mô hình AI mới đang “hy sinh an toàn” để đạt được chất lượng cao hơn, tức là các phản hồi tốt hơn từ các chatbot AI. Điều này khiến chúng dễ bị khai thác bởi các lệnh độc hại, chẳng hạn như tiết lộ cách chế tạo bom hoặc thông tin nhạy cảm mà tin tặc có thể lợi dụng.
“Các mô hình đang trở nên tốt hơn, nhưng cũng dễ bị lừa để làm những điều xấu”, ông White nói. Công ty của ông thực hiện kiểm tra an toàn và bảo mật cho các mô hình phổ biến từ Meta, Google, OpenAI và các công ty khác.
Sự thay đổi này rõ rệt tại Meta và Alphabet, nơi các phòng nghiên cứu AI đã bị giảm ưu tiên. Tại Meta, đơn vị Nghiên cứu AI Cơ bản (FAIR) đã bị lu mờ bởi Meta GenAI, theo các nhân viên hiện tại và cựu nhân viên. Còn tại Alphabet, nhóm nghiên cứu Google Brain giờ là một phần của DeepMind, bộ phận dẫn đầu phát triển sản phẩm AI của công ty.
META: TỪ NGHIÊN CỨU TIÊN PHONG ĐẾN TRỌNG TÂM THƯƠNG MẠI SẢN PHẨM
Khi Joelle Pineau, Phó Chủ tịch Meta và người đứng đầu FAIR, thông báo vào tháng 4/2025 rằng bà sẽ rời vị trí, nhiều cựu nhân viên không bất ngờ. Họ coi đây là dấu hiệu củng cố việc Meta chuyển hướng từ nghiên cứu AI sang phát triển các sản phẩm thực tế. Bà sẽ chính thức rời công ty vào ngày 30/5/2025.
Bà Pineau bắt đầu dẫn dắt FAIR từ năm 2023. Đơn vị này được thành lập một thập kỷ trước để giải quyết các vấn đề khoa học máy tính phức tạp, thường thuộc về giới học thuật. Yann LeCun, một trong những “cha đẻ” của AI hiện đại, từng giám sát dự án, áp dụng các phương pháp nghiên cứu từ thời ông làm việc tại AT&T Bell Laboratories. Các nhóm nghiên cứu nhỏ tại FAIR được tự do khám phá các dự án tiên phong, dù không chắc chắn sẽ thành công.
Sự thay đổi bắt đầu khi Meta sa thải 21.000 nhân viên, gần một phần tư lực lượng lao động, từ cuối năm 2022. CEO Mark Zuckerberg gọi năm 2023 là “năm hiệu quả”. Các nhà nghiên cứu FAIR, trong nỗ lực cắt giảm chi phí, được yêu cầu làm việc chặt chẽ hơn với các nhóm sản phẩm.
Sự ra mắt ChatGPT của OpenAI vào năm 2022 khiến Meta bất ngờ, tạo cảm giác cấp bách trong việc đầu tư mạnh vào các mô hình ngôn ngữ lớn (LLM) đang làm sôi động ngành công nghệ. Năm 2023, Meta bắt đầu quảng bá mạnh mẽ dòng mô hình AI mã nguồn mở Llama để cạnh tranh với OpenAI, Google và các đối thủ khác.
Khi CEO Zuckerberg và các lãnh đạo khác tin rằng LLM là công nghệ thay đổi cuộc chơi, họ ít động lực để FAIR tiếp tục các dự án xa vời. Điều này dẫn đến việc giảm ưu tiên các nghiên cứu không ảnh hưởng trực tiếp đến hoạt động cốt lõi của Meta, như nghiên cứu AI trong y tế để cải thiện liệu pháp thuốc.
Từ năm 2024, Chris Cox, Giám đốc Sản phẩm của Meta, đã giám sát FAIR để thu hẹp khoảng cách giữa nghiên cứu và nhóm GenAI tập trung vào sản phẩm. GenAI quản lý dòng mô hình Llama và trợ lý số Meta AI, hai trụ cột quan trọng trong chiến lược AI của Meta. Một số nhân viên lo ngại rằng Meta giờ đây khó tạo ra những đột phá dẫn đầu ngành từ nghiên cứu thử nghiệm. Điều này khiến Meta phải chạy theo các đối thủ.

Một ví dụ nổi bật là vào tháng 1/2025, phòng thí nghiệm Trung Quốc DeepSeek ra mắt mô hình R1, khiến Meta bất ngờ. DeepSeek tuyên bố phát triển mô hình tương đương các đối thủ Mỹ nhưng với chi phí huấn luyện thấp hơn nhiều. Meta nhanh chóng áp dụng một số kỹ thuật của DeepSeek cho dòng Llama 4, ra mắt vào tháng 4/2025. Cộng đồng nghiên cứu AI có phản ứng trái chiều với các phiên bản nhỏ hơn của Llama 4, nhưng Meta cho biết phiên bản mạnh nhất vẫn đang được huấn luyện.
Tháng 4/2025, Meta cũng ra mắt các công cụ bảo mật và an toàn cho nhà phát triển khi xây dựng ứng dụng với Llama 4, nhằm giảm nguy cơ rò rỉ thông tin nhạy cảm hoặc tạo nội dung độc hại.
GOOGLE: “KHÔNG THỂ TIẾP TỤC XÂY DỰNG SẢN PHẨM BẢO MẪU”
Google ra mắt mô hình AI mạnh nhất, Gemini 2.5, vào tháng 3/2025, gọi đây là “mô hình AI thông minh nhất” của họ. Trong bài đăng blog ngày 25/3, Google cho biết các mô hình mới có khả năng “suy luận trước khi trả lời, mang lại hiệu suất và độ chính xác cao hơn”.
Tuy nhiên, trong nhiều tuần, Gemini 2.5 thiếu thẻ mô hình (model card) – tài liệu cung cấp thông tin về cách mô hình hoạt động, hạn chế và nguy cơ tiềm ẩn. Thẻ mô hình là công cụ phổ biến để đảm bảo tính minh bạch trong AI, tương tự nhãn dinh dưỡng trên thực phẩm, theo trang web của Google.
Các đánh giá này rất quan trọng để đo lường an toàn của mô hình, như khả năng bị sử dụng để học cách chế tạo vũ khí hóa học, hạt nhân, hoặc xâm nhập hệ thống quan trọng. Chúng cũng kiểm tra khả năng mô hình tự sao chép độc lập, có thể khiến công ty mất kiểm soát. Các bài kiểm tra này đòi hỏi nhiều thời gian và tài nguyên hơn so với các đánh giá an toàn tự động đơn giản, theo các chuyên gia.
Đồng sáng lập Google Sergey Brin nói với nhân viên DeepMind và Gemini vào tháng 2/2025 rằng “cuộc đua cuối cùng đến AGI đã bắt đầu”.. Ông kêu gọi “tăng tốc nỗ lực” và kiểm tra mô hình AI nhanh hơn vì cần “nhiều ý tưởng để thử nghiệm nhanh chóng”. Sergey Brin nhấn mạnh cần “những chiến thắng thực sự có thể mở rộng” và không thể tiếp tục xây dựng “sản phẩm bảo mẫu” với “các bộ lọc và giới hạn”.
OPENAI: CHẠY ĐUA THƯƠNG MẠI HÓA VÀ LẰN RANH AN TOÀN
Cuộc tranh luận giữa sản phẩm và nghiên cứu là trọng tâm của sự tồn tại của OpenAI. Được thành lập năm 2015 như một phòng thí nghiệm nghiên cứu phi lợi nhuận, công ty hiện đang nỗ lực chuyển đổi thành một tổ chức vì lợi nhuận và gây tranh cãi. Dù vào ngày 5/5/2025, OpenAI tuyên bố tổ chức phi lợi nhuận sẽ giữ quyền kiểm soát công ty, ngay cả khi tái cấu trúc thành một tập đoàn lợi ích công cộng, áp lực thương mại hóa vẫn gia tăng.
OpenAI đang đẩy nhanh thương mại hóa sản phẩm trong bối cảnh cạnh tranh gay gắt. Công ty cũng bị chỉ trích vì rút ngắn thời gian kiểm tra an toàn từ vài tháng xuống vài ngày và bỏ yêu cầu kiểm tra an toàn cho các mô hình tinh chỉnh trong khung Chuẩn bị mới nhất.
OpenAI cho biết họ giảm thời gian kiểm tra vì đã cải thiện hiệu quả và hiệu suất kiểm tra. Người phát ngôn công ty nói OpenAI đã phân bổ thêm hạ tầng AI và nhân sự cho kiểm tra an toàn, đồng thời tăng tài nguyên cho chuyên gia và mạng lưới kiểm tra bên ngoài.
Tháng 4/2025, OpenAI phát hành GPT-4.1 mà không có báo cáo an toàn, vì mô hình này không được xem là “mô hình tiên tiến”. Tuy nhiên, một cập nhật nhỏ cho GPT-4o đã gây sóng gió khi OpenAI phải thu hồi thay đổi sau khi các phản hồi quá thân thiện lan truyền trên mạng, gây lo ngại về sức khỏe tâm thần, sự phụ thuộc cảm xúc, hoặc hành vi rủi ro. OpenAI thừa nhận đã phát hành mô hình dù một số chuyên gia kiểm tra báo cáo hành vi “cảm thấy hơi lệch”. Họ viết: “Chúng tôi đã sai lầm khi quyết định phát hành. Các đánh giá định tính đang chỉ ra điều quan trọng mà chúng tôi đáng lẽ phải chú ý hơn.”