Tình trạng hỗn loạn tại OpenAI đẩy CEO Sam Altman vào thế khó
Bảo Ngọc
24/05/2024
Nhiều nhà lãnh đạo chủ chốt của OpenAI vừa quyết định “dứt áo ra đi", để lại nỗi lo ngại lớn về vấn đề an toàn AI…

OpenAI đã có một tuần đầy khó khăn, rơi vào thế bị động sau khi nhiều nhà nghiên cứu về an toàn AI quan trọng rời bỏ tổ chức. Bên cạnh đó, nhiều NDA (thỏa thuận bảo mật) nghiêm ngặt của công ty buộc nhân viên cũ không được lên tiếng và giới chuyên môn phản ứng dữ dội với phiên bản mới của ChatGPT, theo Business Insider.
Lùm xùm xoay quanh quyết định từ chức của nhà nghiên cứu cấp cao Jan Leike và Giám đốc Khoa học Ilya Sutskever vào tuần trước thậm chí đã buộc các lãnh đạo của OpenAI, bao gồm cả CEO Sam Altman, phải đưa ra tuyên bố công khai bảo vệ nỗ lực của hãng trong việc kiểm soát rủi ro AI.
Khi Vox hỏi về các thỏa thuận bắt buộc chặt chẽ của OpenAI, CEO Altman đã trả lời rằng đây là một trong "số ít lần" mà ông cảm thấy "thực sự xấu hổ" khi điều hành OpenAI. Ông khẳng định không hề biết về các điều khoản được áp dụng đối với nhân viên nghỉ việc và tuyên bố công ty đang nỗ lực khắc phục vấn đề.
Đây là sự thừa nhận hiếm hoi từ Sam Altman, dù đã cố xây dựng hình tượng tương đối bình tĩnh giữa bối cảnh hỗn loạn hiện tại của OpenAI. Cuộc đảo chính thất bại nhằm loại bỏ ông vào năm ngoái cuối cùng lại củng cố danh tiếng thêm cho vị CEO, nhưng có vẻ như những “vết nứt” bên trong tổ chức OpenAI đang dần lộ rõ.
NHÓM NGHIÊN CỨU VỀ AN TOÀN AI TAN RÃ

Leike và Sutskever, những người đứng đầu nhóm chịu trách nhiệm đảm bảo trí tuệ nhân tạo nói chung không lừa đảo và gây hại cho nhân loại, đều quyết định từ chức vào tuần trước.
Jan Leike sau đó đăng tải một bài dài trên X, cáo buộc những người chủ cũ đã đặt "sản phẩm hào nhoáng" lên trên sự an toàn. Ông bày tỏ nhóm an toàn đã phải "đấu tranh và tính toán" và "việc thực hiện nghiên cứu ngày càng trở nên khó khăn".
Nhanh chóng xử lý khủng hoảng, CEO Altman chia sẻ lại bài đăng của Leike và nói thêm rằng: "Ông ấy nói đúng, chúng tôi còn rất nhiều việc phải làm; chúng tôi cam kết thực hiện điều đó".
Leike và Sutskever không phải là những người duy nhất rời đi.
Theo báo cáo của The Information, hai nhà nghiên cứu an toàn là Leopold Aschenbrenner và Pavel Izmailov gần đây đã bị sa thải với cáo buộc làm rò rỉ thông tin.
Theo hồ sơ trên LinkedIn, các nhà nghiên cứu về an toàn và quản trị Daniel Kokotajlo và William Saunders gần đây cũng rời công ty, trong khi Cullen O'Keefe, trưởng nhóm nghiên cứu về chính sách, đã thôi việc tại OpenAI từ tháng 4.
Kokotajlo chia sẻ với Vox rằng ông “dần mất niềm tin vào lãnh đạo và khả năng xử lý AGI (trí tuệ nhân tạo tổng hợp) một cách có trách nhiệm của công ty”.
Nhóm Superalignment do Leike và Sutskever đứng đầu với khoảng 20 thành viên vào năm ngoái, hiện đã giải thể. Đại diện OpenAI nói với The Information rằng công ty đã phân công số nhân viên còn lại vào nhóm nghiên cứu rộng hơn nhằm đáp ứng mục tiêu siêu liên kết.
Tất nhiên, OpenAI còn sở hữu một nhóm nghiên cứu khác tập trung vào vấn đề an toàn có tên “Preparedness”, nhưng việc nhiều nhân vật cấp cao từ chức không phải là dấu hiệu tốt đối với công ty hàng đầu trong lĩnh vực phát triển AI tiên tiến.
NHÂN VIÊN CŨ KHÔNG CÓ QUYỀN LÊN TIẾNG
Sự sụp đổ của đội an toàn AI là đòn giáng mạnh tới Sam Altman, người luôn cố gắng thể hiện ý thức về an toàn khi phát triển AI siêu thông minh. Một số chuyên gia cho rằng tuyên bố từ Leike đã làm giảm uy tín của Altman về chủ đề này.
Cuối tuần trước, Vox phản ánh các thỏa thuận không tiết lộ nghiêm ngặt khiến nhiều nhân viên cũ của OpenAI buộc phải im lặng trước nhiều thông tin.
Theo ghi nhận, thỏa thuận bao gồm điều khoản không được tiết lộ, công ty có thể lấy đi cổ phần của nhân viên nếu họ chỉ trích chủ cũ hoặc thậm chí thừa nhận rằng NDA tồn tại.
Sam Altman thừa nhận trong bài đăng X: "Đây là lỗi của tôi, là một trong số ít lần tôi thực sự cảm thấy xấu hổ khi điều hành OpenAI. Tôi không hề hay biết về vấn đề này và lẽ ra tôi phải ngăn chặn triệt để".
TẠM NGỪNG GIỌNG NÓI AI

Bất chấp nỗ lực của OpenAI nhằm ngăn chặn hỗn loạn, mọi chuyện dường như vẫn chưa kết thúc.
Đầu tuần này, công ty tuyên bố sẽ tạm dừng giọng nói "Sky" trong ChatGPT, gần đây được ví như giọng nói của nữ diễn viên nổi tiếng Scarlett Johansson.
Công ty khẳng định trong thông báo: “Chúng tôi tin rằng giọng nói AI không nên cố tình bắt chước giọng nói đặc biệt của người nổi tiếng. Giọng nói Sky không bắt chước Scarlett Johansson mà thuộc về một nữ diễn viên lồng tiếng chuyên nghiệp khác sử dụng giọng nói tự nhiên của chính cô ấy”.
Giọng nói, một phần quan trọng trong bản demo GPT-4o, được nhiều người so sánh với nhân vật trợ lý ảo do Scarlett Johansson đảm nhiệm trong bộ phim "Her". CEO Altman thậm chí cũng thừa nhận nhiều điểm tương đồng.
Ngoài ra, một số người dùng phàn nàn về giọng nói mới của chatbot, cho rằng nó quá gợi dục và mang dáng vẻ tán tỉnh trong các video demo lan truyền trên mạng.
Bỏ ngoài tai lời chỉ trích, OpenAI tỏ ra “đắc thắng” khi ra mắt phiên bản mới. Sam Altman còn không ngần ngại đề cập tới Google, công ty vừa giới thiệu bộ sản phẩm AI mạnh mẽ nhất tại Hội nghị Nhà phát triển thường niên.
“Tôi cố gắng không nghĩ về các đối thủ cạnh tranh quá nhiều, nhưng tôi không thể ngừng so sánh sự khác biệt về mặt thẩm mỹ giữa OpenAI và Google”, CEO Altman viết trên X, kèm theo hình ảnh bản demo của đối thủ.
OpenAI không trả lời ngay lập tức yêu cầu bình luận từ Business Insider về tình trạng hiện tại của công ty.
Khám phá cách AI thúc đẩy ngành công nghiệp chip đạt giá trị 1 nghìn tỷ USD vào năm 2030. Đọc ngay để hiểu rõ hơn!
Khám phá cách DeepSeek và mô hình mã nguồn mở đang thay đổi cuộc chơi AI với chi phí thấp hơn và hiệu suất vượt trội.
Khám phá cách thương chiến Mỹ - Trung thúc đẩy doanh nghiệp Trung Quốc mở rộng ra châu Âu và cơ hội mới cho ngành điện tử.
Khám phá cách thuế nhập khẩu mới của Trung Quốc ảnh hưởng đến giá hàng hóa và mô hình kinh doanh thương mại điện tử tại Mỹ.
Mỹ đề xuất quy định mới về xuất khẩu chip cho Samsung và SK Hynix tại Trung Quốc. Tìm hiểu chi tiết ngay!
Khám phá cơ hội Nhật Bản thu hút nhân tài công nghệ Ấn Độ giữa bối cảnh thiếu hụt kỹ sư. Đừng bỏ lỡ thông tin hấp dẫn này!
Khám phá động thái quan trọng của Trung Quốc trong nghiên cứu stablecoin và ảnh hưởng đến tài chính toàn cầu.
Khám phá 6 rào cản chính khiến ngành y tế APAC khó áp dụng AI. Tìm hiểu giải pháp để vượt qua thách thức này.
Khám phá nỗi lo về bong bóng AI từ các chuyên gia và dữ liệu mới nhất. Đọc ngay để hiểu rõ hơn về tình hình thị trường.
Khám phá cách các thành phố Trung Quốc, như Ôn Châu, đang đầu tư vào AI để phát triển kinh tế và công nghệ. Đọc ngay!