Diễn biến đáng lo ngại ở OpenAI

Chỉ sau chưa đầy một năm thành lập, nhóm nghiên cứu về kiểm soát trí tuệ nhân tạo của OpenAI đã phải tan rã.

 Superalignment Team tan rã do sự ra đi của các thành viên chủ chốt. Ảnh: Jim Wilson/The New York Times.

Superalignment Team tan rã do sự ra đi của các thành viên chủ chốt. Ảnh: Jim Wilson/The New York Times.

Tháng 7/2023, OpenAI tuyên bố thành lập Superalignment Team - nhóm có vai trò ngăn ngừa những rủi ro dài hạn liên quan đến trí tuệ nhân tạo, đồng thời nghiên cứu về các AI siêu thông minh, có khả năng đánh lừa và chế ngự con người. Ilya Sutskever, một trong những nhà sáng lập OpenAI là người đồng lãnh đạo của nhóm.

Tuy nhiên, cách đây vài ngày, công ty xác nhận nhóm đã tan rã do sự ra đi của một số thành viên chủ chốt.

Truyền thông đưa tin hôm 14/5, Sutskever sẽ rời công ty và một vị lãnh đạo khác của Superalignment Team cũng đã từ chức. Những thành tựu của nhóm sẽ được áp dụng vào các công trình nghiên cứu khác của OpenAI.

 Ilya Sutskever - người lãnh đạo Superalignment Team đã thôi việc tại OpenAI. Ảnh: Jim Wilson/The New York Times.

Ilya Sutskever - người lãnh đạo Superalignment Team đã thôi việc tại OpenAI. Ảnh: Jim Wilson/The New York Times.

Ông Sutskever là một trong những cộng sự đắc lực của CEO Sam Altman trong việc thành lập OpenAI vào năm 2015 và tạo ra chatbot ChatGPT nổi tiếng. Tuy nhiên, ông cũng là một trong 4 thành viên hội đồng quản trị đồng ý sa thải Altman vào tháng 11/2023.

Altman được phục chức Giám đốc điều hành sau 5 ngày hỗn loạn. Điều này đã khiến Sutskever và 2 giám đốc khác quyết định rời khỏi hội đồng quản trị.

Thông tin Sutskever từ chức được nhà nghiên cứu Jan Leike – thành viên của Superalignment Team, đăng tải trên X.

Trong một bài đăng trên X, Sutskever không giải thích cho quyết định rời đi của mình nhưng đề nghị được hỗ trợ sự cho phát triển của OpenAI.

“Quỹ đạo của công ty không có gì thay đổi và tôi tin rằng ban lãnh đạo hiện tại của OpenAI sẽ tạo ra những AGI vừa an toàn vừa hữu ích”, ông viết.

Trí tuệ nhân tạo tổng hợp (AGI) là một loại trí tuệ nhân tạo (AI) có thể hoạt động bằng hoặc tốt hơn con người trên nhiều lĩnh vực nhận thức ...

Trong khi đó, Leike cho biết quyết định của Sutskever xuất phát từ việc công ty chưa thực sự ưu tiên đầu tư nguồn lực cho nhóm của ông.

“Từ lâu tôi đã không đồng ý với ban lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty, cho đến khi mâu thuẫn lên đến đỉnh điểm. Trong vài tháng qua, chúng tôi gặp nhiều khó khăn trong việc tính toán và việc thực hiện nghiên cứu quan trọng này”, Leike chia sẻ trong một bài đăng trên X hôm 17/5.

Việc giải thể Superalignment Team cho thấy sự lục đục trong nội bộ OpenAI sau cuộc khủng hoảng về quản trị hồi tháng 11/2023.

 Sam Altman cùng OpenAI đang đối mặt với khủng hoảng về quản trị. Ảnh: The Verge.

Sam Altman cùng OpenAI đang đối mặt với khủng hoảng về quản trị. Ảnh: The Verge.

Theo The Information, 2 nhà nghiên cứu trong nhóm, Leopold Aschenbrenner và Pavel Izmailov, đã bị sa thải vì làm rò rỉ bí mật của công ty. Một thành viên khác là William Saunders đã rời OpenAI vào tháng 2 vừa qua.

Hai nhà nghiên cứu chuyên về chính sách và quản trị AI cũng được cho là đã rời công ty gần đây. Theo thông tin đăng tải trên LinkedIn, Cullen O'Keefe đã từ chức trưởng nhóm nghiên cứu về các lĩnh vực chính sách tại OpenAI hồi tháng 4.

Daniel Kokotajlo, một nhân viên khác của OpenAI cũng ẩn ý trên trang cá nhân về chuyện thôi việc “do mất niềm tin rằng công ty sẽ hành xử có trách nhiệm khi nghiên cứu về AGI”.

OpenAI từ chối bình luận về sự ra đi của Sutskever và các thành viên khác của Superalignment Team.

Việc nghiên cứu về những rủi ro liên quan đến AI hiện do John Schulman tiếp quản. Anh là người đứng đầu nhóm chịu trách nhiệm tinh chỉnh các mô hình AI sau đào tạo tại công ty của Sam Altman.

 GPT-4o ra đời cho thấy tham vọng của OpenAI trong việc sản xuất các AI ngày càng giống người hơn. Ảnh: The Verge.

GPT-4o ra đời cho thấy tham vọng của OpenAI trong việc sản xuất các AI ngày càng giống người hơn. Ảnh: The Verge.

Sự ra đi của Sutskever và Leike diễn ra ngay sau khi OpenAI cho ra mắt GPT-4o - một mô hình AI “đa phương thức” cho phép ChatGPT quan sát thế giới và trò chuyện theo cách tự nhiên và giống con người hơn.

Phiên bản mới của ChatGPT được cho là có khả năng bắt chước cảm xúc của con người và thậm chí còn có thể “tán tỉnh” người dùng. OpenAI cho biết họ sẽ cung cấp giao diện mới cho người dùng trả phí trong vòng vài tuần.

Không có dấu hiệu nào cho thấy làn sóng thôi việc tại OpenAI có liên quan việc tạo ra các AI siêu thông minh của công ty. Nhưng những tiến bộ mới nhất đã làm dấy lên lo ngại về quyền riêng tư, rủi ro an ninh mạng và việc con người bị AI thao túng.

OpenAI đang duy trì một nhóm khác là Preparedness team để nghiên cứu về những vấn đề này.

Kim Yên

Nguồn Znews: https://znews.vn/dien-bien-dang-lo-ngai-o-openai-post1476118.html