Một số nhân viên hiện tại và trước đây của OpenAI và Google DeepMind đã cáo buộc công ty của họ che giấu những rủi ro về AI có khả năng gây ra sự tuyệt chủng của loài người. Trong một bức thư ngỏ, các công nhân cáo buộc rằng các công ty AI đang đặt lợi nhuận lên hàng đầu trong khi tránh “sự giám sát hiệu quả của [chính phủ]”.

Cũng đọc: OpenAI sắp xếp người kế nhiệm GPT-4 trong bối cảnh lo ngại về an toàn

Bức thư ngỏ được ký bởi 11 cựu nhân viên của OpenAI, hai người từ Google DeepMind và được xác nhận bởi ‘cha đỡ đầu của AI’ Geoffrey Hinton, trước đây của Google. Nó cho biết động cơ lợi nhuận và các lỗ hổng pháp lý cho phép các công ty che đậy các mối đe dọa do trí tuệ nhân tạo tiên tiến gây ra.

AI có thể dẫn đến 'sự tuyệt chủng của loài người'

Theo bức thư, các công ty AI như OpenAI và Google DeepMind, người tạo ra Gemini, đã không chia sẻ công khai thông tin về các biện pháp bảo vệ không đầy đủ và mức độ rủi ro trong hệ thống của họ vì họ không bắt buộc phải làm như vậy.

Nếu không có sự giám sát theo quy định, các chương trình AI có thể gây ra tác hại lớn cho con người. Các nhân viên cảnh báo:

“Những rủi ro này bao gồm từ việc gia tăng thêm sự bất bình đẳng hiện có… cho đến việc mất quyền kiểm soát các hệ thống AI tự trị có khả năng dẫn đến sự tuyệt chủng của loài người.”

Theo ghi nhận của những người ký tên trong bức thư, bản thân các công ty AI đã thừa nhận những rủi ro này. Vào tháng 5 năm 2023, các CEO của OpenAI, Anthropic và Google DeepMind đã đồng ký một bức thư ngỏ với Trung tâm An toàn AI. Bức thư chỉ có nội dung đơn giản là “Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác, chẳng hạn như đại dịch và chiến tranh hạt nhân”.

Các công ty AI ngày càng bị giám sát chặt chẽ vì đặt các sản phẩm mới và thu lợi nhuận hơn là an toàn và bảo mật. OpenAI, nhà sản xuất ChatGPT, lưu ý những lo ngại được nêu trong bức thư và cho biết họ đang nỗ lực phát triển trí tuệ nhân tạo an toàn.

“Chúng tôi tự hào về thành tích cung cấp A.I. hệ thống và tin tưởng vào cách tiếp cận khoa học của chúng tôi để giải quyết rủi ro”, phát ngôn viên của OpenAI Lindsey Held nói với New York Times.

“Chúng tôi đồng ý rằng cuộc tranh luận gay gắt là rất quan trọng vì tầm quan trọng của công nghệ này và chúng tôi sẽ tiếp tục hợp tác với các chính phủ, xã hội dân sự và các cộng đồng khác trên khắp thế giới.”

Người tố giác lo sợ bị trả thù

Các cựu nhân viên của OpenAI và Google cho biết họ muốn đảm nhận vai trò giám sát trong khi các cơ quan quản lý đưa ra luật buộc các nhà phát triển AI phải tiết lộ công khai thêm thông tin về các chương trình của họ.

Tuy nhiên, các thỏa thuận bảo mật và khả năng trả thù của người sử dụng lao động không khuyến khích người lao động bày tỏ mối quan ngại của mình một cách công khai. Theo bức thư:

“Một số người trong chúng tôi có lý do lo sợ về nhiều hình thức trả thù khác nhau, dựa trên lịch sử của những trường hợp như vậy trong toàn ngành. Chúng tôi không phải là người đầu tiên gặp phải hoặc nói về những vấn đề này.”

Người tố cáo được luật pháp Hoa Kỳ bảo vệ nhưng những người lên tiếng về sự nguy hiểm của trí tuệ nhân tạo không được bảo vệ vì công nghệ này chưa được quản lý.

Cũng đọc: ChatGPT vẫn lan truyền thông tin sai sự thật, Cơ quan giám sát dữ liệu của EU cho biết

Bức thư kêu gọi các công ty AI tạo điều kiện thuận lợi cho phản hồi ẩn danh có thể xác minh được, ủng hộ văn hóa phê bình cởi mở và không trả thù người tố giác.

Nhà nghiên cứu AI Lance B. Eliot cho biết các công ty áp dụng cách tiếp cận theo cây gậy và củ cà rốt đối với những lời chỉ trích. Những nhân viên không lên tiếng chống lại rủi ro sẽ được khen thưởng bằng việc thăng chức và tăng lương.

Mặt khác, những người tố cáo và chỉ trích sẽ mất quyền lựa chọn cổ phiếu và có thể bị buộc rời khỏi công ty và bị cộng đồng lãnh đạo AI âm thầm đưa vào danh sách đen.

Báo cáo về tiền điện tử của Jeffrey Gogo