Odaily Planet Daily News Các nhân viên của OpenAI và Google DeepMind cùng bày tỏ lo ngại rằng AI tiên tiến có những rủi ro rất lớn và cần được tăng cường khẩn cấp. Đáp lại, OpenAI hôm nay đã đưa ra một tuyên bố nhấn mạnh cam kết cung cấp các hệ thống trí tuệ nhân tạo mạnh mẽ và an toàn. OpenAI nêu rõ, xét về tầm quan trọng của công nghệ AI, chúng tôi đồng ý với nội dung thư ngỏ và cách thức tiến hành các cuộc thảo luận nghiêm túc là điều cốt yếu để thúc đẩy tốt hơn sự phát triển của công nghệ AI. Chúng tôi sẽ tiếp tục hợp tác với các chính phủ, xã hội dân sự và các cộng đồng khác trên khắp thế giới để cùng nhau hợp tác nhằm tạo ra một môi trường AI hài hòa. Bao gồm các đường dây nóng ẩn danh về liêm chính và các ủy ban an toàn và an ninh (Ủy ban An toàn và An ninh) có sự tham gia của các thành viên hội đồng quản trị và lãnh đạo an ninh công ty đều là những phương tiện hiệu quả để quản lý AI. OpenAI lưu ý rằng công ty sẽ không phát hành công nghệ AI mới cho đến khi có các biện pháp bảo vệ cần thiết. Công ty nhắc lại sự ủng hộ của mình đối với quy định của chính phủ và việc tham gia vào Cam kết tự nguyện về An toàn trí tuệ nhân tạo. Trả lời những lo ngại về việc bị trả thù, một phát ngôn viên xác nhận rằng công ty đã chấm dứt tất cả các thỏa thuận không chê bai nhân viên cũ và xóa các điều khoản đó khỏi các tài liệu ly thân tiêu chuẩn. (IT House) Đầu ngày hôm nay, 13 nhân viên cũ và hiện tại của OpenAI (ChatGPT), Anthropic (Claude), DeepMind (Google) và các chuyên gia trong lĩnh vực trí tuệ nhân tạo đã đưa ra kiến ​​nghị "Quyền cảnh báo trí tuệ nhân tạo". Bản kiến ​​nghị nhằm mục đích ủng hộ các biện pháp bảo vệ người tố cáo mạnh mẽ hơn nhằm nâng cao nhận thức của công chúng về những rủi ro của hệ thống trí tuệ nhân tạo tiên tiến. Cựu nhân viên OpenAI, William Saunders nhận xét rằng khi xử lý các công nghệ mới tiềm ẩn nguy hiểm, cần có cách chia sẻ thông tin về rủi ro với các chuyên gia độc lập, chính phủ và công chúng.