Người đồng sáng lập Ethereum Vitalik Butertin đã chia sẻ quan điểm của mình về trí tuệ nhân tạo (AI) “siêu thông minh”, gọi nó là “rủi ro” trước những thay đổi lãnh đạo đang diễn ra tại OpenAI.

Vào ngày 19 tháng 5, Cointelegraph đưa tin rằng cựu giám đốc liên kết của OpenAI, Jan Leike, đã từ chức sau khi nói rằng ông đã đạt đến “điểm đột phá” với ban quản lý về các ưu tiên cốt lõi của công ty.

Leike cáo buộc rằng “văn hóa và quy trình an toàn đã lùi bước so với các sản phẩm sáng bóng” tại OpenAI, trong đó nhiều người hướng tới sự phát triển xung quanh trí tuệ nhân tạo chung (AGI).

AGI được dự đoán là một loại AI ngang bằng hoặc vượt qua khả năng nhận thức của con người. Ý nghĩ này đã bắt đầu khiến các chuyên gia trong ngành lo lắng. Họ cho rằng thế giới không được trang bị phù hợp để quản lý các hệ thống AI siêu thông minh như vậy.

Tình cảm này dường như phù hợp với quan điểm của Buterin. Trong một bài đăng trên X, anh ấy đã chia sẻ suy nghĩ hiện tại của mình về chủ đề này, nhấn mạnh rằng chúng ta không nên vội vàng hành động hoặc đẩy lùi những người cố gắng.

Nguồn: Vitalik Buterin

Buterin nhấn mạnh các mô hình mở chạy trên phần cứng của người tiêu dùng như một “hàng rào” chống lại một tương lai nơi một tập đoàn nhỏ gồm các công ty có thể đọc và điều phối hầu hết suy nghĩ của con người.

“Những mô hình như vậy cũng có rủi ro diệt vong thấp hơn nhiều so với cả các công ty và quân đội.”

Đây là nhận xét thứ hai của ông trong tuần trước về AI và khả năng ngày càng tăng của nó.

Vào ngày 16 tháng 5, ông lập luận rằng mô hình GPT-4 của OpenAI đã vượt qua bài kiểm tra Turing, bài kiểm tra xác định “tính nhân văn” của mô hình AI. Ông trích dẫn nghiên cứu mới khẳng định hầu hết con người không thể giải mã khi nói chuyện với máy.

Liên quan: Tính năng thu hồi 'Black Mirror' mới của Microsoft ghi lại mọi việc bạn làm

Tuy nhiên, Buterin không phải là người đầu tiên bày tỏ mối quan ngại này. Chính phủ Vương quốc Anh gần đây cũng đã xem xét kỹ lưỡng sự tham gia ngày càng tăng của Big Tech vào lĩnh vực AI, đặt ra các vấn đề liên quan đến cạnh tranh và thống trị thị trường.

Các nhóm như 6079 AI đã nổi lên trên internet, ủng hộ AI phi tập trung để đảm bảo nó vẫn dân chủ hơn và không bị Big Tech thống trị.

Nguồn: 6079.ai

Điều này diễn ra sau sự ra đi của một thành viên cấp cao khác trong ban lãnh đạo OpenAI vào ngày 14 tháng 5, khi Ilya Sutskever, đồng sáng lập và nhà khoa học trưởng, tuyên bố từ chức.

Sutskever không đề cập đến bất kỳ mối lo ngại nào về AGI. Tuy nhiên, trong bài đăng của mình trên X, anh bày tỏ sự tin tưởng rằng OpenAI sẽ phát triển AGI “an toàn và có lợi”.

Tạp chí: ‘Sic AI chồng chéo lên nhau’ để ngăn chặn ngày tận thế AI: David Brin, tác giả khoa học viễn tưởng