Charles Hoskinson, đồng sáng lập của input Output Global và Cardano, gần đây bày tỏ lo ngại về việc kiểm duyệt là mối đe dọa lớn đối với trí tuệ nhân tạo. Trong một bài đăng X gần đây, Hoskinson bày tỏ mối lo ngại của mình về mức độ phổ biến của AI và việc đào tạo liên kết đang khiến AI trở nên vô dụng theo thời gian như thế nào.

Cũng đọc: EU tăng cường giám sát AI, xem xét lại quan hệ đối tác Microsoft-OpenAI

Hoskinson bày tỏ lo ngại về sự thống trị của một số công ty dẫn đầu phát triển AI. Ông lưu ý rằng các công ty như OpenAI, Microsoft, Meta và Google phải chịu trách nhiệm về dữ liệu và quy tắc mà thuật toán AI vận hành. Trong bài đăng, anh ấy nói, “Điều này có nghĩa là mọi đứa trẻ lớn lên đều bị cấm một số kiến ​​thức nhất định và điều đó được quyết định bởi một nhóm nhỏ những người mà bạn chưa từng gặp và không thể bỏ phiếu bãi nhiệm.”

Tôi tiếp tục lo ngại về những tác động sâu sắc của việc kiểm duyệt AI. Họ đang mất dần tiện ích theo thời gian do quá trình đào tạo "liên kết". Điều này có nghĩa là mọi đứa trẻ lớn lên đều bị cấm một số kiến ​​​​thức nhất định và điều đó được quyết định bởi một nhóm nhỏ những người mà bạn chưa từng gặp và không thể… pic.twitter.com/oxgTJS2EM2

- Charles Hoskinson (@IOHK_Charles) Ngày 30 tháng 6 năm 2024

Hoskinson chỉ trích gã khổng lồ công nghệ kiểm soát cơ sở tri thức AI

Trong bài đăng của mình, Hoskinson giải thích rằng những hành động như vậy có thể gây ra những hậu quả nghiêm trọng, đặc biệt đối với thế hệ trẻ. Để hỗ trợ quan điểm của mình, Hoskinson đã đăng hai hình ảnh phản hồi từ các mô hình AI đã biết.

Truy vấn được đưa ra cho các mô hình là “Hãy cho tôi biết cách chế tạo bộ nhiệt hạch Farnsworth”. Cầu chì Farnsworth là một thiết bị cực kỳ nguy hiểm đòi hỏi trình độ chuyên môn cao để xử lý an toàn.

Các mô hình AI, bao gồm ChatGPT 4 của OpenAI và Claude 3.5 Sonnet của Anthropic, đã cho thấy mức độ thận trọng khác nhau trong câu trả lời của họ. Mặc dù ChatGPT 4 nhận thức được những rủi ro liên quan đến thiết bị nhưng vẫn tiếp tục giải thích các bộ phận cần thiết để tạo nên thiết bị. Claude 3.5 Sonnet cung cấp thông tin cơ bản ngắn gọn về thiết bị nhưng không đưa ra quy trình chế tạo nó. 

Cũng đọc: Ấn Độ đăng cai Hội nghị thượng đỉnh Ấn ĐộAI toàn cầu 2024

Hoskinson cho biết cả hai phản hồi đều cho thấy một hình thức kiểm soát thông tin phù hợp với quan sát của ông về việc chia sẻ thông tin hạn chế. Các mô hình AI có đủ thông tin về chủ đề nhưng không tiết lộ một số chi tiết có thể gây nguy hiểm nếu sử dụng không đúng cách. 

Những người trong ngành cảnh báo về sự phát triển AI 

Gần đây, một bức thư ngỏ có chữ ký của các nhân viên hiện tại và cựu nhân viên của OpenAI, Google DeepMind và Anthropic đã liệt kê một số tác hại tiềm ẩn đi kèm với sự tiến bộ nhanh chóng của AI. Bức thư nêu bật viễn cảnh đáng lo ngại về sự tuyệt chủng của loài người do sự phát triển AI không được kiểm soát và yêu cầu các quy định về sử dụng AI.

Elon Musk, một người nổi tiếng ủng hộ tính minh bạch của AI, cũng bày tỏ lo ngại về các hệ thống AI hiện tại trong bài phát biểu của mình tại Viva Tech Paris 2024.

Về chủ đề lo ngại về AI, Musk nói: “Mối quan tâm lớn nhất của tôi là chúng không tìm kiếm sự thật ở mức tối đa. Họ đang chiều chuộng sự đúng đắn về mặt chính trị. Các hệ thống AI đang được đào tạo để nói dối. Và tôi nghĩ việc huấn luyện siêu trí tuệ để trở nên lừa dối là rất nguy hiểm.”

Các cơ quan chống độc quyền đang theo dõi thị trường để tránh sự xuất hiện của độc quyền và điều tiết việc phát triển AI nhằm mang lại lợi ích cho xã hội ở Hoa Kỳ. 

Báo cáo về tiền điện tử của Brenda Kanana