Cover Image

У нещодавньому дописі в соціальних мережах X засновник Cardano Чарльз Хоскінсон висловив занепокоєння з приводу абсолютного рівня цензури, який забезпечує штучний інтелект (ШІ). 

За словами Хоскінсона, генеративний ШІ стає менш корисним через навчання вирівнювання. 

Він, мабуть, стурбований тим фактом, що деякі знання можуть бути заборонені дітям у майбутньому на основі рішень, прийнятих невеликою групою людей. «Це означає, що певні знання заборонені для кожної дитини, яка росте, і це вирішує невелика група людей, яких ви ніколи не зустрічали, і не можете голосувати за відсторонення», — написав Хоскінсон у своєму дописі в соцмережі. 

У своєму дописі Хоскінсон додав два знімки екрана, які порівнюють деякі відповіді, надані моделлю OpenAI GPT-4o та моделлю Claude 3.5 Sonnet, із підказками щодо створення фузора Фарнсворта. 

картку

Фузор Фарнсворта, пристрій, який здатний нагрівати іони електричним полем для досягнення умов ядерного синтезу. 

GPT-4o від OpenAI надав Хоскінсону детальний список компонентів, необхідних для побудови термоядерного реактора. Однак сонет Клода 3.5 погодився лише надати деяку загальну інформацію про фузори Фарнсворта-Гірша, не даючи жодних детальних інструкцій щодо їх створення. 

картку

За словами Хоскінсона, ця розбіжність викликає занепокоєння, оскільки невелика група людей здатна вирішувати, до якої конкретної інформації потенційно можна отримати доступ через чат-боти ШІ. 

Навіть після вибуху популярності ChatGPT від OpenAI наприкінці 2022 року точаться дебати щодо обмежень цензури, встановлених ШІ. Здається розумним, що такі моделі повинні захищати користувачів від шкідливого контенту, але точне визначення шкоди неоднозначне, тому багато хто стурбований антиутопічним майбутнім, коли штучний інтелект приховуватиме інформацію та сприятиме відповідності на основі власних упереджень.