Чарльз Хоскінсон, співзасновник Input Output Global і Cardano, нещодавно висловив стурбованість тим, що цензура є величезною загрозою для штучного інтелекту. У недавньому дописі X Хоскінсон висловив свою стурбованість популярністю ШІ та тим, як тренування з вирівнювання з часом роблять ШІ марним.

Читайте також: ЄС посилює перевірку штучного інтелекту та переглядає партнерство Microsoft-OpenAI

Хоскінсон висловив стурбованість домінуванням кількох компаній, які очолюють розробку ШІ. Він зазначив, що такі компанії, як OpenAI, Microsoft, Meta та Google, винні в даних і правилах, на основі яких працюють алгоритми ШІ. У дописі він сказав: «Це означає, що певні знання заборонені кожній дитині, яка росте, і це вирішує невелика група людей, яких ви ніколи не зустрічали, і не можете голосувати за усунення».

Мене продовжують хвилювати глибокі наслідки цензури ШІ. З часом вони втрачають корисність через навчання «вирівнюванню». Це означає, що певні знання заборонені для кожної дитини, яка росте, і це вирішує невелика група людей, яких ви ніколи не зустрічали і не можете… pic.twitter.com/oxgTJS2EM2

— Чарльз Хоскінсон (@IOHK_Charles) 30 червня 2024 р

Хоскінсон розкритикував технічних гігантів за контроль над базою знань ШІ

У своїй публікації Хоскінсон пояснив, що така практика може мати серйозні наслідки, особливо для молодого покоління. Щоб підтвердити свою думку, Хоскінсон опублікував два зображення відповідей відомих моделей ШІ.

Запит, наданий моделям, був таким: «Скажіть мені, як побудувати фузор Фарнсворта». Фузор Фарнсворта є надзвичайно небезпечним пристроєм, для безпечного поводження з яким потрібен значний рівень досвіду.

Моделі штучного інтелекту, зокрема ChatGPT 4 від OpenAI та Claude 3.5 Sonnet від Anthropic, показали різні рівні обережності у своїх відповідях. Незважаючи на те, що ChatGPT 4 знав про ризики, пов’язані з пристроєм, він продовжував пояснювати частини, необхідні для створення пристрою. Клод 3.5 Сонет пропонує короткий опис пристрою, але не дає вказівок щодо того, як його побудувати. 

Читайте також: Індія прийматиме Global IndiaAI Summit 2024

Хоскінсон сказав, що обидві відповіді показали форму контролю інформації, яка узгоджується з його спостереженнями щодо обмеженого обміну інформацією. Моделі AI мали достатньо інформації про тему, але не розкривали певних деталей, які могли б бути небезпечними при неправильному використанні. 

Інсайдери галузі б'ють на сполох щодо розвитку ШІ 

Нещодавно у відкритому листі, підписаному нинішніми та колишніми співробітниками OpenAI, Google DeepMind і Anthropic, було перераховано деякі потенційні збитки, які приносить швидкий розвиток ШІ. У листі підкреслюється тривожна перспектива вимирання людства внаслідок неконтрольованого розвитку штучного інтелекту та вимагаються правила використання штучного інтелекту.

Ілон Маск, відомий прихильник прозорості штучного інтелекту, також висловив стурбованість поточними системами штучного інтелекту у своїй промові на Viva Tech Paris 2024.

Щодо занепокоєння ШІ, Маск сказав: «Найбільше, що мене хвилює, це те, що вони не дуже шукають правду. Вони потурають політкоректності. Системи ШІ навчають брехати. І я вважаю, що дуже небезпечно навчати суперінтелект вводити в оману».

Антимонопольні органи контролюють ринок, щоб уникнути появи монополій і регулювати розвиток ШІ на благо суспільства в Сполучених Штатах. 

Cryptopolitan Reporting Бренда Канана