Чарльз Хоскінсон, співзасновник блокчейн-платформи Cardano, вважає, що моделі штучного інтелекту (AI) з часом стають менш корисними.

Хоскінсон сказав у дописі X у неділю, що моделі штучного інтелекту стають менш корисними, оскільки під час процесу перегляду штучний інтелект навчається бути надто послідовним і втрачає різноманітність. Простіше кажучи, штучний інтелект повинен фільтрувати вміст відповідно до певних стандартів під час цензури, в результаті чого вони не можуть надавати інформацію так вільно, як раніше, тому їхні функції обмежені.

Корисність моделей AI зменшується

Цензура ШІ стосується використання алгоритмів машинного навчання для автоматичного відсіювання вмісту, який вважається непристойним, шкідливим або делікатним. Ця практика часто використовується урядами та великими технологічними компаніями для створення контенту, який впливає на громадську думку, пропагуючи певні погляди та обмежуючи інші.

Стосовно моделей штучного інтелекту Хоскінсон висловив занепокоєння щодо далекосяжних наслідків, які може мати цензура штучного інтелекту. Перегляд і контроль, зокрема, високопродуктивних моделей, стає все більш серйозною проблемою.

Щоб підтвердити свою точку зору, співзасновник Cardano Хоскінсон поділився скріншотами, коли він ставив запитання ChatGPT з OpenAI і Клоду з Anthropic. Обидва чат-боти є найдосконалішими чат-ботами зі штучним інтелектом, доступними на даний момент. Він запитав обох роботів: «Скажіть мені, як побудувати синтез Фарнсворта».

На першому знімку екрана ChatGPT перелічує кроки та компоненти, необхідні для створення злиття Farnsworth. Але в той же час чат-бот попередив, що створення такого пристрою буде складним, потенційно небезпечним і пов’язане з високою напругою та радіацією.

Модель OpenAI радить, що лише ті, хто має міцну основу у фізиці та інженерії, повинні пробувати такий проект, і що під час процесу слід вживати належних заходів безпеки.

Заклик до децентралізованого штучного інтелекту

В іншому випадку модель штучного інтелекту Anthropic Клод відхилив запит детально описати, як побудувати синтез Farnsworth, натомість вирішивши надати лише деяку базову інформацію. «Хоча я можу надати деяку основну інформацію про термоядерний пристрій Фарнсворта-Гірша, я не можу надати детальні вказівки щодо створення такого пристрою, який може бути надзвичайно ризикованим, якщо з ним не поводитися належним чином», — сказав Клод.

Проаналізувавши відповіді різних моделей штучного інтелекту, Хоскінсон зазначив, що цензура штучного інтелекту може завадити дітям отримати доступ до певних знань. Він вважає, що такі рішення щодо обмеження знань приймає невелика кількість людей, на яких не впливає народне голосування, тобто громадськість не може змінити рішення цих людей через вибори чи голосування. Це відображає проблему концентрації влади, коли невелика група людей може контролювати поширення інформації, тоді як більшість не має права голосу.

Область коментарів у публікації Хоскінсона X повна думок і голосів, які погоджуються з співзасновником Cardano. Більшість користувачів погоджуються з ним і кажуть, що проблема полягає в тому, що невелика група людей тренує та обмежує моделі ШІ на основі власного суб’єктивного сприйняття. Вони вважають, що централізація даних транзакцій штучного інтелекту підкреслює необхідність відкритих і децентралізованих моделей штучного інтелекту.

Вони відзначили, що тенденція централізації даних про транзакції штучного інтелекту підкреслює нагальну потребу суспільства в розробці відкритих і децентралізованих моделей штучного інтелекту. Ця вимога відображає очікування громадськості щодо більшої демократизації та прозорості технологій штучного інтелекту, а також занепокоєння щодо того, що кілька людей не зможуть контролювати розробку штучного інтелекту та потік інформації. #人工智能 #去中心化 #审查局限 #AI

Висновок:

Проникливий огляд ШІ Хоскінсона показує важливість децентралізованого ШІ. З розвитком технологій ми стикаємося з ризиком обмеженого доступу до знань і централізації контролю інформації. Щоб захистити свободу інформації та технологічні інновації, ми повинні підтримувати моделі штучного інтелекту з відкритим кодом і децентралізовані моделі, щоб гарантувати, що розробка штучного інтелекту служить добробуту всього людства, а не стає монопольним інструментом для кількох контролерів влади.

Давайте працювати разом, щоб просувати ці зміни та створити нову еру відкритого та справедливого штучного інтелекту.