На мить подумайте, скільки історичних фактів ми приймаємо за правду, не ставлячи під сумнів їх достовірність. Що, якби, наприклад, книга сьомого століття, яка описує важливу битву, насправді була переписана кимось із дев’ятого століття? Можливо, якийсь лідер 9-го століття попросив писаря переписати розповідь, щоб служити їхнім політичним чи особистим устремлінням, дозволяючи їм володіти більшою владою або створювати спадщину на основі хибного приводу. 

Звичайно, я не стверджую, що загальновизнані історичні факти є неправдивими або маніпульованими. Тим не менш, це підкреслює складність перевірки історичних даних, що передували сучасній епосі, символізуючи проблему, яку можуть повернути неконтрольовані майбутні розробки ШІ.

Нинішній стан штучного інтелекту відбувається в чорних ящиках, де домінують переважно могутні організації, які ставлять нас під загрозу антиутопічного майбутнього, де правду можна переписати. Перехід відкритого штучного інтелекту до більш закритої моделі після просування підходу до розробки штучного інтелекту з відкритим кодом викликав ці побоювання та викликав занепокоєння щодо прозорості та громадської довіри.

Якщо ця тенденція стане домінуючим напрямком штучного інтелекту, ті, хто накопичує обчислювальну потужність і розробляє передові технології та програми штучного інтелекту, зможуть створювати альтернативні реальності, зокрема створювати історичні наративи.

Настав час регулювання ШІ

Поки централізовані організації приховують свої алгоритми від громадськості, сукупна загроза маніпулювання даними та її здатність дестабілізувати політичний і соціально-економічний клімат може справді змінити хід історії людства.

Незважаючи на численні попередження, організації по всьому світу поспішають використовувати, розробляти та накопичувати потужні інструменти штучного інтелекту, які можуть перевищити масштаби людського інтелекту протягом наступного десятиліття. Хоча ця технологія може виявитися корисною, загроза, що насувається, полягає в тому, що цими розробками можна буде зловживати для придушення свобод, поширення надзвичайно небезпечних кампаній дезінформації або використання наших даних для маніпулювання собою. 

З’являється навіть все більше доказів того, що політичні діячі та уряди використовують звичайні генератори зображень штучного інтелекту, щоб маніпулювати виборцями та сіяти внутрішні розбіжності серед ворогів. 

Новина про те, що останній пакет AI iOS 18 може читати та підсумовувати повідомлення, включно з електронною поштою та сторонніми додатками, хвилює багатьох щодо доступу Big Tech до чатів і особистих даних. Отже, виникає питання: чи ми крокуємо в майбутнє, де погані актори зможуть легко маніпулювати нами через наші пристрої?

Не для того, щоб нагнітати страх, але припустімо, що розробка моделей ШІ залишена на милість потужних централізованих організацій. Більшості з нас легко уявити, що цей сценарій повністю зійде з колії, навіть якщо і уряди, і Big Tech вважають, що вони діють в інтересах загального блага.

У цьому випадку пересічні громадяни ніколи не отримають прозорий доступ до даних, які використовуються для навчання швидко прогресуючих моделей ШІ. І оскільки ми не можемо очікувати, що великі технології або елементи державного сектору будуть добровільно притягнуті до відповідальності, необхідно створити ефективну нормативну базу, щоб забезпечити етичне та безпечне майбутнє ШІ.

Щоб протистояти корпоративним лобі, які намагаються заблокувати будь-які регуляторні дії щодо штучного інтелекту, громадськість повинна вимагати від політиків запровадити необхідні правила для захисту даних користувачів і забезпечити відповідальний розвиток ШІ, одночасно сприяючи інноваціям.

Наразі в Каліфорнії працюють над прийняттям законопроекту про контроль над потенційними небезпеками ШІ. Запропонований закон обмежить використання алгоритмів для дітей, вимагатиме тестування моделей на їхню здатність атакувати фізичну інфраструктуру та обмежуватиме використання глибоких фейків — серед інших огорож. Хоча деякі прихильники технологій стурбовані тим, що цей законопроект перешкоджатиме інноваціям у провідному світовому технологічному центрі, є також занепокоєння, що він недостатньо робить для усунення дискримінації в моделях ШІ. 

Дебати навколо законодавчих спроб Каліфорнії показують, що одних лише правил недостатньо, щоб гарантувати, що майбутні розробки штучного інтелекту не можуть бути зіпсовані невеликою меншістю учасників або великим технологічним картелем. Ось чому децентралізований штучний інтелект разом із розумними регуляторними заходами забезпечує людству найкращий шлях до використання штучного інтелекту, не боячись, що він зосередиться в руках могутніх. 

Децентралізація = демократизація

Ніхто не може передбачити, куди саме ШІ приведе нас, якщо його не контролювати. Навіть якщо найгірші сценарії кінця світу не здійсняться, поточні розробки штучного інтелекту є недемократичними, не заслуговують довіри та порушують чинні закони про конфіденційність у таких країнах, як Європейський Союз.

Щоб запобігти дестабілізації суспільства розробками штучного інтелекту, найефективнішим способом виправити курс штучного інтелекту є забезпечення прозорості в децентралізованому середовищі за допомогою технології блокчейн.

Але децентралізований підхід не лише підвищує довіру через прозорість, він також може сприяти інноваціям завдяки тіснішій співпраці, забезпечувати перевірку від масового стеження та цензури, забезпечувати кращу стійкість мережі та ефективніше масштабувати, просто додаючи додаткові вузли до мережі.

Уявіть собі, якби незмінний запис блокчейну існував у біблійні часи, ми могли б мати трохи більше розуміння та контексту для аналізу та оцінки значущих історичних документів, таких як сувої Мертвого моря. Використання блокчейну для забезпечення широкого доступу до архівів, гарантуючи автентичність їхніх історичних даних, є темою, яка викликає широкі думки.  

Централізовані мережі виграють від низьких витрат на координацію між учасниками, оскільки більшість із них працюють під єдиним централізованим органом. Однак децентралізовані мережі виграють від компенсації вищих витрат на координацію. Це означає вищі винагороди за більш детальні ринкові стимули на обчисленнях, даних, висновках та інших рівнях стеку ШІ.

Ефективна децентралізація штучного інтелекту починається з переосмислення рівнів, які складають стек ШІ. Кожен компонент, починаючи з обчислювальної потужності, даних, навчання моделі, тонкої настройки та логічних висновків, має створюватися скоординовано з фінансовими стимулами для забезпечення якості та широкої участі. Саме тут вступає в дію блокчейн, який сприяє монетизації через децентралізоване володіння, одночасно забезпечуючи прозору та безпечну співпрацю з відкритим кодом для протидії закритим моделям Big Tech.

Будь-яка регуляторна дія має бути зосереджена на спрямуванні розробок штучного інтелекту, щоб допомогти людству досягти нових висот, уможливлюючи та заохочуючи конкуренцію ШІ. Створення та сприяння відповідальному та регульованому штучному інтелекту є найефективнішим у децентралізованому середовищі, оскільки його розподіл ресурсів і контроль різко знижує його підкупний потенціал — і це головна загроза ШІ, якої ми хочемо уникнути.

На даний момент суспільство визнає цінність ШІ, а також численні ризики, які він створює. У майбутньому розробка штучного інтелекту повинна знайти баланс між підвищенням ефективності та врахуванням етичних міркувань і міркувань безпеки.

Пітер Іонов — запрошений автор для Cointelegraph та український підприємець, інженер та винахідник, який очолює та керує кількома компаніями: Robosoft, GT protocol та Укр Реклама. Пітер прокладає шлях у Web4, робототехніку та штучний інтелект. Він відомий своїм амбітним баченням майбутнього людства, яке включає ідею «робота для роботів, відпочинок для людей» і розвиток технологій, які покращують життя людей і стабільність.

Ця стаття призначена для загальної інформації та не призначена і не повинна сприйматися як юридична чи інвестиційна порада. Погляди, думки та погляди, висловлені тут, є лише автором і не обов’язково відображають погляди та думки Cointelegraph.