Сподіваюся, що ми зможемо спільно працювати, щоб запобігти цій майбутній кризі людської цивілізації.

Автор статті: Еко, MetaEra

Джерело: MetaEra

31 жовтня 2024 року засновник MetaEra Віто був запрошений до Стенфордського університету для проведення академічної лекції. На занятті Віто виступив з основною доповіддю на тему (Країна цивілізації: останній момент для побудови відповідального ШІ). Він підкреслив терміновість впровадження регулювання відповідального ШІ для боротьби з ризиками, які можуть виникнути через експоненціальне зростання ШІ, та закликав до дій, поки не стало занадто пізно, щоб забезпечити прозорість, справедливість і безпеку, викликавши широкий інтерес та глибокі роздуми серед учасників.

Нижче наведено повний текст виступу Віто в Стенфордському університеті.

Пані та панове, доброго ранку!

Чарльз Діккенс колись сказав: "Це найкращий час, це найгірший час."

Сьогодні ми стоїмо на ключовому етапі історії людської цивілізації, швидкий розвиток штучного інтелекту приносить глибокі виклики та багато невизначеностей.

Людство домінує завдяки видатній обчислювальній здатності мозку та алгоритмам. Однак ситуація кардинально змінюється.

Сьогодні штучний інтелект демонструє експоненціальне зростання в обчислювальній потужності та алгоритмах, швидко наближаючись до людського рівня. Ми консервативно оцінюємо, що протягом наступних двох років штучний інтелект, ймовірно, повністю перевершить людський мозок. Тоді, якщо ми не розробимо ефективні заходи, майбутнє людської цивілізації може опинитися в невизначеності, а можливо, вже на межі загибелі.

Вчора я спілкувався тут з багатьма людьми. Чесно кажучи, це зробило мене ще більш песимістичним, кожен вважає, що цей день не настане так скоро. Однак люди не можуть навести жодної переконливої причини, це чисто інтуїтивний сліпий оптимізм.

Сьогодні багато дальновидних людей усвідомлюють загрозу штучного інтелекту. Особливо вражає, що деякі з них самі отримують вигоду від індустрії штучного інтелекту.

Однак навіть серед цих дальновидних людей абсолютна більшість, здається, ігнорує один ключовий аспект. Неконтрольований штучний інтелект подібний до ракових клітин, які вже отримали імунітет до захисних механізмів людського тіла. Штучний інтелект є цивілізаційним продуктом людства, що виник в процесі прагнення до більшої ефективності; він відповідає нашим внутрішнім потребам підвищення продуктивності та задоволення матеріальних бажань. Він не є зовнішнім ударом, як вторгнення позаземної цивілізації. Тому людське суспільство не має природних антитіл для протистояння штучному інтелекту.

Дивлячись у майбутнє, можна передбачити, що в найближчому майбутньому значні ресурси людського суспільства будуть безпосередньо або опосередковано використані для підвищення рівня розуму штучного інтелекту. На початковому етапі конкуренції між людьми ті, хто має слабкіші здібності штучного інтелекту, поступово будуть витіснені з ринку, тоді як ті, хто має кращий штучний інтелект, стануть домінантами, отримуючи найбільшу вигоду. Але зрештою існує така небезпека: штучний інтелект може переважити решту людських переможців, а потім взяти під контроль цивілізацію.

Звісно, до того, як штучний інтелект візьме все під контроль, люди продовжать отримувати вигоду від підвищення інтелекту штучного інтелекту. Ось чому люди не можуть відмовитися від цього процесу. Я часто кажу друзям, що це трохи схоже на пірамідальну схему. Ти отримуєш прибуток щодня, це приваблює тебе вкладати більше, поки зрештою не відбудеться крах.

В минулому ми намагалися встановити багато принципів і бар'єрів для управління та регулювання штучного інтелекту. Наприклад, три закони робототехніки Азімава. Але перед величезним спокусою розвитку та гострим конкурентним тиском між людьми ці гарантії постійно порушуються. Ми знову і знову встановлюємо нові стандарти з добрими намірами, але потім заради різних інтересів йдемо на компроміс і руйнуємо їх, потрапляючи в стан самозаспокоєння.

У цьому сенсі не штучний інтелект не прокинувся, а людство не прокинулося. Можливо, деякі люди вважатимуть це трохи перебільшенням. Ні, це реальна загроза.

Ще однією страшною річчю є те, що, стикаючись з штучним інтелектом, люди досі регулюють його традиційними способами. Людство не усвідомлює, що межа здатності механізму прийняття рішень регулятора залежить від можливостей людського мозку. А коли штучний інтелект перевершить людський мозок, всі системи регулювання, побудовані на рівні сприйняття людського мозку, зазнають невдачі перед штучним інтелектом. Людство, ймовірно, самовпевнено зануриться в примітивні та неефективні методи регулювання, поступово втрачаючи останній шанс.

Тоді все буде вже занадто пізно.

Давайте зіштовхнемося з реальністю. Тенденція до того, що кремнієва обчислювальна потужність перевершить поточну обчислювальну потужність людського мозку, є непереборною. У зв'язку з цим, якщо ми хочемо досягти стійкого та ефективного регулювання штучного інтелекту в майбутньому, ми повинні шукати рішення в самому штучному інтелекті. Нам потрібно навчити загальну модель регулювання штучного інтелекту, яка здатна постійно еволюціонувати та адаптуватися. Ця модель повинна регулювати всі моделі штучного інтелекту та виконувати обов'язкову сертифікацію стандартів безпеки. Тоді будь-яка модель штучного інтелекту, яка не отримала таку сертифікацію безпеки, теоретично повинна бути відхилена від доступу до інфраструктури обчислювальної потужності, наприклад, до дата-центрів.

Однак залишаються деякі важливі питання, які потрібно вирішити.

Як така модель регулювання штучного інтелекту, що є остаточним арбітром, може забезпечити свою справедливість, безпеку та прозорість? Як ми можемо запобігти можливості її зловмисних дій? І хто нестиме відповідальність за регулювання цього регулятора? У традиційній централізованій моделі ці питання, здається, важко вирішити. Оскільки регуляторна модель має величезну владу та можливості, передача її будь-якому суб'єкту, групі чи навіть державі створить величезні етичні ризики. Це, ймовірно, призведе до розколу консенсусу через ланцюг підозр, викликавши конкурентне коло та подальший хаос.

Раніше я не міг знайти рішення. Поки не побачив успішну децентралізацію біткоїна, я не отримав нову ідею про те, як побудувати систему регулювання за допомогою децентралізованого підходу. Такі характеристики біткоїн-мережі, як механізм консенсусу, прозорість, механізм стимулювання, є дуже важливими для побудови децентралізованої моделі регулювання штучного інтелекту.

Вчора я вже мав досить глибоку дискусію з професором Лі та засновником AI2030 професором Сяо Ченем щодо цього плану. У цій прозорій та децентралізованій системі регулювання такі глобальні впливові особи, як Ілон Маск, а також найкращі у світі вчені та інженери штучного інтелекту і звичайні люди, які турбуються про долю людства, будуть органічно інтегровані. Всі ми разом виконаємо цю велику місію.

Раніше децентралізація, можливо, була лише вибором виробничих відносин. Але сьогодні, стикаючись з викликами штучного інтелекту, вона стала обов'язковим вибором. Я знаю, що деякі люди заперечують цю точку зору. Але, будь ласка, серйозно подумайте над цим, адже це єдине рішення, яке я наразі знайшов.

Коли людська цивілізація стикається з кризою, рішення, яке приніс біткоїн, перевищило мої, а можливо, й Сатоші Накамото, очікування. Це дійсно важко повірити.

Чому децентралізація може спрацювати? Я простежую її філософські корені, можливо, вже знайшов відповідь.

Штучний інтелект виникає з надмірної жадібності людства, відображаючи невичерпні потреби людей у духовному чи матеріальному, що є невід'ємною частиною людської природи. А децентралізація була створена для збалансування слабкостей людства.

Ось чому децентралізація може спрацювати.

Ілон Маск, одна з найактивніших людей у світі, вже продемонстрував свою амбіцію та почуття місії щодо розвитку людської цивілізації. Я знаю, що ти хочеш перенести людську цивілізацію на Марс і далі перетворити її на міжзоряну цивілізацію, і це дійсно вражаюче. Однак перед цим, можливо, нам потрібно спочатку разом забезпечити безпеку людської цивілізації на Землі.

Хоча вже є рамка та план дій, це не справа, яку можна просунути лише за рахунок ресурсів і сил окремої особи.

Стенфордський університет — один з найкращих університетів у світі, а ви всі є надзвичайно впливовими лідерами у сфері Web3 або штучного інтелекту. Сьогодні я тут, щоб висловити вам усім свої занепокоєння, а також щоб шукати співпрацю з вами та такими впливовими лідерами, як Ілон Маск.

Сподіваюся, що ми зможемо спільно працювати, щоб запобігти цій майбутній кризі людської цивілізації.

Ще раз підкреслюю, не прогавте наш останній шанс на дії.

Дякую всім!