Співзасновник Ethereum Віталік Бутерін поділився в Твіттері своїми унікальними поглядами на AGI (загальний штучний інтелект) та ASI (штучний суперінтелект), підкреслюючи, що слід зосередитися на інструментах штучного інтелекту, а не прагнути до розвитку суперінтелектуальних істот, які могли б замінити людину; він досить боїться надмірного розвитку AGI та ASI.

AGI – це штучний інтелект, здатний самостійно підтримувати цивілізацію.

Віталік визначає AGI як досить потужний ШІ. Він зазначає, що якби всі люди раптом зникли, а цей ШІ був би встановлений у роботі, здатному самостійно працювати і підтримувати розвиток цілого цивілізаційного процесу. Він додає, що ця концепція буде вдосконалена з 'інструментальної' природи традиційного ШІ до 'самовідтворювальної форми життя'.

Віталік зазначає, що сучасні технології не можуть змоделювати таку ситуацію, ми не можемо справді перевірити, чи здатен ШІ підтримувати цивілізацію без людей, і ще важче визначити стандарти 'цивілізаційного розвитку', які умови свідчать про те, що цивілізація продовжує функціонувати, і ці питання самі по собі є дуже складними, але це, можливо, є основним джерелом розрізнення AGI і звичайного ШІ.

(Примітка: самовідтворювальні форми життя, що означає здатність самостійно отримувати та використовувати ресурси для підтримки життєвої діяльності, пристосовуватися до змін навколишнього середовища і продовжувати існування за певних умов.)

Підкреслюючи важливість розумних допоміжних інструментів, а не заміни людини штучним інтелектом.

Віталік визначає штучний суперінтелект (ASI) як стадію, коли прогрес ШІ перевищує цінність, яку може надати участь людини, і досягає повної автономії та більшої ефективності. Він наводить приклад шахів, які справді досягли цієї стадії лише за останнє десятиліття, рівень ШІ вже перевищив найкращі результати, досягнуті у співпраці людини та ШІ, і зізнається, що ASI його лякає, оскільки це означає, що людство може втратити контроль над ШІ.

Віталік зазначає, що замість розробки суперінтелектуальних істот слід зосередитися на розробці інструментів, які можуть підсилити людський розум і можливості. Він вважає, що ШІ повинен допомагати людині, а не замінювати її. Він вважає, що такий напрямок розвитку може знизити ризик неконтрольованості ШІ, одночасно підвищуючи загальну ефективність і стабільність суспільства.

(Загроза безробіття, викликана генеративним ШІ: чи будуть працівники Amazon повністю замінені машинним флотом?)

Ця стаття Віталіка про AGI та ASI лякає: людство має пріоритетно зосередитися на інструментах підсилення розуму, а не на заміні людини ШІ, вперше з'явилася на Chain News ABMedia.