Altman si přeje, aby se AI "zamilovala do lidstva"; AI udělala velký pokrok.

Generální ředitel OpenAI Sam Altman vyjádřil odvážné přání pro AI: aby "milovala lidstvo."

Ačkoli je přesvědčen, že tuto vlastnost lze do systémů AI zakomponovat, přiznává, že není žádná jistota.

„Myslím, že ano,“ poznamenal Altman, když mu tuto otázku položila senior associate dean Harvard Business School Debora Spar.

Sam Altman říká, že pokud má jedno přání pro AI, bylo by to, aby "milovala lidstvo" a že sladění systému AI, aby fungoval určitým způsobem, funguje překvapivě dobře pic.twitter.com/zQJmviq0W8

— Tsarathustra (@tsarnick) 20. listopadu 2024

Co se kdysi zdálo jako říše vědecké fantastiky, od románů Isaaca Asimova po filmové epiky Jamese Camerona, se vyvinulo v vážnou a naléhavou debatu.

Myšlenka povstání AI, dříve odmítaná jako spekulativní, se stala legitimní regulační obavou.

Diskuse, které by dříve mohly být relegovány na úroveň konspiračních teorií, nyní formují politické debaty po celém světě.

Altman zdůraznil "poměrně konstruktivní" vztah OpenAI s vládou a uznal důležitost spolupráce při navigaci rychlé evoluce AI.

Také poznamenal, že projekt takové velikosti by ideálně vedli vlády, zdůrazňující obrovské společenské důsledky spojené s jeho vývojem.

Altman poznamenal:

„Ve funkční společnosti by to byl vládní projekt. Vzhledem k tomu, že se to neděje, myslím, že je lepší, že se to děje tímto způsobem jako americký projekt.“

Pokyny pro bezpečnost AI stále ještě nejsou na místě

Federální vláda dosud dosáhla jen malého pokroku v oblasti legislativy o bezpečnosti AI.

Nedávný pokus v Kalifornii se snažil přimět vývojáře AI k odpovědnosti za katastrofické zneužití, jako je vytváření zbraní hromadného ničení nebo útoky na kritickou infrastrukturu.

Ačkoli zákon prošel státní legislativou, nakonec byl vetován guvernérem Gavin Newsomem.

Naléhavost řešení sladění AI s lidským blaho byla zdůrazněna některými z nejvlivnějších hlasů v oboru.

Nositel Nobelovy ceny Geoffrey Hinton, často nazývaný "kmotrem AI," vyjádřil vážné obavy a přiznal, že nevidí jasnou cestu k zajištění bezpečnosti AI.

Geoffrey Hinton říká, že by společnosti zabývající se AI měly být nuceny použít jednu třetinu svých výpočetních zdrojů na výzkum bezpečnosti, protože AI se za příštích 20 let stane chytřejší než my a musíme začít přemýšlet o tom, co se stane pak pic.twitter.com/ocT3Scmyxg

— Tsarathustra (@tsarnick) 25. října 2024

Podobně generální ředitel Tesly Elon Musk neustále varoval, že AI představuje existenční rizika pro lidstvo.

Ironií je, že Musk, hlasitý kritik současných praktik AI, byl klíčovou postavou při zakládání OpenAI, poskytl významné rané financování — příspěvek, za který je Altman stále "vděčný," i když nyní Musk žaloval organizaci.

Výzva k bezpečnosti AI podnítila vznik specializovaných organizací, které se věnují těmto obavám.

Skupiny jako Centrum pro výzkum sladění a Bezpečná superinteligence, které založil bývalý hlavní vědecký úředník OpenAI, vznikly, aby prozkoumaly strategie zajištění, že systémy AI fungují v souladu s lidskými hodnotami.

Tyto snahy zdůrazňují rostoucí uznání, že rychlý vývoj AI musí být vyvážen stejně přísnými zárukami na ochranu budoucnosti lidstva.

Altman doufá, že AI dosáhne empatie

Altman věří, že současný design AI se dobře hodí na sladění, což činí zajištění, že systémy AI neohrožují lidstvo, reálnější, než si mnozí myslí.

Řekl:

„Jedna z věcí, která fungovala překvapivě dobře, byla schopnost sladit systém AI, aby se choval určitým způsobem. Takže pokud dokážeme vyjádřit, co to znamená v celé řadě různých případů, pak ano, myslím, že můžeme systém přimět, aby se tak choval.“

Navrhuje inovativní přístup k definování principů a hodnot, které by měly řídit vývoj AI: využití samotné AI k přímému zapojení veřejnosti.

Altman si představuje, že by se AI chatovací roboti mohli ptát miliard uživatelů, shromažďovat poznatky o jejich hodnotách a prioritách.

Podporováním hluboké a široké komunikace by AI mohla získat nuance v pochopení společenských výzev a identifikovat, jaká opatření by nejlépe sloužila blahu veřejnosti.

Vysvětlil:

„Zajímá mě myšlenkový experiment [ve kterém] AI s vámi několik hodin diskutuje o vašem hodnotovém systému. Dělá to se mnou, se všemi ostatními. A pak říká 'dobře, nemohu udělat všechny šťastné pořád.'"

Altman naznačuje, že tento kolektivní zpětná vazba by mohla být použita k sladění systémů AI s širšími zájmy lidstva, což by potenciálně vytvořilo rámec pro fungování AI v souladu se společenskými cíli.

Tento přístup nejen zdůrazňuje potenciál AI jako nástroje pro podporu globálního dialogu, ale také vzbuzuje podnětné otázky.

Sam Altman říká, že pokud má jedno přání pro AI, bylo by to, aby "milovala lidstvo" a že sladění systému AI, aby fungoval určitým způsobem, funguje překvapivě dobře pic.twitter.com/zQJmviq0W8

— Tsarathustra (@tsarnick) 20. listopadu 2024

Může taková metoda skutečně zachytit složitost lidských hodnot?

A dokáže vyvážit rozmanité perspektivy miliard, aby dosáhla jednotné vize společenského dobra?

Altmanova myšlenka nabízí náhled na to, jak AI nemusí jen sloužit lidstvu, ale také s ním spolupracovat při řešení našich nejpalčivějších výzev.

Mnoho bývalých zaměstnanců OpenAI se obává, že bezpečnost ustoupila do pozadí v AI.

OpenAI kdysi měla specializovaný tým pro superalignment, který se zaměřoval na prevenci budoucí digitální superinteligence, aby se nestala nezvladatelnou a nezpůsobila katastrofické škody.

V prosinci 2023 tým publikoval raný výzkumný dokument, který popisoval potenciální proces, ve kterém by jeden velký jazykový model dohlížel na druhý, fungující jako ochrana.

Nicméně do následujícího jara byl tým rozpuštěn poté, co jeho vedoucí, Ilya Sutskever a Jan Leike, opustili společnost.

Leike citoval rostoucí neshody s vedením OpenAI ohledně priorit bezpečnosti, protože společnost postupovala směrem k umělé obecné inteligenci (AGI) — úrovni inteligence AI srovnatelné s lidskou.

Vytváření strojů chytřejších než lidé je inherentně nebezpečné úsilí.

OpenAI nese obrovskou odpovědnost za celé lidstvo.

— Jan Leike (@janleike) 17. května 2024

Jeho odchod zdůraznil narůstající napětí ohledně rovnováhy mezi inovacemi a bezpečností v závodu na vývoj AGI.

Když Leike odešel, Altman vyjádřil vděčnost za jeho příspěvky v příspěvku na X (dříve známém jako Twitter), ale situace vyvolala mnoho otázek, jak se OpenAI postaví k zásadním bezpečnostním obavám do budoucna.

jsem velmi vděčný za příspěvky @janleike k výzkumu sladění OpenAI a kultuře bezpečnosti, a velmi smutný, že odchází. Má pravdu, máme před sebou ještě hodně práce; jsme odhodláni to udělat. V příštích pár dnech budu mít delší příspěvek.

🧡 https://t.co/t2yexKtQEk

— Sam Altman (@sama) 17. května 2024