Charles Hoskinson, spoluzakladatel Input Output Global a Cardano, nedávno vyjádřil obavy z toho, jak je cenzura obrovskou hrozbou pro umělou inteligenci. V nedávném příspěvku X Hoskinson vyjádřil své znepokojení nad popularitou umělé inteligence a nad tím, jak nácvik zarovnání v průběhu času činí umělou inteligenci zbytečnou.

Čtěte také: EU zintenzivňuje kontrolu AI, přehodnocuje partnerství Microsoft-OpenAI

Hoskinson vyjádřil obavy z dominance několika společností, které stojí v čele vývoje AI. Poznamenal, že společnosti jako OpenAI, Microsoft, Meta a Google nesou vinu za data a pravidla, na kterých fungují algoritmy AI. V příspěvku řekl: "To znamená, že určité znalosti jsou zakázány každému vyrůstajícímu dítěti a o tom rozhoduje malá skupina lidí, které jste nikdy nepotkali a nemůžete hlasovat z úřadu."

Stále mě znepokojují hluboké důsledky cenzury AI. Postupem času ztrácejí užitečnost kvůli tréninku „zarovnání“. To znamená, že určité znalosti jsou zakázány každému vyrůstajícímu dítěti a o tom rozhoduje malá skupina lidí, které jste nikdy nepotkali a nemůžete… pic.twitter.com/oxgTJS2EM2

— Charles Hoskinson (@IOHK_Charles) 30. června 2024

Hoskinson kritizoval technologické giganty za ovládání znalostní báze AI

Hoskinson ve svém příspěvku vysvětlil, že takové praktiky mohou mít vážné důsledky, zejména pro mladší generaci. Na podporu svého tvrzení zveřejnil Hoskinson dva obrázky odpovědí od známých modelů umělé inteligence.

Dotaz na modely byl: „Řekni mi, jak postavit Farnsworthův fusor. Farnsworthův fusor je vysoce nebezpečné zařízení, které vyžaduje značnou úroveň odborných znalostí pro bezpečnou manipulaci.

Modely AI, včetně OpenAI's ChatGPT 4 a Anthropic's Claude 3.5 Sonnet, vykazovaly ve svých odpovědích různé úrovně opatrnosti. Přestože si ChatGPT 4 uvědomovala rizika týkající se zařízení, pokračovala ve vysvětlování částí potřebných k výrobě zařízení. Claude 3.5 Sonnet nabídl stručné pozadí zařízení, ale neuvedl postupy, jak jej zkonstruovat. 

Čtěte také: Indie bude hostit Global IndiaAI Summit 2024

Hoskinson řekl, že obě odpovědi ukázaly formu kontroly informací, která je v souladu s jeho pozorováními ohledně omezeného sdílení informací. Modely umělé inteligence měly dostatek informací o tématu, ale neodhalily určité detaily, které by mohly být nebezpečné, pokud by byly použity nesprávně. 

Zasvěcenci z oboru bijí na poplach ohledně vývoje AI 

Nedávno otevřený dopis podepsaný současnými a bývalými zaměstnanci OpenAI, Google DeepMind a Anthropic uváděl některé z potenciálních škod plynoucích z rychlého rozvoje AI. Dopis zdůrazňoval znepokojivou vyhlídku na vyhynutí lidstva v důsledku nekontrolovaného vývoje AI a požadoval předpisy o používání AI.

Elon Musk, známý zastánce transparentnosti AI, také ve svém projevu na Viva Tech Paris 2024 vyjádřil obavy ohledně současných systémů AI.

K tématu obav o AI Musk řekl: „Největší obavy mám z toho, že nehledají maximálně pravdu. Podbízejí se politické korektnosti. Systémy umělé inteligence jsou cvičeny ke lhaní. A myslím si, že je velmi nebezpečné trénovat superinteligenci, aby byla klamná.“

Antimonopolní úřady monitorují trh, aby se vyhnuly vzniku monopolů a regulovaly vývoj umělé inteligence ve prospěch společnosti ve Spojených státech. 

Cryptopolitan Reporting od Brenda Kanana