Několik současných a bývalých zaměstnanců OpenAI a Google DeepMind obvinilo své společnosti, že skrývají rizika AI, která by mohla potenciálně způsobit vyhynutí lidí. V otevřeném dopise pracovníci tvrdili, že firmy s umělou inteligencí kladou na první místo zisk, přičemž se vyhýbají „efektivnímu [vládnímu] dohledu“.

Přečtěte si také: OpenAI představuje nástupce GPT-4 uprostřed bezpečnostních obav

Otevřený dopis podepsalo 11 bývalých zaměstnanců OpenAI, dva z Google DeepMind, a podpořil ho „kmotr AI“ Geoffrey Hinton, dříve ze společnosti Google. Uvedla, že motivy zisku a regulační mezery umožňují společnostem zakrýt hrozby, které představuje pokročilá umělá inteligence.

Umělá inteligence by mohla vést k „vymření lidstva“

Podle dopisu společnosti AI, jako je OpenAI a Google DeepMind, tvůrce Gemini, veřejně nesdílely informace o neadekvátních ochranných opatřeních a úrovních rizik jejich systémů, protože to nejsou povinny.

Bez regulačního dohledu by programy umělé inteligence mohly způsobit velké škody lidem. Zaměstnanci varovali:

„Tato rizika sahají od dalšího zakořenění stávajících nerovností… až po ztrátu kontroly nad autonomními systémy umělé inteligence, která může mít za následek vyhynutí lidstva.“

Jak poznamenali signatáři dopisu, samotné společnosti AI tato rizika uznaly. V květnu 2023 generální ředitelé společností OpenAI, Anthropic a Google DeepMind společně podepsali otevřený dopis Centra pro bezpečnost umělé inteligence. Dopis jednoduše zněl: „Snížení rizika vyhynutí způsobené umělou inteligencí by mělo být globální prioritou spolu s dalšími riziky společenského rozsahu, jako jsou pandemie a jaderná válka.“

Společnosti s umělou inteligencí jsou stále více pod drobnohledem, pokud jde o umístění nových produktů a zisku nad bezpečnost a zabezpečení. Tvůrce ChatGPT OpenAI zaznamenal obavy uvedené v dopise a uvedl, že pracuje na vývoji umělé inteligence, která je bezpečná.

„Jsme hrdí na to, že poskytujeme nejschopnější a nejbezpečnější A.I. systémy a věří v náš vědecký přístup k řešení rizik,“ řekla New York Times mluvčí OpenAI Lindsey Held.

"Souhlasíme s tím, že vzhledem k významu této technologie je zásadní důsledná diskuse, a budeme i nadále jednat s vládami, občanskou společností a dalšími komunitami po celém světě."

Oznamovatelé se obávají odvetných opatření

Bývalí zaměstnanci OpenAI a Google uvedli, že by rádi zastali roli dohledu, zatímco regulační orgány vypracují zákony, které nutí vývojáře AI zveřejnit více informací o svých programech.

Dohody o mlčenlivosti a pravděpodobnost odvetných opatření ze strany zaměstnavatelů však odrazují pracovníky od toho, aby veřejně vyjádřili své obavy. Podle dopisu:

„Někteří z nás se důvodně obávají různých forem odvetných opatření, vzhledem k historii takových případů v celém odvětví. Nejsme první, kdo se s těmito problémy setkal nebo o nich mluví.“

Oznamovatelé jsou v USA chráněni zákonem, ale ti, kdo mluví o nebezpečí umělé inteligence, nejsou pokryti, protože tato technologie ještě není regulována.

Čtěte také: ChatGPT stále šíří lži, říká EU Data Watchdog

Dopis vyzval společnosti AI, aby umožnily ověřitelnou anonymní zpětnou vazbu, podporovaly kulturu otevřené kritiky a nereagovaly na oznamovatele.

Výzkumník umělé inteligence Lance B. Eliot řekl, že firmy ke kritice přistupují jako mrkev a bič. Zaměstnanci, kteří se nevyjádří k rizikům, jsou odměněni povýšením na zaměstnání a zvýšením platů.

Na druhou stranu informátoři a kritici ztrácejí své opce na akcie a mohou být vytlačeni ze společnosti a potichu zařazeni na černou listinu ze strany vedení AI.

Cryptopolitan Reporting od Jeffreyho Goga