Společnosti zabývající se umělou inteligencí OpenAI a Anthropic se nedávno dohodly, že americkému institutu pro bezpečnost AI poskytnou včasný přístup ke všem „významným“ novým modelům umělé inteligence, které vyvinou, uvedl Cointelegraph.

Ačkoli dohoda byla údajně podepsána ze sdílených bezpečnostních obav, není jasné, jaká bude konkrétní role vlády, když technologické průlomy budou mít významné bezpečnostní dopady.

Generální ředitel a spoluzakladatel OpenAI Sam Altman na platformě sociálních médií X uvedl, že dohoda je nezbytným krokem a zdůraznil, že je třeba, aby Spojené státy nadále vedly na národní úrovni.

OpenAI i Anthropic se zavázaly vyvíjet umělou obecnou inteligenci (AGI), což je umělá inteligence, která dokáže dokončit jakýkoli úkol s lidskými zdroji. Každá společnost má svou vlastní chartu a poslání bezpečně vytvářet AGI s lidským přínosem v jejím jádru.

Podpisem dohody s americkou vládou o zveřejnění jejich modelů před uvedením produktu na trh společnosti předávají tuto odpovědnost federální vládě.

OpenAI může být na pokraji průlomu, s jeho projekty „Strawberry“ a „Orion“, které jsou údajně schopné pokročilého uvažování a řešení problémů s halucinacemi v AI, uvedl Cointelegraph. Vláda USA již viděla tyto nástroje a jejich rané interní iterace v ChatGPT.

Blogový příspěvek Národního institutu pro standardy a technologie uvádí, že dohoda a související bezpečnostní pokyny jsou pro zúčastněné společnosti dobrovolné. Zastánci tvrdí, že taková regulace na dotek napomáhá růstu a umožňuje odvětví, aby se samo regulovalo.

Jedním z potenciálních problémů regulace na dotek je však nedostatek transparentnosti. Pokud OpenAI nebo Anthropic uspěje, neexistuje žádný zákonný požadavek na zveřejnění, pokud vláda rozhodne, že to veřejnost nemusí vědět.