Pohotovostní plány potřebné, pokud lidé ztratí kontrolu nad AI

Dne 16. září koalice předních vědců AI v prohlášení vyzvala k vytvoření globálního systému dohledu, který by zmírnil riziko „katastrofických důsledků“, pokud se systémy AI vymknou lidské kontrole.

Vyjádřili obavy, že technologie, kterou pomohli vytvořit, by mohla představovat významné hrozby, pokud by nebyla správně spravována.

Prohlášení zní:

„Ztráta lidské kontroly nebo zlomyslné použití těchto systémů umělé inteligence by mohlo vést ke katastrofickým následkům pro celé lidstvo. Bohužel jsme ještě nevyvinuli nezbytnou vědu, která by řídila a chránila používání takové pokročilé inteligence.“

⚠️ Vědci varují před ztrátou kontroly nad umělou inteligencí a volají po globálním plánu, jak zabránit katastrofickým rizikům. 🌍 Vyzývají k nouzové připravenosti, bezpečnostním systémům AI a nezávislému výzkumu. USA, EU a Spojené království podepsaly první smlouvu o regulaci umělé inteligence. 🤖⚖️ pic.twitter.com/TUGpIQbzgA

— MINE.exchange (@mineexchange_) 17. září 2024

Vědci zdůraznili, že je třeba, aby vnitrostátní orgány byly vybaveny k odhalování a řešení incidentů a rizik souvisejících s umělou inteligencí.

Zasazovali se také o vypracování „globálního pohotovostního plánu“, který by zabránil vzniku modelů umělé inteligence s potenciálními globálními katastrofickými riziky.

Jak uvedli:

"Z dlouhodobého hlediska by státy měly vyvinout mezinárodní režim řízení, aby zabránily vývoji modelů, které by mohly představovat globální katastrofická rizika."

Bezpečnost umělé inteligence je globální veřejný statek

Prohlášení vychází z diskusí z Mezinárodního dialogu o bezpečnosti umělé inteligence, který se konal v Benátkách na začátku září, třetí akce organizované Safe AI Forum, nezisková americká výzkumná organizace.

Profesorka Gillian Hadfield z Johns Hopkins University zdůraznila naléhavost v příspěvku na X (dříve známém jako Twitter):

"Nemusíme se shodnout na pravděpodobnosti katastrofických událostí umělé inteligence, abychom souhlasili s tím, že bychom měli mít zavedeny nějaké globální protokoly pro případ mezinárodních incidentů s umělou inteligencí, které vyžadují koordinované reakce."

Nemusíme se shodnout na pravděpodobnosti katastrofických událostí AI, abychom souhlasili s tím, že bychom měli mít nějaké globální protokoly pro případ mezinárodních incidentů AI, které vyžadují koordinované reakce. Více zde: https://t.co/FrKyLXJLYf

— Gillian Hadfield (@ghadfield) 16. září 2024

Prohlášení zdůrazňuje, že bezpečnost umělé inteligence je globálním veřejným statkem, který vyžaduje mezinárodní spolupráci a správu:

„Globální povaha těchto rizik způsobených umělou inteligencí vyžaduje uznání bezpečnosti umělé inteligence jako globálního veřejného statku a úsilí o globální řízení těchto rizik. Společně se musíme připravit na odvrácení doprovodných katastrofických rizik, která mohou kdykoli přijít."

Vývojáři AI nastínili tři kritické procesy:

Prohlášení, které podpořilo více než 30 signatářů z USA, Kanady, Číny, Británie, Singapuru a dalších zemí, zahrnuje odborníky z předních výzkumných institucí AI, univerzit a několik vítězů Turingovy ceny.

Vědci poznamenali, že rostoucí vědecká roztržka mezi supervelmocemi a rostoucí nedůvěra mezi USA a Čínou ztěžují dosažení konsensu o rizicích AI.