TLDR:

  • Vědci AI varují před možnými katastrofickými následky, pokud lidé ztratí kontrolu nad AI

  • Globální systém dohledu a pohotovostní plány vyzývají k prevenci rizik AI

  • Navrženy tři klíčové procesy: havarijní připravenost, zajištění bezpečnosti a nezávislý výzkum

  • Prohlášení podepsalo přes 30 odborníků z různých zemí

  • Objevily se obavy z nedostatku vědecké výměny mezi supervelmocemi ohledně hrozeb AI

Odborníci na umělou inteligenci (AI) z celého světa vydali varování před potenciálními riziky spojenými s pokročilými systémy umělé inteligence.

V prohlášení vydaném 16. září 2024 více než 30 vědců z různých zemí, včetně Spojených států, Kanady, Číny a Spojeného království, vyzvalo k vytvoření globálního systému dohledu, který by zabránil možným „katastrofickým následkům“, pokud by lidé ztratit kontrolu nad AI.

Prohlášení, které staví na zjištěních z Mezinárodního dialogu o bezpečnosti umělé inteligence v Benátkách, zdůrazňuje potřebu mezinárodní spolupráce a řízení při vývoji umělé inteligence.

Vědci tvrdí, že bezpečnost umělé inteligence by měla být uznána jako globální veřejný statek, který vyžaduje společné úsilí k řešení potenciálních rizik.

Jednou z hlavních obav zdůrazněných v prohlášení je možnost ztráty lidské kontroly nad pokročilými systémy umělé inteligence nebo jejich zneužití. Experti varují, že takové scénáře mohou mít pro lidstvo hrozné následky.

Poukazují na to, že dosud nebyla vyvinuta nezbytná věda pro kontrolu a ochranu vysoce pokročilé umělé inteligence, což podtrhuje naléhavost řešení těchto problémů.

K řešení těchto problémů vědci navrhují tři klíčové procesy.

  • Zaprvé požadují vytvoření dohod a institucí o havarijní připravenosti. To by zahrnovalo rozvoj orgánů v každé zemi, které by odhalovaly incidenty umělé inteligence a katastrofická rizika a reagovaly na ně. Tyto domácí úřady by pak spolupracovaly na vytvoření globálního pohotovostního plánu pro vážné incidenty související s AI.

  • Druhým navrhovaným procesem je implementace rámce pro zajištění bezpečnosti. To by od vývojářů umělé inteligence vyžadovalo, aby před nasazením modelů se schopnostmi překračujícími stanovené prahové hodnoty poskytli vysoce spolehlivý bezpečnostní případ. Rámec by rovněž zahrnoval monitorování po nasazení a nezávislé audity, aby byla zajištěna průběžná bezpečnost.

  • A konečně, odborníci obhajují nezávislý globální výzkum bezpečnosti a ověřování AI. Tento výzkum by se zaměřoval na vývoj technik k přísnému ověření bezpečnostních tvrzení ze strany vývojářů AI a potenciálně dalších zemí. Aby byla zajištěna nezávislost, výzkum by byl prováděn globálně a financován širokou škálou vlád a filantropů.

Prohlášení přichází v době, kdy se vědecká výměna mezi supervelmocemi zmenšuje a nedůvěra mezi USA a Čínou roste. Vědci tvrdí, že tento nedostatek spolupráce ztěžuje dosažení konsensu o hrozbách AI, což dále zdůrazňuje potřebu globálního dialogu a spolupráce.

Začátkem září 2024 podepsaly Spojené státy, Evropská unie a Spojené království první právně závaznou mezinárodní smlouvu o umělé inteligenci na světě. Tato dohoda upřednostňuje lidská práva a odpovědnost v regulaci umělé inteligence. Některé technologické korporace a manažeři však vyjádřili obavy, že přílišná regulace by mohla potlačit inovace, zejména v Evropské unii.

Skupina odborníků na umělou inteligenci, která prohlášení podepsala, zahrnuje výzkumníky z předních institucí a univerzit zaměřených na umělou inteligenci a také několik vítězů Turingovy ceny, která je považována za ekvivalent Nobelovy ceny v oblasti výpočetní techniky.

Jejich kolektivní odbornost dodává značnou váhu vzneseným obavám a doporučením uvedeným v prohlášení.

Příspěvek Chraňte lidstvo před umělou inteligencí: Odborníci volají po globálním dohledu, aby se zabránilo potenciální katastrofě umělé inteligence appeared first on Blockonomi.