Vlády z Jižní Koreje a Spojeného království budou na mezinárodním summitu o umělé inteligenci tento týden naléhat na technologické společnosti, aby se zabývaly dohledem nad bezpečností umělé inteligence.

Toto setkání navazuje na historicky první globální summit o bezpečnosti umělé inteligence, který se konal v loňském roce v britském Bletchley Parku, kde řada vlád vyjádřila své znepokojení nad riziky umělé inteligence. Přítomny byly i společnosti AI, protože technologie, na kterých pracují, tato rizika představuje.

Uprostřed četných mezinárodních pokusů vytvořit zábradlí pro rychle se vyvíjející technologii, která má potenciál způsobit revoluci v mnoha aspektech společnosti, podnítil summit v Soulu obavy z nově vznikajících rizik pro každodenní život.

"Ačkoli bylo vynaloženo pozitivní úsilí na formování globálního řízení AI, stále přetrvávají značné mezery."

Na listopadovém summitu Spojeného království se sešli výzkumníci, vládní úředníci, technologickí manažeři a zástupci organizací občanské společnosti, z nichž mnozí měli na umělou inteligenci rozdílné názory. Schůzky se konaly za zavřenými dveřmi v Bletchley. Spolu s politiky, včetně britského premiéra Rishi Sunaka, generálních ředitelů OpenAI Sama Altmana a Tesly, se zúčastnil také Elon Musk a mnoho dalších.

Bezpečnost bude na summitu AI prioritou

Na summitu AI v Soulu, který začíná v úterý, bude bezpečnost opět hlavní prioritou. Vlády Spojeného království a Jižní Koreje spolupořádají setkání ve dnech 21.–22. května.

Prominentní společnosti zabývající se umělou inteligencí, jako jsou Microsoft, Anthropic, Google DeepMind, tvůrce ChatGPT OpenAI a Mistral, francouzský startup zaměřený na umělou inteligenci, mají podle plánu vyslat své zástupce.

Britský premiér Rishi Sunak a jihokorejský prezident Yoon Suk Yeol také napsali společný článek, zveřejněný v pondělí v INews. Přijali potenciál této technologie a vyjádřili svou vůli zajistit bezpečnost.

"Společně jsme odhodláni využít potenciál této technologie k přeměně světa k lepšímu."

Zdůraznili také, že jak nové technologie přinášejí nová rizika, tak i AI. Poukázali na zneužívání umělé inteligence nepoctivými herci, kteří záměrně chtějí využít umělou inteligenci k nekalým skutkům.

Zrovna nedávno OpenAI rozpustila svůj bezpečnostní tým s názvem Superalignment tým, když jeho spoluzakladatel Ilya Sutskever a někteří další klíčoví zaměstnanci opustili společnost. Vývoj přišel od přední světové společnosti AI jen několik dní před summitem v Soulu, který se zaměřuje na zmírňování rizik AI.

Čtěte také: Mezinárodní spolupráce vybídnutá k řešení rizik AI na summitu v Bletchley Park

V dalším vývoji dnes společnost Anthropic vydala svou zprávu o politikách odpovědného škálování, která podle společnosti vykazuje dobré výsledky. Tyto výsledky však nemůžeme potvrdit. I když nejsme v pozici komentovat žádný z těchto vývojů, poskytují určitý podnět k zamyšlení.

Inovace musí pokračovat

Po raketovém vzestupu popularity ChatGPT krátce po uvedení v roce 2022 začaly technologické společnosti po celém světě investovat miliardy dolarů do budování svých generativních modelů umělé inteligence. Sunak a Yeol zmínili rychlou inovaci při každodenním uvádění nových modelů umělé inteligence. řekli,

"Vláda může podpořit tuto inovaci miliardovými investicemi, posílením špičkového výzkumu na našich univerzitách světové třídy a zajištěním, že nebudeme přeregulovat začínající podniky, které by mohly přinést další velký nápad."

Zastánci generativních modelů umělé inteligence vítají technologii jako průlom, který zlepší životy lidí a podnikání po celém světě, protože dokáže produkovat text, fotografie, hudbu a dokonce i video v reakci na jednoduché podněty.

Některé z těchto produktů, které si získaly pozornost veřejnosti, mají své vlastní předsudky, což je důvodem k obavám. 

Čtěte také: Práce s umělou inteligencí je nezbytná, říkají odborníci na umělou inteligenci na Fidic’s Global Leadership Forum

A nejsou to jen tyto; technologie, která stojí za těmito produkty, nazývaná velké jazykové modely (LLM), se také stala základní technologií mnoha řešení v různých sektorech. Od vozidel s autonomním řízením až po lékařská řešení, mnoho spoléhá na fungování generativních AI LLM.

Stále existují hlasy

Mnoho lidí požadovalo mezinárodní směrnice pro kontrolu rozvoje a aplikace AI. Například hnutí Ban the Scan se sídlem v New Yorku požaduje zastavení používání rozpoznávání obličejů na vládní i soukromé úrovni. 

Argumentují tím, že tyto technologie zasahují do osobní svobody a mají vysokou míru falešných poplachů. Na stránce Electronic Frontier Foundation se píše:

„Rozpoznání obličeje je hrozbou pro soukromí, rasovou spravedlnost, svobodu projevu a bezpečnost informací. Rozpoznávání obličeje ve všech svých formách, včetně skenování obličeje a sledování v reálném čase, představuje hrozbu pro občanské svobody a soukromí jednotlivců.“

Nejsou jediní. Obhájci lidských práv, vlády a kritici varovali, že umělá inteligence může být zneužita mnoha způsoby. Nestátní aktéři jej mohou využít například k ovlivňování voličů pomocí fiktivních zpráv nebo takzvaných „deepfake“ obrázků a videí volených představitelů. Dalším prohlubujícím se znepokojením jsou objevující se zprávy o státech, které podporují zlotřilé prvky pro jejich zájmy.

"Učiníme také další kroky k utváření globálních standardů, které zabrání závodu o dno."

Duo článek zmínil výše uvedené prohlášení a zdůraznil, že by byla užitečná diskuse o mezinárodních normách pro AI na otevřenějším fóru. Některé jihokorejské organizace pro lidská práva zároveň kritizovaly organizátory za to, že nepozvali dostatek rozvojových zemí.

Francie také tento týden uspořádá konferenci „Viva Technology“, kterou podporuje LVMH, největší světová luxusní skupina. Za poslední rok se Francie pokusila přilákat začínající umělce, aby se stala evropským šampionem AI.

Kryptopolitní zpravodajství od Aamira Sheikha