• CoSAI, vedená společností Google, si klade za cíl nastavit robustní bezpečnostní standardy AI s lídry v oboru, jako jsou Amazon a IBM.

  • Globálnímu úsilí o bezpečnost AI brání různé regulační rámce a geopolitické napětí.

  • Čínská strategie umělé inteligence upřednostňuje národní bezpečnost, což je v kontrastu s přístupy západních demokracií založených na právech.

Aby se vypořádali s bezpečnostními obavami spojenými s AI, IT giganti Google, Microsoft, Nvidia a OpenAI založili koalici pro bezpečnou umělou inteligenci (CoSAI). CoSAI, který byl představen na Aspen Security Forum, si klade za cíl stanovit přísné bezpečnostní předpisy a standardy pro vývoj a používání AI. Tento program je reakcí na prudký růst pole AI.

Oznamujeme koalici pro bezpečnou umělou inteligenci (CoSAI) pod @OASISopen a s partnery @Amazon @AnthropicAI @Chainguard @Cisco @Cohere @genlabstudio @IBM @Intel @Microsoft @NVIDIA @OpenAI @Paypal @wiz_io. Další podrobnosti od @argvee + @philvenables → https://t.co/SlDM7EiB2Q pic.twitter.com/xTRjBmKYWA

— Kent Walker (@Kent_Walker) 18. července 2024

PayPal, Amazon, Cisco, IBM, Intel a další klíčoví hráči v tomto odvětví jsou zahrnuti do CoSAI pod vedením Google. Pomocí metod open source a standardizovaných rámců tým vytváří systémy umělé inteligence zabezpečené podle návrhu s cílem zvýšit důvěru a bezpečnost v aplikacích umělé inteligence. Vydání na základě jejich rámce Secure AI Framework (SAIF) zdůraznilo význam důkladného bezpečnostního rámce pro AI.

Tři první pracovní proudy budou hlavním zaměřením koalice: vytvoření správy zabezpečení AI, vybavení obránců pro změnu prostředí kybernetické bezpečnosti a zlepšení zabezpečení dodavatelského řetězce softwaru pro systémy AI.

Globální pohledy na bezpečnost umělé inteligence

Celosvětový konsenzus o bezpečnosti umělé inteligence je stále obtížně dosažitelný s různými definicemi, měřítky a regulačními přístupy v různých zemích. Demokratické země jako Kanada, USA, Spojené království a EU upřednostňují modely řízení umělé inteligence založené na riziku a zaměřené na člověka, které mají kořeny v právech a demokratických hodnotách. Navzdory podobnostem přetrvávají rozdíly v definování úrovní rizika a povinností pro vývojáře AI.

Čínský přístup naopak zdůrazňuje rizika AI z hlediska suverenity, sociální stability a národní bezpečnosti. Nedávná Šanghajská deklarace nastiňuje čínskou vizi globální spolupráce v oblasti umělé inteligence, která odráží odlišné politické priority.

Cesta vpřed

Pokračují snahy o zlepšení konvergence a interoperability mezi různými přístupy k řízení AI. I když rozdíly v definicích a postupech bezpečnosti umělé inteligence přetrvávají, mezinárodní spolupráce zůstává klíčová. Účast Číny na globálních summitech o bezpečnosti umělé inteligence a bilaterálních setkáních s USA demonstruje potenciální cesty spolupráce navzdory ideologickým rozdílům.

Dosažení jednotné globální definice bezpečnosti AI čelí problémům kvůli politickým a ideologickým rozdílům. Pokračující dialog a společné úsilí, jako je CoSAI, však představují klíčové kroky k vytvoření komplexních rámců bezpečnosti AI, které přesahují národní hranice a politické systémy.

Přečtěte si také:

  • Cracing Down on Fraud: Ripple se připojuje k technologickým gigantům v Anti-Scam Coalition

  • BRICS Coalition Eyes Ripple pro nový finanční řád, je to očekávaný spouštěč cenové pumpy XRP?

  • Ripple a hlavní technologické firmy se spojily v boji proti online podvodům a podvodům

  • Bezpečnost umělé inteligence: Bidenovo varování zažehlo bouři technického průmyslu

  • Hype spolupráce mezi JASMY a NVIDIA se rozproudí, když NVIDIA a Japonsko spojí své síly k vývoji infrastruktury umělé inteligence

The post Google, Microsoft, Nvidia, OpenAI Launch Coalition for AI Security appeared first on Crypto News Land.