82 procent vedoucích pracovníků C-suite věří, že bezpečná a důvěryhodná umělá inteligence je zásadní. Pouze 24 % z nich však zabudovává zabezpečení do svých iniciativ souvisejících s GenAI. Vyplývá to z nového výzkumu společností IBM a Amazon Web Services, společného výzkumu oznámeného na konferenci RSA 2024 a jehož podrobné výsledky průzkumu se zaměřily na názory vedoucích pracovníků C-suite na to, jak řídit případy bezpečného použití pro AI, s velkým důrazem. na generativní AI. IBM uvádí, že pouze 24 % respondentů zvažovalo bezpečnostní dimenzi ve svých generativních iniciativách AI, zatímco téměř 70 % tvrdí, že inovace mají přednost před zabezpečením.

Kompromis mezi inovacemi a bezpečností

Zatímco většina vedoucích pracovníků se obává, že nepředvídatelná rizika ovlivní iniciativy gen AI, nedávají prioritu zabezpečení. Přestože dosud nedošlo k plně realizovanému prostředí hrozeb AI, některé případy použití zahrnovaly použití ChatGPT nebo podobného generování phishingových e-mailových skriptů a hluboce falešného zvuku. Bezpečnostní výzkumníci IBM X-Force varovali, že stejně jako u vyspělejších technologií lze stále více očekávat, že systémy umělé inteligence budou cíleny ve větším měřítku.

Zatímco se konsolidovaná AI hrozba teprve začíná formovat, výzkumníci IBM X-Force předpokládají, že jakmile průmyslová krajina dospěje na společné technologie a modely aktivace, začnou se aktéři hrozeb zaměřovat na tyto systémy AI šířeji, uvádí zpráva. Tato konvergence skutečně probíhá, protože trh rychle dospívá a přední poskytovatelé v oblasti hardwaru, softwaru a služeb se již objevují.

Podle zprávy IBM se bezprostředněji týkají těch společností, které řádně nezabezpečují modely umělé inteligence, které vytvářejí a používají jako součást svého podnikání. Špatná aplikace nástrojů GenAI může vést k nesprávnému zacházení nebo úniku citlivých dat. Podle zprávy se používání „stínové AI“ v organizacích zvyšuje, protože zaměstnanci používají nástroje GenAI, které nebyly schváleny a zabezpečeny podnikovými bezpečnostními týmy.

Za tímto účelem IBM v lednu oznámilo rámec pro zabezpečení GenAI. Jeho základními principy jsou centralizace dat, která se používají k trénování modelů AI, zabezpečení modelů pomocí kombinace skenovacích vývojových kanálů na zranitelnosti, prosazování zásad a řízení přístupu pro použití AI a zabezpečení jejich použití proti útokům založeným na živých modelech AI.

Zabezpečení potrubí AI

V pondělí ofenzivní bezpečnostní tým IBM X-Force Red spustil službu testování umělé inteligence, která se snaží hodnotit aplikace AI, modely AI a kanály MLSecOps prostřednictvím červeného týmu. Ve středu na konferenci RSA 2024 IBM představí „Inovovat hned, zabezpečit později? Rozhodnutí, rozhodnutí…“ o zajištění a zavedení správy pro plynovod AI.

Druhým řečníkem byl Ryan Dougherty, programový ředitel pro bezpečnostní technologie v IBM Security. V rozhovoru pro TechTarget Editorial řekl, že zabezpečení AI hned po vybalení je jedním z hlavních zájmů IBM Security v technologickém prostoru. Řekl: To je to, co dělá tuto oblast tak kritickou, zejména v případě generativní umělé inteligence: je hluboce zabudována do podnikových aplikací a procesů. Integrace obchodní struktury ji posouvá nad rámec potenciálních rizik a hrozeb.

Podle něj musí mít AI z obchodního hlediska základy ve své skutečné podstatě. „Generativní umělá inteligence je trénována a provozována na obrovském množství citlivých obchodních dat a my potřebujeme zabezpečit tyto nové korunovační klenoty, protože v tom přichází konkurenční výhoda. Jde o data, která tyto organizace mají, a poznatky, které získávají pomocí generativní umělá inteligence a její využití ve svých aplikacích za účelem zlepšení jejich podnikání,“ řekl. Dougherty dodal, že platí hodně peněz za modely, které jsou velmi drahé. Do zprovoznění těchto generativních aplikací umělé inteligence jde spousta IP a investic a podniky si je jednoduše nemohou dovolit zabezpečit.