Oitenta e dois por cento dos executivos de alto escalão acreditam que uma IA segura e confiável é crítica. No entanto, apenas 24% deles incorporam segurança nas suas iniciativas relacionadas com GenAI. Isso está de acordo com uma nova pesquisa da IBM e Amazon Web Services, pesquisa conjunta anunciada na RSA Conference 2024 e que detalhou os resultados de uma pesquisa focada nas opiniões de executivos de alto escalão sobre como impulsionar casos de uso seguros para IA, com muito foco em IA generativa. A IBM relata que apenas 24% dos entrevistados consideraram uma dimensão de segurança nas suas iniciativas generativas de IA, enquanto quase 70% dizem que a inovação tem precedência sobre a segurança.

Inovação vs. compensação de segurança

Embora a maioria dos executivos se preocupe com riscos imprevisíveis que impactarão as iniciativas de geração de IA, eles não estão priorizando a segurança. Embora ainda não tenha ocorrido um cenário de ameaças de IA totalmente realizado, alguns casos de uso envolveram o uso do ChatGPT ou similar para gerar scripts de e-mail de phishing e áudio deepfake. Os pesquisadores de segurança do IBM X-Force alertaram que, assim como acontece com as tecnologias mais maduras, pode-se esperar cada vez mais que os sistemas de IA sejam direcionados em maior escala.

Embora uma superfície consolidada de ameaças de IA esteja apenas começando a se formar, os pesquisadores do IBM X-Force antecipam que, assim que o cenário da indústria amadurecer em torno de tecnologias e modelos de capacitação comuns, os atores de ameaças começarão a visar esses sistemas de IA de forma mais ampla, diz o relatório. Na verdade, essa convergência está em curso à medida que o mercado amadurece rapidamente e já estão a surgir fornecedores líderes em hardware, software e serviços.

Mais imediatamente preocupantes, afirma o relatório da IBM, são as empresas que não protegem adequadamente os modelos de IA que constroem e utilizam como parte dos seus negócios. A má aplicação das ferramentas GenAI pode levar ao manuseio incorreto ou ao vazamento de dados confidenciais. De acordo com o relatório, o uso da “IA sombra” está aumentando nas organizações, à medida que os funcionários usam ferramentas GenAI que não foram aprovadas e protegidas pelas equipes de segurança corporativa.

Para este fim, a IBM anunciou uma estrutura para proteger o GenAI em janeiro. Seus princípios básicos são centralizar dados, que são usados ​​para treinar modelos de IA, proteger modelos usando uma combinação de varredura de pipelines de desenvolvimento em busca de vulnerabilidades, impor políticas e controle de acesso para uso de IA e proteger seu uso contra ataques baseados em modelos de IA ao vivo.

Protegendo o pipeline de IA

Na segunda-feira, a equipe de segurança ofensiva X-Force Red da IBM lançou um serviço de teste de inteligência artificial que busca avaliar aplicativos de IA, modelos de IA e pipelines MLSecOps por meio de equipes vermelhas. Na quarta-feira, na RSA Conference 2024, a IBM apresentará “Innovate Now, Secure Later? Decisões, Decisão…” sobre garantir e estabelecer governança para o pipeline de IA.

O segundo palestrante foi Ryan Dougherty, diretor de programa de tecnologia de segurança da IBM Security. Em declarações ao TechTarget Editorial, ele disse que proteger a IA imediatamente é uma das principais preocupações da IBM Security no espaço tecnológico. Ele disse: É isso que torna esta área tão crítica, especialmente no caso da IA ​​generativa: ela está sendo profundamente incorporada nas aplicações e processos de negócios. A integração do tecido empresarial eleva-o acima e além dos potenciais riscos e ameaças.

Segundo ele, do ponto de vista empresarial, a IA deve ter um fundamento na sua real natureza. “A IA generativa é treinada e operacionalizada em vastos tesouros de dados comerciais confidenciais, e precisamos proteger essas novas joias da coroa porque é aí que entra a vantagem competitiva. IA generativa e trazê-la à tona em seus aplicativos para melhorar seus negócios”, disse ele. Dougherty acrescentou que estão pagando muito dinheiro pelos modelos, que são muito caros. Muito IP e investimento estão sendo investidos na operacionalização dessas aplicações generativas de IA, e as empresas simplesmente não têm condições de protegê-las.