Oitenta e dois por cento dos executivos de alto escalão acreditam que uma IA segura e confiável é crítica. No entanto, apenas 24% deles incorporam segurança nas suas iniciativas relacionadas com GenAI. Isso está de acordo com uma nova pesquisa da IBM e Amazon Web Services, pesquisa conjunta anunciada na RSA Conference 2024 e que detalhou os resultados de uma pesquisa focada nas opiniões de executivos de alto escalão sobre como impulsionar casos de uso seguros para IA, com muito foco em IA generativa. A IBM relata que apenas 24% dos entrevistados consideraram uma dimensão de segurança nas suas iniciativas generativas de IA, enquanto quase 70% dizem que a inovação tem precedência sobre a segurança.
Inovação vs. compensação de segurança
Embora a maioria dos executivos se preocupe com riscos imprevisíveis que impactarão as iniciativas de geração de IA, eles não estão priorizando a segurança. Embora ainda não tenha ocorrido um cenário de ameaças de IA totalmente realizado, alguns casos de uso envolveram o uso do ChatGPT ou similar para gerar scripts de e-mail de phishing e áudio deepfake. Os pesquisadores de segurança do IBM X-Force alertaram que, assim como acontece com as tecnologias mais maduras, pode-se esperar cada vez mais que os sistemas de IA sejam direcionados em maior escala.
Embora uma superfície consolidada de ameaças de IA esteja apenas começando a se formar, os pesquisadores do IBM X-Force antecipam que, assim que o cenário da indústria amadurecer em torno de tecnologias e modelos de capacitação comuns, os atores de ameaças começarão a visar esses sistemas de IA de forma mais ampla, diz o relatório. Na verdade, essa convergência está em curso à medida que o mercado amadurece rapidamente e já estão a surgir fornecedores líderes em hardware, software e serviços.
Mais imediatamente preocupantes, afirma o relatório da IBM, são as empresas que não protegem adequadamente os modelos de IA que constroem e utilizam como parte dos seus negócios. A má aplicação das ferramentas GenAI pode levar ao manuseio incorreto ou ao vazamento de dados confidenciais. De acordo com o relatório, o uso da “IA sombra” está aumentando nas organizações, à medida que os funcionários usam ferramentas GenAI que não foram aprovadas e protegidas pelas equipes de segurança corporativa.
Para este fim, a IBM anunciou uma estrutura para proteger o GenAI em janeiro. Seus princípios básicos são centralizar dados, que são usados para treinar modelos de IA, proteger modelos usando uma combinação de varredura de pipelines de desenvolvimento em busca de vulnerabilidades, impor políticas e controle de acesso para uso de IA e proteger seu uso contra ataques baseados em modelos de IA ao vivo.
Protegendo o pipeline de IA
Na segunda-feira, a equipe de segurança ofensiva X-Force Red da IBM lançou um serviço de teste de inteligência artificial que busca avaliar aplicativos de IA, modelos de IA e pipelines MLSecOps por meio de equipes vermelhas. Na quarta-feira, na RSA Conference 2024, a IBM apresentará “Innovate Now, Secure Later? Decisões, Decisão…” sobre garantir e estabelecer governança para o pipeline de IA.
O segundo palestrante foi Ryan Dougherty, diretor de programa de tecnologia de segurança da IBM Security. Em declarações ao TechTarget Editorial, ele disse que proteger a IA imediatamente é uma das principais preocupações da IBM Security no espaço tecnológico. Ele disse: É isso que torna esta área tão crítica, especialmente no caso da IA generativa: ela está sendo profundamente incorporada nas aplicações e processos de negócios. A integração do tecido empresarial eleva-o acima e além dos potenciais riscos e ameaças.
Segundo ele, do ponto de vista empresarial, a IA deve ter um fundamento na sua real natureza. “A IA generativa é treinada e operacionalizada em vastos tesouros de dados comerciais confidenciais, e precisamos proteger essas novas joias da coroa porque é aí que entra a vantagem competitiva. IA generativa e trazê-la à tona em seus aplicativos para melhorar seus negócios”, disse ele. Dougherty acrescentou que estão pagando muito dinheiro pelos modelos, que são muito caros. Muito IP e investimento estão sendo investidos na operacionalização dessas aplicações generativas de IA, e as empresas simplesmente não têm condições de protegê-las.