El ochenta y dos por ciento de los ejecutivos de alta dirección creen que la IA segura y confiable es fundamental. Sin embargo, sólo el 24% de ellos incorpora la seguridad en sus iniciativas relacionadas con GenAI. Esto es según una nueva investigación de IBM y Amazon Web Services, una investigación conjunta anunciada en la Conferencia RSA 2024 y que detalla los resultados de una encuesta centrada en las opiniones de los ejecutivos de alto nivel sobre cómo impulsar casos de uso seguros para la IA, con un gran enfoque. sobre IA generativa. IBM informa que sólo el 24% de los encuestados consideró una dimensión de seguridad en sus iniciativas de IA generativa, mientras que casi el 70% dice que la innovación tiene prioridad sobre la seguridad.

Compensación entre innovación y seguridad

Si bien a la mayoría de los ejecutivos les preocupa que los riesgos impredecibles afecten las iniciativas de IA de generación, no están priorizando la seguridad. Aunque aún no se ha producido un panorama de amenazas de IA completamente realizado, algunos casos de uso han implicado el uso de ChatGPT o similar para generar scripts de correo electrónico de phishing y audio deepfake. Los investigadores de seguridad de IBM X-Force han advertido que, al igual que ocurre con tecnologías más maduras, se puede esperar cada vez más que los sistemas de inteligencia artificial sean atacados a mayor escala.

Si bien apenas está comenzando a formarse una superficie consolidada de amenazas de IA, los investigadores de IBM X-Force anticipan que una vez que el panorama de la industria madure en torno a tecnologías comunes y modelos de habilitación, los actores de amenazas comenzarán a apuntar a estos sistemas de IA de manera más amplia, se lee en el informe. De hecho, esa convergencia está en marcha a medida que el mercado madura rápidamente y ya están surgiendo proveedores líderes en hardware, software y servicios.

Lo más preocupante, según el informe de IBM, son aquellas empresas que no protegen adecuadamente los modelos de IA que construyen y utilizan como parte de sus negocios. La mala aplicación de las herramientas GenAI puede provocar un mal manejo o la filtración de datos confidenciales. Según el informe, el uso de la “IA en la sombra” está aumentando dentro de las organizaciones a medida que los empleados utilizan herramientas GenAI que no han sido aprobadas ni protegidas por los equipos de seguridad empresariales.

Con este fin, IBM anunció en enero un marco para proteger GenAI. Sus principios básicos son centralizar los datos, que se utilizan para entrenar modelos de IA, proteger los modelos mediante una combinación de escaneo de canales de desarrollo en busca de vulnerabilidades, hacer cumplir las políticas y el control de acceso para el uso de la IA y proteger su uso contra ataques basados ​​en modelos de IA en vivo.

Asegurar el canal de IA

El lunes, el equipo de seguridad ofensiva X-Force Red de IBM lanzó un servicio de pruebas de inteligencia artificial que busca evaluar aplicaciones de IA, modelos de IA y canalizaciones de MLSecOps a través de equipos rojos. El miércoles en la Conferencia RSA 2024, IBM presentará “¿Innovar ahora, proteger después?” Decisiones, Decisión…” sobre asegurar y establecer la gobernanza para el canal de IA.

El segundo orador fue Ryan Dougherty, director del programa de tecnología de seguridad de IBM Security. En declaraciones a TechTarget Editorial, dijo que proteger la IA desde el primer momento es una de las principales preocupaciones de IBM Security en el espacio tecnológico. Dijo: Eso es lo que hace que esta área sea tan crítica, particularmente en el caso de la IA generativa: se está integrando profundamente en las aplicaciones y procesos comerciales. La integración del tejido empresarial lo eleva más allá de los riesgos y amenazas potenciales.

Según él, desde una perspectiva empresarial, la IA debe tener una base en su naturaleza real. “La IA generativa se entrena y se pone en funcionamiento en grandes cantidades de datos comerciales confidenciales, y necesitamos proteger esas nuevas joyas de la corona porque ahí es donde entra en juego la ventaja competitiva. Se trata de los datos que tienen estas organizaciones y los conocimientos que obtienen al utilizar la tecnología. IA generativa y hacerla emerger en sus aplicaciones para mejorar sus negocios”, dijo. Dougherty añadió que están pagando mucho dinero por los modelos, que son muy caros. Se está invirtiendo mucho en propiedad intelectual y en inversiones para hacer operativas estas aplicaciones de IA generativa, y las empresas simplemente no pueden permitirse el lujo de protegerlas.