Un experto en ciberseguridad reveló que la IA es una amenaza de ciberseguridad insegura para las corporaciones que la utilizan como servicio, no solo mediante la ejecución de ataques por parte de delincuentes sino también de manera legítima.

Las cibervulnerabilidades de la IA

Si bien se ha debatido ampliamente la amenaza que representan los malos actores que utilizan la IA para realizar ataques, Peter Garraghan, director ejecutivo y director de tecnología de Midgard, que proporciona ciberseguridad específicamente para la IA, dice a Verdict: “El problema que tengo en mente es una amenaza de ciberseguridad para la IA que es el del tema.”

Como era de esperar, el uso más común y, por tanto, más riesgoso, de la IA por parte de las empresas se relaciona con los chatbots que sirven como servicio al cliente y cuyo tono y datos suelen estar personalizados para las organizaciones que representan. Aquí es donde el Dr. Garraghan, profesor de informática de la Universidad de Lancaster especializado en sistemas y seguridad de IA, decidió fundar Mindgard en 2022. “La IA no es mágica”, afirma. Es simplemente una combinación de codificación, datos y hardware adicionales. Dadas las amenazas cibernéticas modernas, todas estas amenazas también pueden manifestarse en la IA.

Pensémoslo de esta manera: supongamos que un atacante utiliza un proceso conocido como inyección SQL. Un atacante puede utilizar ese proceso para explotar vulnerabilidades en campos de formularios web, como el inicio de sesión en un sitio web o el formulario de contacto. Otra forma en que se puede utilizar la ingestión de teleprompter es la inyección rápida, que se utiliza en aplicaciones públicas. En primer lugar, si la seguridad no se garantiza adecuadamente, las herramientas de IA prácticamente pueden verse obligadas a filtrar su código fuente e instrucciones, la propiedad intelectual de la empresa o los datos de los clientes. En segundo lugar, las herramientas de inteligencia artificial pueden someterse a ingeniería inversa, al igual que otras aplicaciones de software, para identificar fallas.

Asegurar los sistemas de IA

Garraghan dice sobre la gravedad del problema: En el futuro previsto, dentro de unos años, puede surgir el factor de seguridad nacional, o las personas privadas de sus derechos pueden estar en riesgo. La nueva información parece una advertencia: una empresa debe tener cuidado con los datos publicados.

Garraghan dice: “Es más, la IA puede servir como herramienta de ciberataque en la que puede filtrar datos; El modelo podrá proporcionarle los datos que tan amablemente solicitó”. Al presentar un ejemplo en enero, la plataforma de redes sociales de derecha Gab buscó tutoriales que accidentalmente revelaran sus instrucciones. Anteriormente, OpenAI también había utilizado indebidamente sus modelos de la plataforma basada en GPT.

Garraghan continúa: “Se puede obtener información a partir de ataques VoIP no autorizados. Además, se puede aplicar ingeniería inversa a la IA y el sistema se puede eludir o engañar para que tenga acceso abierto a otros sistemas. Por lo tanto, la fuga de información podría ser una de las principales áreas que afectan a todas las industrias, incluidas aquellas que pueden enfrentarse externa o internamente”. También enumera otros riesgos, como la evasión del modelo, por la cual el modelo está equivocado o se elude intencionalmente mediante la fabricación de datos engañosos.

Garraghan señaló que insertar comandos maliciosos o contaminar datos con soluciones mal concebidas en pistas de audio es otra amenaza. Además, señala que el impacto cibernético general es el daño a la reputación que comúnmente se experimenta después de los ataques cibernéticos. De manera similar, las áreas con mayor riesgo de sufrir las consecuencias negativas de este tipo de ciberataque son donde hay más en juego. Dado que muchas industrias e instituciones operan en línea, la seguridad pública y la falta de información confidencial filtrada, por ejemplo, son valores importantes que los servicios financieros y los sectores de atención médica deben priorizar.

Garraghan dice: El vínculo aquí es que cuanto más estructurado y controlador sea uno en su industria y más riesgos enfrente de la IA (y también de la experiencia: cuanto menos use la IA, menos la adoptará), peor será su IA. Quizás no sean ellos los más vagos. Por ejemplo, es posible que simplemente estén pasando por las etapas más graves de su vida.

Medidas de seguridad proactivas de IA

La IA se hará cargo de esos riesgos en cualquier empresa específica, aunque afirma que requerirá capas de seguridad (porque la IA en las empresas ya las necesita) para la protección de los usuarios. “Ya dispones de herramientas de ciberseguridad especializadas en diferentes sectores”, afirma Garraghan. “Estas pueden ser herramientas de gestión de la postura de seguridad, detección, herramientas de respuesta, firewalls y soporte para el diseño de cambio a la izquierda, como el escaneo de códigos. Pronto necesitarán IA en consonancia con la transformación digital”. El género se especializa exclusivamente en IA y ML, mientras que sistemas como las redes neuronales solo se mencionan ocasionalmente.

Necesitará un escáner de aplicaciones de redes neuronales, un sistema de respuesta de todo tipo de redes neuronales, pruebas de seguridad y equipos rojos para un mejor control entre aplicaciones, y necesitará un sistema de respuesta de todo tipo de redes neuronales. Es más fácil solucionarlos y remediarlos temprano que los problemas de tiempo de ejecución. Sin embargo, la mejor práctica que recomendamos a las organizaciones que utilizan modelos de IA o aplicaciones y servicios de IA adquiridos es que antes de pasar a producción, sea más fácil solucionar todos los problemas con los modelos. Luego, una vez que pasa a producción, sólo se pueden identificar los problemas que deben solucionarse.

En pocas palabras, la opinión de Garraghan es la siguiente: “Lo mejor, si la ciberseguridad comienza con yo, es simplemente intercambiar aplicaciones o software con IA como herramienta. ¿No? Necesita seguridad de las aplicaciones para detectar amenazas. También se incluye la IA como herramienta”.