Microsoft ha lanzado un chatbot de IA elaborado con tecnología GPT-4, que está diseñado exclusivamente para que las agencias de inteligencia de EE. UU. lo utilicen sin conexión en un entorno seguro. Tal desarrollo implica un avance sustancial, ya que es el primer caso en el que se implementa un MLM dentro de un entorno clasificado que promueve el procesamiento seguro de información sin riesgos relacionados con Internet.

Microsoft $MSFT ha creado un modelo de IA generativa basado en GPT-4 aislado de Internet, que permite a las agencias de inteligencia estadounidenses analizar información ultrasecreta con el LLM.

– Beth Kindig (@Beth_Kindig) 7 de mayo de 2024

IA segura y aislada para sistemas inteligentes

El AI Chatbot recientemente desarrollado, que aún no ha sido nombrado públicamente, fue desarrollado para hacer frente a la creciente demanda de uso de tecnologías avanzadas de IA generativa, por un lado, y proteger contra los posibles riesgos de violaciones de datos o amenazas cibernéticas, por el otro. A diferencia de los sistemas generales basados ​​en la nube como ChatGPT, que tienen el riesgo inherente de interceptación de datos, esta IA especializada opera independientemente de Internet, lo que hace que las interacciones y el análisis de datos sean más seguros.

El director de tecnología de Microsoft, William Chappell, destacó que esta preparación implicó una misión de 18 meses para personalizar una supercomputadora de inteligencia artificial en Iowa para albergar el modelo GPT-4. Chappell subraya el papel fundamental de esta red aislada, a la que sólo pueden acceder funcionarios gubernamentales con ciudadanía estadounidense.

Características y desventajas del GPT-4 en operaciones de inteligencia.

El modelo GPT-4 modificado ayuda al examen de archivos del usuario y simula las conversaciones de ChatGPT o Microsoft Copilot. Esta novedad es diferente de las plataformas de IA basadas en la nube conocidas anteriormente, ya que crea un entorno protector contra fuerzas externas. Sin embargo, los modelos de lenguaje de IA, aunque eficientes, poseen limitaciones inherentes. La otra cara de la moneda es la posibilidad de que la IA pueda producir resúmenes o conclusiones inexactas gracias a su naturaleza fundamental que se basa en probabilidades estadísticas y no en bases de datos completas.

La preocupación de los expertos es que esto podría llevar a la tendencia de la IA a confabular o malinterpretar los datos. Aunque GPT-4 es capaz de procesar el lenguaje natural y puede simular conversaciones humanas, un analista humano sigue siendo insuperable en lo que respecta al contexto y los hechos precisos. Para superar este desafío, las agencias de inteligencia podrían investigar métodos como RAG que aumenten el rendimiento de la IA integrando fuentes de datos externas con ella.

Implementación y prueba de AI Chatbot

El jueves pasado se lanzó con éxito el AI Chatbot, al que pueden acceder unos 10.000 empleados de diferentes agencias de inteligencia para realizar pruebas, seguimiento y evaluación iniciales. Este despliegue representa un hito importante en una misión de integración de tecnologías avanzadas de inteligencia artificial en operaciones clasificadas, lo que podría generar cambios revolucionarios en la forma en que los analistas de inteligencia interactúan y analizan grandes cantidades de datos de manera segura.

El lanzamiento por parte de Microsoft de un chatbot de inteligencia artificial seguro e independiente impulsado por GPT-4 personifica un avance significativo en el área del análisis de inteligencia. Esta iniciativa logra ese objetivo mediante la utilización de modelos de lenguaje avanzados y al mismo tiempo hace frente a los riesgos de ciberseguridad causados ​​por la conectividad a Internet. Por el contrario, las limitaciones intrínsecas de los modelos de lenguaje de IA ponen de relieve la necesidad de otros enfoques junto con ellos para hacer que la información de inteligencia sea precisa y confiable.