Según Cointelegraph, OpenAI, la empresa de investigación e implementación de inteligencia artificial (IA) detrás de ChatGPT, ha anunciado la creación de un nuevo equipo dedicado a rastrear, evaluar, pronosticar y proteger contra posibles riesgos catastróficos derivados de la IA. La nueva división, llamada "Preparación", se centrará en las amenazas de IA relacionadas con amenazas químicas, biológicas, radiológicas y nucleares, la persuasión individualizada, la ciberseguridad y la replicación y adaptación autónomas.

Dirigido por Aleksander Madry, el equipo de Preparación intentará responder preguntas como cuán peligrosos son los sistemas de inteligencia artificial fronterizos cuando se usan indebidamente y si actores maliciosos podrían implementar pesos de modelos de inteligencia artificial robados. OpenAI reconoce que, si bien los modelos de IA de vanguardia tienen el potencial de beneficiar a la humanidad, también plantean riesgos cada vez más graves. La empresa se compromete a abordar todo el espectro de riesgos de seguridad relacionados con la IA, desde los sistemas actuales hasta los confines más lejanos de la superinteligencia.

OpenAI actualmente está buscando talentos con diversos antecedentes técnicos para su nuevo equipo de Preparación y está lanzando un Desafío de Preparación de IA para la prevención de uso indebido catastrófico, ofreciendo $25,000 en créditos API a sus 10 presentaciones principales. Los riesgos asociados con la inteligencia artificial se han destacado con frecuencia, con la preocupación de que la IA pueda llegar a ser más inteligente que cualquier ser humano. A pesar de estos riesgos, empresas como OpenAI continúan desarrollando nuevas tecnologías de IA, lo que genera más preocupaciones. En mayo de 2023, la organización sin fines de lucro Center for AI Safety publicó una carta abierta sobre el riesgo de la IA, instando a la comunidad a mitigar los riesgos de extinción de la IA como una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.