Según Cointelegraph, el gigante de las redes sociales Meta ha disuelto su división de IA Responsable (RAI), que se dedicaba a regular la seguridad de sus empresas de inteligencia artificial durante el desarrollo y el despliegue. Muchos miembros del equipo de RAI han pasado a desempeñar funciones dentro de la división de productos de IA generativa de la empresa, mientras que algunos se han unido al equipo de Infraestructura de IA. Establecido en febrero, el equipo de IA generativa de Meta se centra en el desarrollo de productos que generan lenguaje e imágenes para imitar versiones creadas por humanos.
La reestructuración de la división RAI se produce cuando Meta se acerca al final de su "año de eficiencia", como lo llamó el director ejecutivo Mark Zuckerberg durante una conferencia telefónica sobre resultados en febrero. Esto ha resultado en una serie de despidos, fusiones de equipos y redistribuciones en la empresa. Garantizar la seguridad de la IA se ha convertido en una prioridad para los principales actores del sector, particularmente a medida que los reguladores y funcionarios prestan más atención a los daños potenciales de la tecnología incipiente. En julio, Anthropic, Google, Microsoft y OpenAI formaron un grupo industrial centrado en establecer estándares de seguridad a medida que avanza la IA.
A pesar de la redistribución de los miembros del equipo RAI dentro de la empresa, siguen comprometidos a apoyar el desarrollo y uso responsable de la IA, enfatizando la inversión continua en esta área. Meta presentó recientemente dos modelos generativos impulsados por IA. El primero, Emu Video, aprovecha el modelo Emu anterior de Meta y puede generar clips de vídeo basados en entradas de texto e imágenes. El segundo modelo, Emu Edit, se centra en la manipulación de imágenes y promete una mayor precisión en la edición de imágenes. Cointelegraph se comunicó con Meta para obtener más información, pero no recibió comentarios al momento de la publicación.