Las imágenes generadas por IA pueden engañarte haciéndote percibir el contenido falso como original. Es por eso que OpenAI, el desarrollador de ChatGPT, ha creado una herramienta que puede determinar si una imagen resulta de DALL-E 3, el único algoritmo para la generación de imágenes que desarrollaron.

El martes, OpenAI brindó a los usuarios la primera oportunidad de probar una herramienta de detección de imágenes que consta de modelos de referencia y ajustados. El objetivo es involucrar a investigadores autónomos para examinar la aprensión, la utilidad, las formas en que podría aplicarse y los factores que podrían causar contenido generado por IA.

Tasa de éxito y pruebas de la herramienta

OpenAI ha probado la herramienta internamente y, en algunos aspectos, ha sido alentadora, mientras que, por otro lado, ha sido muy decepcionante. La evaluación de las imágenes producidas por DALL-E 3 representó el 98% de ellas correctamente. Además, al analizar imágenes no tomadas por DALL-E 3, el sistema las atribuiría erróneamente a DALL-E 3 solo el 0,5% de las veces. 

OpenAI no encontró la modificación de una imagen con una diferencia ligeramente significativa. El equipo interno probó la herramienta comprimiendo, recortando e introduciendo cambios de saturación en la imagen creada por DALL-E 3 y observó que la herramienta aún podía lograr un buen nivel de éxito. 

Desafíos y limitaciones

Desafortunadamente, la herramienta no fue muy efectiva con imágenes que habían sido procesadas extensamente. La redacción de este artículo de OpenAI no es clara sobre cuántas modificaciones hicieron en los casos que describen, y dicen que "otras modificaciones pueden reducir el rendimiento". 

En una entrevista con The Wall Street Journal, Sandhini Agarwal, investigadora, dijo que la herramienta era menos efectiva en situaciones como cambiar el tono de la imagen y que se requiere una suscripción. Como mencionó Agarwal, para abordar este tipo de problemas, OpenAI incorporará probadores externos al sistema. 

Además, las pruebas internas también cuestionaron la capacidad de la herramienta para analizar imágenes creadas con modelos de IA de otras empresas. En tales situaciones, la herramienta de OpenAI podría reconocer solo el 5% o el 10% de las imágenes con respecto a otros modelos. Tales modificaciones en tales imágenes, como cambios de tono, también disminuyeron significativamente la eficiencia, dijo Agarwal al Journal.

Las imágenes creadas por IA no sólo son artificiales sino que también plantean problemas en este año electoral. Los grupos agraviados, tanto dentro como fuera de un país, pueden fácilmente emplear este tipo de fotografías para manchar a un aspirante a político o un caso por el que se está defendiendo. Hoy en día, cuando los generadores de imágenes de IA continúan desarrollándose, la línea entre la realidad y la fantasía es más difícil que nunca. 

Adopción de la industria

Por otro lado, OpenAI busca agregar marcas de agua a los metadatos de imágenes de IA a medida que las empresas se convierten en miembros de la User Value Organization (UVG). El C2PA pertenece a una iniciativa de la industria tecnológica que viene con estándares técnicos para revelar la fuente del contenido y su autenticidad en el proceso conocido como marca de agua.  El gigante de Facebook Meta dijo a principios de este mes que su IA será etiquetada como tal según el estándar C2PA a partir de mayo.