Las imágenes generadas por IA pueden hacer que el usuario perciba contenido falso como original. Por eso, OpenAI, el desarrollador de ChatGPT, ha creado una herramienta que puede determinar si una imagen es el resultado de DALL-E 3, el algoritmo de generación de imágenes que ellos mismos desarrollaron.

El martes, OpenAI les dio a los usuarios la primera oportunidad de probar una herramienta de detección de imágenes que consta de modelos de referencia y ajustados. El objetivo es involucrar a investigadores autónomos para examinar la aprensión, la utilidad, las formas en que podría aplicarse y los factores que podrían causar contenido generado por IA.

Tasa de éxito y pruebas de la herramienta

OpenAI ha probado la herramienta internamente y, en algunos aspectos, ha resultado alentadora, mientras que, por otro lado, ha sido muy decepcionante. Al evaluar las imágenes producidas por DALL-E 3, el 98 % de ellas se reprodujo correctamente. Además, al analizar imágenes no realizadas con DALL-E 3, el sistema las atribuía erróneamente a DALL-E 3 solo el 0,5 % de las veces.

OpenAI no encontró la modificación de una imagen con una diferencia ligeramente significativa. El equipo interno probó la herramienta comprimiendo, recortando e introduciendo cambios de saturación en la imagen creada por DALL-E 3 y observó que la herramienta aún podía lograr un buen nivel de éxito.

Desafíos y limitaciones

Desafortunadamente, la herramienta no resultó muy eficaz con imágenes que habían sido procesadas en gran medida. La redacción de este artículo de OpenAI no es clara sobre cuántas modificaciones hicieron en los casos que describen, y dicen que "otras modificaciones pueden reducir el rendimiento".

En una entrevista con The Wall Street Journal, la investigadora Sandhini Agarwal dijo que la herramienta era menos efectiva en situaciones como cambiar el tono de la imagen y que se requiere una suscripción. Como mencionó Agarwal, para lidiar con este tipo de problemas, OpenAI incorporará probadores externos al sistema.

Además, las pruebas internas también pusieron en duda la capacidad de la herramienta para analizar las imágenes creadas con modelos de IA de otras empresas. En tales situaciones, la herramienta de OpenAI solo pudo reconocer entre el 5% y el 10% de las imágenes con respecto a otros modelos. Tales modificaciones en dichas imágenes, como los cambios de tono, también redujeron significativamente la eficiencia, dijo Agarwal al Journal.

Las imágenes creadas con inteligencia artificial no solo son artificiales, sino que también plantean problemas en este año electoral. Los grupos afectados, tanto dentro como fuera de un país, pueden utilizar fácilmente esas fotos para manchar a un aspirante a político o un caso que se defiende. Hoy en día, cuando los generadores de imágenes de inteligencia artificial siguen desarrollándose, la línea entre la realidad y la fantasía es más difícil de distinguir que nunca.

Adopción por parte de la industria

Por otro lado, OpenAI busca agregar marcas de agua a los metadatos de imágenes de IA a medida que las empresas se vuelven miembros de la User Value Organization (UVG). La C2PA pertenece a una iniciativa de la industria tecnológica que viene con estándares técnicos para revelar la fuente del contenido y su autenticidad en el proceso conocido como marca de agua. El gigante de Facebook Meta dijo a principios de este mes que su IA será etiquetada como tal por el estándar C2PA a partir de mayo.