GoPlus Security Research: ¡El efecto espada de doble filo de la tecnología de cambio facial de IA!

En los últimos años, con el rápido desarrollo de la tecnología de inteligencia artificial, una tecnología llamada "cambio de rostro de IA" ha ido saliendo gradualmente a la luz pública. Los orígenes de esta tecnología se remontan a 2017, cuando Supasorn Suwajanakorn, investigador de la Universidad de Washington, y otros lanzaron un proyecto llamado "Sintetizar a Obama" mediante tecnología de aprendizaje profundo. En este proyecto, modificaron con éxito un videoclip de Barack Obama para que pronunciara palabras de una nueva pista de audio que no tenía nada que ver con el video. El núcleo de esta tecnología radica en la aplicación integral de la red neuronal recurrente (RNN) y la tecnología de síntesis bucal. El efecto es tan realista que el audio y los movimientos de la boca en el video son casi indistinguibles.

Con la llegada de esta tecnología, han surgido varios vídeos y comunidades. Una gran cantidad de productores de video han comenzado a utilizar tecnología de cambio de rostro de IA para agregar varios efectos especiales complejos y tecnología de superresolución a sus trabajos, haciendo que la calidad de su trabajo parezca real. Estos videos se difunden ampliamente en YouTube, Instagram, TikTok y otras plataformas. Según las estadísticas, el número total de visualizaciones de videos relacionados con Deepfakes ha superado los 10 mil millones de veces. Algunos productores de vídeos de alta calidad incluso han superado el millón de visitas en un solo vídeo.

Sin embargo, detrás de esta locura, también debemos tener cuidado con los posibles daños causados ​​por la tecnología de IA que cambia la cara. La serie DeepFaceLab, el software de cambio de rostros más exitoso en la comunidad de código abierto, es uno de los representantes. Desarrollado por Ivan Perov y Daiheng Gao, entre otros, este software cuenta con más de 66.000 estrellas de GitHub y es uno de los diez mejores proyectos de código abierto de IA en 2020, junto a gigantes como Tensorflow y PyTorch. Vale la pena mencionar que Daiheng Gao también es consultor de inteligencia artificial para GoPlus y se enfoca en investigaciones para prevenir el abuso de tecnología.

Aunque la tecnología de IA que cambia la cara nos ha brindado experiencias creativas y de entretenimiento sin precedentes, también debemos darnos cuenta de que esta tecnología también puede usarse con fines maliciosos. Por ejemplo, al reemplazar imágenes faciales en videos, los delincuentes pueden crear propaganda política falsa, contenido pornográfico o ataques maliciosos contra otros.

Por lo tanto, el equipo de GoPlus hace un llamado al público en general a estar atento al utilizar tecnología de cambio de rostro de IA y evitar su uso con fines ilegales o maliciosos.