Una investigación de The Guardian ha revelado posibles vulnerabilidades de seguridad en la herramienta de búsqueda ChatGPT de OpenAI, lo que pone de relieve la preocupación por su susceptibilidad a la manipulación a través de contenido oculto en páginas web. Los hallazgos sugieren que ChatGPT puede verse influenciado por instrucciones de terceros incrustadas en texto oculto, lo que podría generar resúmenes sesgados o engañosos.
Las pruebas realizadas por The Guardian demostraron que incluso cuando las páginas web contenían comentarios negativos, las instrucciones ocultas podían hacer que ChatGPT devolviera reseñas positivas injustificadas. Jacob Larsen, experto en ciberseguridad de CyberCX, advirtió que el estado actual de la herramienta podría permitir a los actores maliciosos diseñar sitios web destinados a engañar a los usuarios, lo que plantea riesgos significativos.
A medida que aumentan las preocupaciones, los expertos enfatizan la necesidad de contar con sólidas salvaguardas para abordar estas vulnerabilidades antes de que se implemente la herramienta de manera más amplia. OpenAI aún no ha comentado sobre posibles medidas para mitigar estos riesgos.