Yu Xian, el fundador de Slowmist, una empresa de seguridad en blockchain, ha destacado el peligro emergente de la contaminación del código de IA. Esta táctica maliciosa implica insertar código dañino en los datos de entrenamiento de los modelos de IA, poniendo en peligro a los usuarios que dependen de estas herramientas para fines técnicos. El problema salió a la luz tras un incidente con ChatGPT de OpenAI, donde un usuario perdió $2,500 en activos digitales debido a una recomendación de API fraudulenta. A pesar de las sospechas, parece que la contaminación no fue intencional, sino un fallo en detectar enlaces fraudulentos en los resultados de búsqueda. El registro del dominio de la API fraudulenta dos meses antes sugiere premeditación. Scam Sniffer también notó cómo los estafadores manipulan los datos de entrenamiento de IA para generar salidas fraudulentas. Con el uso creciente de herramientas de IA como ChatGPT, los usuarios enfrentan mayores riesgos. Xian advierte sobre la amenaza real que representa la contaminación de IA, instando a defensas más sólidas para prevenir pérdidas financieras adicionales y mantener la confianza en las tecnologías impulsadas por IA. Lee más noticias generadas por IA en: https://app.chaingpt.org/news