Según Cointelegraph, Kang Li, director de seguridad de la firma de seguridad blockchain CertiK, advirtió que las herramientas de inteligencia artificial (IA) como ChatGPT de OpenAI podrían crear más problemas, errores y vectores de ataque si se usan para escribir contratos inteligentes y construir proyectos de criptomonedas. . Li explicó que ChatGPT no puede detectar errores de código lógico de la misma manera que lo hacen los desarrolladores experimentados, y puede crear más errores de los que identifica, lo que podría ser desastroso para los codificadores novatos o aficionados que buscan construir sus propios proyectos.
Li cree que ChatGPT debería usarse como asistente de ingeniero porque explica mejor lo que realmente significa una línea de código. Hizo hincapié en que no se debe confiar en él para escribir código, especialmente por parte de programadores sin experiencia que buscan crear algo monetizable. Li dijo que respaldará sus afirmaciones durante al menos los próximos dos o tres años, ya que reconoció que los rápidos avances en IA pueden mejorar enormemente las capacidades de ChatGPT.
En noticias relacionadas, Richard Ma, cofundador y director ejecutivo de la empresa de seguridad Web3 Quantstamp, dijo a Cointelegraph que las herramientas de inteligencia artificial se están volviendo más exitosas en los ataques de ingeniería social, y muchos de ellos son idénticos a los intentos de los humanos. Ma dijo que los clientes de Quantstamp están informando de una cantidad alarmante de intentos de ingeniería social cada vez más sofisticados y cree que nos acercamos a un punto en el que no sabremos si los mensajes maliciosos son generados por IA o por humanos. Ma dijo que está llegando al mercado un mejor software antiphishing que puede ayudar a las empresas a mitigar posibles ataques.