Un'indagine del The Guardian ha rivelato potenziali vulnerabilità di sicurezza nello strumento di ricerca ChatGPT di OpenAI, evidenziando preoccupazioni sulla sua suscettibilità alla manipolazione tramite contenuti nascosti nelle pagine web. I risultati suggeriscono che ChatGPT può essere influenzato da istruzioni di terze parti incorporate nel testo nascosto, generando potenzialmente riassunti distorti o fuorvianti.
I test condotti da The Guardian hanno dimostrato che anche quando le pagine web contenevano commenti negativi, istruzioni nascoste potevano indurre ChatGPT a restituire recensioni positive ingiustificate. Jacob Larsen, esperto di sicurezza informatica presso CyberCX, ha avvertito che lo stato attuale dello strumento potrebbe consentire ad attori malintenzionati di progettare siti web mirati a ingannare gli utenti, ponendo rischi significativi.
Con l'aumentare delle preoccupazioni, gli esperti sottolineano la necessità di robuste misure di sicurezza per affrontare queste vulnerabilità prima di un'implementazione più ampia dello strumento. OpenAI deve ancora commentare le potenziali misure per mitigare questi rischi.