“Sebbene disponiamo di misure di salvaguardia, il sistema può occasionalmente generare informazioni errate o fuorvianti e produrre contenuti offensivi o parziali. Non si intende dare consigli”.
– Disclaimer di apertura di OpenAI
E questo ci porta al cuore della nostra più grande paura: cosa succede quando la tecnologia si rivolta contro di noi?
Cosa succede quando la tecnologia viene implementata prematuramente senza i test e le conoscenze adeguate alla base delle sue capacità?
All'inizio di questo mese, OpenAI, la società di intelligenza artificiale (AI) più chiacchierata al mondo, ha appena ricevuto la sua prima causa per diffamazione che mostra ulteriormente i pericoli della capacità incontrollata di ChatGPT di generare risultati che non hanno alcun supporto fattuale o legale.
Mark Walters, un conduttore radiofonico nazionale della Georgia, ha intentato una causa contro OpenAI il 5 giugno sostenendo che il suo chatbot basato sull'intelligenza artificiale, ChatGPT, ha inventato azioni legali contro di lui.
La denuncia di 13 pagine fa riferimento al giornalista di AmmoLand.com Fred Riehl e alla sua richiesta del 4 maggio a ChatGPT di riassumere il caso legale della Second Amendment Foundation contro Ferguson, un caso federale depositato presso la corte federale di Washington che accusava il procuratore generale dello stato Bob Ferguson di abuso il suo potere raffreddando le attività della fondazione per i diritti delle armi e fornendo al chatbot OpenAI un collegamento alla causa.
Anche se Walter non è stato nominato in quella causa originale, ChatGPT ha risposto alla richiesta sommaria di Riehl alla Second Amendment Foundation, affermando che era:
"...una denuncia legale presentata da Alan Gottlieb, fondatore e vicepresidente esecutivo della Second Amendment Foundation (SAF), contro Mark Walters, accusato di frode e appropriazione indebita di fondi dalla SAF."
Ma è qui che le cose diventano distorte e pericolose: nessuna delle dichiarazioni di ChatGPT riguardanti Walters si trova nella vera denuncia SAF.
Questa "denuncia" generata dall'intelligenza artificiale affermava inoltre che Walters, che ricopriva il ruolo di tesoriere e direttore finanziario dell'organizzazione, "si era appropriato indebitamente di fondi per spese personali senza autorizzazione o rimborso, aveva manipolato i registri finanziari e gli estratti conto bancari per nascondere le sue attività e non aveva fornito informazioni accurate" e tempestive relazioni finanziarie e informative alla leadership della SAF."
Come forma di risarcimento, il querelante avrebbe chiesto “il recupero dei fondi sottratti, il risarcimento dei danni per violazione del dovere fiduciario e frode e la rimozione di Walter dalla sua posizione di membro del consiglio di amministrazione della SAF”.
Tuttavia, qui sta il problema: secondo Walters, "[ogni] affermazione di fatto nel riepilogo [ChatGPT] riguardante [lui] è falsa" mentre il chatbot di OpenAI è arrivato addirittura a creare "un numero di caso errato".
"Le accuse di ChatGPT riguardanti Walters erano false e dannose, espresse in stampa, scritti, immagini o segni, che tendevano a danneggiare la reputazione di Walter ed esponendolo all'odio, al disprezzo o al ridicolo del pubblico", afferma la causa. "Inviando le accuse a Riehl, [OpenAI] ha pubblicato materiale diffamatorio riguardante Walters."
Se chiedessi a ChatGPT di fornire un riepilogo della causa di SAF citata nella denuncia di Walters, potresti anche ricevere una risposta simile a questa:
“Mi scuso, ma come modello linguistico di intelligenza artificiale, le mie risposte si basano su conoscenze preesistenti fino a settembre 2021. Pertanto, non posso accedere o navigare in Internet o visualizzare documenti o collegamenti specifici che sono stati pubblicati dopo il limite delle mie conoscenze. Di conseguenza, non sono in grado di fornirti un riepilogo delle accuse nella causa che hai citato...[per] ottenere informazioni sulla causa e le sue accuse, ti consiglio di rivedere il documento tu stesso o di fare riferimento a fonti di notizie attendibili o siti Web legali che potrebbe aver coperto il caso. Possono fornirti informazioni accurate e aggiornate riguardo alla causa specifica che hai menzionato.
Anche se OpenAI non ha risposto ad alcun commento sulla causa per diffamazione in corso di Walters, si pone la questione del perché la società di intelligenza artificiale non stia esercitando maggiori pressioni su queste conseguenze probabilmente prevedibili di un codice che è stato in retrospettiva, implementato negligentemente senza i test adeguati. .
Il caso è Mark Walters contro OpenAI, LLC, cv-23-A-04860-2.
Puoi leggere la denuncia di Walter del 5 giugno qui.
Tra le altre notizie, leggi l'incontro del presidente degli Stati Uniti Joe Biden con 8 leader tecnologici per affrontare i pregiudizi legati all'intelligenza artificiale e i vantaggi per la forza lavoro.
Clicca qui per vedere la gallery completa su Hypemoon