Secondo U.Today, David Schwartz, direttore tecnico di Ripple, ha recentemente attirato l'attenzione su una significativa controversia relativa all'intelligenza artificiale sul suo profilo social. Schwartz ha condiviso un post virale su Reddit in cui si afferma che una famiglia è stata avvelenata dopo essersi affidata a un libro di identificazione dei funghi che sarebbe stato generato dall'intelligenza artificiale. L'utente di Reddit ha riferito che l'intera famiglia è finita in ospedale dopo aver consumato funghi velenosi identificati tramite il libro.

Il libro, acquistato da un importante rivenditore, conteneva immagini e testo che sembravano generati dall'intelligenza artificiale. Il testo includeva persino alcune risposte standard di un chatbot. Sebbene il rivenditore abbia accettato di rimborsare il libro, permangono preoccupazioni riguardo ad altri libri di bassa qualità ancora disponibili sul suo sito web. Il poster di Reddit ha messo in dubbio se tale negligenza potesse essere segnalata alla polizia per ritenere i creatori responsabili.

Schwartz commentò la situazione, tracciando un parallelo con il caso Winter contro G.P. Putnam's Sons del 1991 della Corte d'appello. In quel caso, due giovani adulti si ammalarono gravemente dopo aver utilizzato un libro intitolato "The Encyclopedia of Mushrooms" come guida di riferimento. Il libro, distribuito da G.P. Putnam's Sons, conteneva informazioni dettagliate sull'identificazione, la raccolta e la cottura dei funghi. La coppia, che aveva bisogno di trapianti di fegato a causa delle informazioni errate, fece causa all'editore per responsabilità del prodotto, negligenza e falsa dichiarazione. Tuttavia, la corte si schierò con l'editore nonostante le gravi conseguenze affrontate dai cercatori di funghi.

L'incidente sottolinea la crescente preoccupazione per la proliferazione di libri di bassa qualità generati dall'intelligenza artificiale, che potrebbero rendere sempre più difficile per i lettori ottenere informazioni accurate. Il post di Schwartz serve come avvertimento sui potenziali pericoli di affidarsi a contenuti generati dall'intelligenza artificiale per informazioni critiche.