“Si bien contamos con medidas de seguridad, el sistema ocasionalmente puede generar información incorrecta o engañosa y producir contenido ofensivo o sesgado. No pretende dar consejos”.

– Descargo de responsabilidad de apertura de OpenAI

Y eso nos lleva al corazón de nuestro mayor temor: ¿qué sucede cuando la tecnología se vuelve contra nosotros? 

¿Qué sucede cuando la tecnología se implementa prematuramente sin las pruebas y el conocimiento adecuados detrás de sus capacidades?

A principios de este mes, OpenAI, la empresa de inteligencia artificial (IA) más comentada del mundo, acaba de recibir su primera demanda por difamación que muestra aún más los peligros de la capacidad desenfrenada de ChatGPT para generar resultados que no tienen respaldo fáctico o legal.

Mark Walters, un locutor de radio sindicado a nivel nacional en Georgia, presentó su demanda contra OpenAI el 5 de junio alegando que su chatbot impulsado por IA, ChatGPT, fabricó demandas legales en su contra. 

La denuncia de 13 páginas hace referencia al periodista de AmmoLand.com Fred Riehl y su solicitud del 4 de mayo a ChatGPT para resumir el caso legal de la Fundación de la Segunda Enmienda contra Ferguson, un caso federal presentado en un tribunal federal de Washington que acusó al fiscal general del estado, Bob Ferguson, de abusar de su poder al congelar las actividades de la fundación por los derechos de las armas y proporcionó al chatbot OpenAI un enlace a la demanda. 

Si bien Walter no fue nombrado en esa demanda original, ChatGPT respondió a la solicitud resumida de Riehl a la Fundación de la Segunda Enmienda, afirmando que era:

"...una denuncia legal presentada por Alan Gottlieb, fundador y vicepresidente ejecutivo de la Fundación de la Segunda Enmienda (SAF), contra Mark Walters, acusado de defraudar y malversar fondos de la SAF".

Pero aquí es donde las cosas se distorsionan y se vuelven peligrosas: ninguna de las declaraciones de ChatGPT sobre Walters se encuentra en la denuncia real de SAF. 

Esta “queja” generada por IA también alegaba que Walters, quien se desempeñó como tesorero y director financiero de la organización, “malversó fondos para gastos personales sin autorización ni reembolso, manipuló registros financieros y extractos bancarios para ocultar sus actividades y no proporcionó datos precisos”. e informes y divulgaciones financieras oportunas al liderazgo de la SAF”.

Como forma de reparación, el demandante supuestamente buscaba “la recuperación de los fondos malversados, daños y perjuicios por incumplimiento del deber fiduciario y fraude, y la destitución de Walter de su cargo como miembro de la junta directiva de la SAF”.

Sin embargo, aquí radica el problema: según Walters, "[t]ada declaración de hecho en el resumen [ChatGPT] relacionado con [él] es falsa", donde el chatbot de OpenAI llegó incluso a crear "un número de caso erróneo".

"Las acusaciones de ChatGPT sobre Walters eran falsas y maliciosas, expresadas en forma impresa, escrita, imágenes o carteles, y tendían a dañar la reputación de Walter y exponerlo al odio, el desprecio o el ridículo públicos", afirma la demanda. "Al enviar las acusaciones a Riehl, [OpenAI] publicó material difamatorio sobre Walters".

Si le pidiera a ChatGPT que proporcionara un resumen de la demanda de SAF citada en la denuncia de Walters, también podría recibir una respuesta similar a esta:

“Pido disculpas, pero como modelo de lenguaje de IA, mis respuestas se basan en conocimientos preexistentes hasta septiembre de 2021. Por lo tanto, no puedo acceder ni navegar por Internet ni ver documentos o enlaces específicos que se publicaron después de mi límite de conocimientos. En consecuencia, no puedo brindarle un resumen de las acusaciones en la demanda que mencionó... [para obtener información sobre la demanda y sus acusaciones, le recomiendo revisar el documento usted mismo o consultar fuentes de noticias confiables o sitios web legales que pudo haber cubierto el caso. Pueden brindarle información precisa y actualizada sobre la demanda específica que mencionó”.

Si bien OpenAI no ha respondido a ningún comentario sobre la demanda por difamación en curso de Walters, sí plantea la pregunta de por qué la compañía de inteligencia artificial no está presionando más sobre estas consecuencias previsibles de un código que, en retrospectiva, se implementó negligentemente sin las pruebas adecuadas. .

El caso es Mark Walters contra OpenAI, LLC, cv-23-A-04860-2.

  • Puede leer la denuncia de Walter del 5 de junio aquí. 

En otras noticias, lea sobre la reunión del presidente estadounidense Joe Biden con ocho líderes tecnológicos para abordar el sesgo de la IA y los beneficios para la fuerza laboral.

Haga clic aquí para ver la galería completa en Hypemoon