Varios empleados actuales y anteriores de OpenAI y Google DeepMind acusaron a sus empresas de ocultar los riesgos de la IA que podrían desencadenar la extinción humana. En una carta abierta, los trabajadores alegaron que las empresas de inteligencia artificial están dando prioridad a las ganancias y evitando al mismo tiempo una “supervisión [gubernamental] efectiva”.

Lea también: OpenAI alinea al sucesor de GPT-4 en medio de preocupaciones de seguridad

La carta abierta fue firmada por 11 ex empleados de OpenAI, dos de Google DeepMind, y respaldada por el “padrino de la IA” Geoffrey Hinton, ex empleado de Google. Dijo que los motivos de lucro y las lagunas regulatorias permiten a las empresas encubrir las amenazas planteadas por la inteligencia artificial avanzada.

La IA podría conducir a la "extinción humana"

Según la carta, empresas de inteligencia artificial como OpenAI y Google DeepMind, creador de Gemini, no han compartido públicamente información sobre las salvaguardias inadecuadas y los niveles de riesgo de sus sistemas porque no están obligados a hacerlo.

Sin supervisión regulatoria, los programas de IA podrían causar daños importantes a los humanos. Los empleados advirtieron:

"Estos riesgos van desde un mayor afianzamiento de las desigualdades existentes... hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".

Como señalaron los firmantes de la carta, las propias empresas de IA han reconocido estos riesgos. En mayo de 2023, los directores ejecutivos de OpenAI, Anthropic y Google DeepMind firmaron conjuntamente una carta abierta del Centro para la seguridad de la IA. La carta simplemente decía: "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear".

Las empresas de IA han sido cada vez más objeto de escrutinio por anteponer productos novedosos y ganancias a la seguridad y la protección. OpenAI, creador de ChatGPT, tomó nota de las preocupaciones planteadas en la carta y dijo que está trabajando para desarrollar una inteligencia artificial que sea segura.

“Estamos orgullosos de nuestro historial al proporcionar la IA más capaz y segura. sistemas y creemos en nuestro enfoque científico para abordar el riesgo”, dijo la portavoz de OpenAI, Lindsey Held, al New York Times.

"Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología, y continuaremos interactuando con los gobiernos, la sociedad civil y otras comunidades de todo el mundo".

Los denunciantes temen represalias

Los ex empleados de OpenAI y Google dijeron que les gustaría desempeñar el papel de supervisión mientras los reguladores elaboran leyes que obliguen a los desarrolladores de IA a revelar públicamente más información sobre sus programas.

Sin embargo, los acuerdos de confidencialidad y la probabilidad de represalias por parte de los empleadores disuaden a los trabajadores de expresar públicamente sus preocupaciones. Según la carta:

“Algunos de nosotros tememos razonablemente diversas formas de represalias, dada la historia de casos de este tipo en toda la industria. No somos los primeros en encontrarnos o hablar sobre estos problemas”.

Los denunciantes están protegidos por la ley en Estados Unidos, pero aquellos que hablan sobre los peligros de la inteligencia artificial no están cubiertos porque la tecnología aún no está regulada.

Lea también: ChatGPT aún difunde falsedades, dice el organismo de control de datos de la UE

La carta pedía a las empresas de inteligencia artificial que facilitaran comentarios anónimos verificables, apoyaran una cultura de crítica abierta y no tomaran represalias contra los denunciantes.

El investigador de IA Lance B. Eliot dijo que las empresas adoptan un enfoque de palo y zanahoria ante las críticas. Los empleados que no denuncian los riesgos son recompensados ​​con ascensos laborales y aumentos salariales.

Por otro lado, los denunciantes y críticos pierden sus opciones sobre acciones y pueden ser obligados a abandonar la empresa y ser incluidos silenciosamente en la lista negra de la comunidad de líderes de IA.

Informe criptopolitano de Jeffrey Gogo