Muchos empleados de OpenAI presentaron una queja ante la SEC, acusando a la empresa de impedirles informar sobre los riesgos graves de la tecnología de IA.

La denuncia de siete páginas presentada ante la Comisión de Bolsa y Valores de EE. UU. (SEC) a principios de este mes fue publicada exclusivamente por The Washington Post, acusando a OpenAI de aplicar acuerdos estrictos de empleo, indemnizaciones y confidencialidad de información, lo que podría dar lugar a sanciones para los empleados que se atrevan a hacerlo. hablar sobre sus preocupaciones.

En concreto, los empleados que denunciaron a OpenAI les pidieron que renunciaran a su derecho a recibir una compensación al denunciar infracciones según la ley. Además, cualquier información que desee compartir con el gobierno federal, ya sea sobre un riesgo de seguridad o una violación de la ley, debe ser aprobada previamente por OpenAI.

Se dice que estas disposiciones van en contra de las leyes federales diseñadas para proteger a quienes se atreven a exponer irregularidades en las organizaciones.

Los abogados que representan al grupo de empleados dijeron que OpenAI violaba gravemente la ley para proteger a los denunciantes, obstaculizando los esfuerzos del gobierno para monitorear y gestionar el naciente campo de la IA. "Estos contratos son como una amenaza implícita: 'Nunca pienses en denunciar a las autoridades'", compartió un empleado anónimo.

La parte de OpenAI ha negado las acusaciones, afirmando que la política de la empresa todavía garantiza los derechos de los denunciantes. "Nuestra política protege los derechos de los trabajadores a revelar información legalmente protegida", dijo la portavoz de OpenAI, Hannah Wong.

Además, la Sra. Wong también enfatizó que OpenAI fomenta debates serios sobre la tecnología de IA y ha realizado cambios en la política de terminación para eliminar disposiciones controvertidas.

El director ejecutivo de OpenAI, Sam Altman, habló con los periodistas en el Capitolio el año pasado. (Elizabeth Frantz/Según The Washington Post)

Sin embargo, el caso vuelve a hacer saltar la alarma sobre el riesgo de que las empresas tecnológicas, especialmente en el campo de la IA, estén aprovechando vacíos legales para silenciar a los trabajadores y eludir la rendición de cuentas.

Los expertos piden a la SEC y a las autoridades que tomen medidas más enérgicas para prevenir actos que obstaculicen a los denunciantes y garantizar la transparencia y la rendición de cuentas en este sector tecnológico clave.

El caso de OpenAI se sitúa en el contexto de una creciente preocupación por el ritmo "vertiginoso" de desarrollo de la IA y el riesgo de que se abuse de esta tecnología para malos fines.

El incidente requiere que los formuladores de políticas, los reguladores y la comunidad se unan para establecer un corredor legal lo suficientemente fuerte como para fomentar la innovación y controlar de manera efectiva los riesgos potenciales ocultos, garantizando que la IA realmente sirva a los intereses humanos.