Odaily Planet Daily News Los empleados de OpenAI y Google DeepMind expresaron conjuntamente su preocupación de que la IA avanzada tiene enormes riesgos y necesita ser fortalecida urgentemente. En respuesta, OpenAI emitió hoy una declaración enfatizando su compromiso de proporcionar sistemas de inteligencia artificial potentes y seguros. OpenAI afirmó que, en vista de la importancia de la tecnología de IA, estamos de acuerdo con el contenido de la carta abierta y que es crucial llevar a cabo debates serios para promover mejor el desarrollo de la tecnología de IA. Continuaremos colaborando con los gobiernos, la sociedad civil y otras comunidades de todo el mundo para trabajar juntos y crear un entorno armonioso de IA. Incluir líneas directas de integridad anónimas y comités de seguridad (Comité de Seguridad) en los que participen miembros de la junta directiva y líderes de seguridad de la empresa son medios eficaces para regular la IA. OpenAI señala que la compañía no lanzará nueva tecnología de inteligencia artificial hasta que se implementen las salvaguardias necesarias. La compañía reiteró su apoyo a la regulación gubernamental y su participación en el Compromiso Voluntario sobre Seguridad de la Inteligencia Artificial. En respuesta a las preocupaciones sobre represalias, un portavoz confirmó que la empresa rescindió los acuerdos de no menosprecio de todos los ex empleados y eliminó dichas cláusulas de los documentos de separación estándar. (IT House) Hoy temprano, 13 empleados anteriores y actuales de OpenAI (ChatGPT), Anthropic (Claude), DeepMind (Google) y expertos en el campo de la inteligencia artificial lanzaron la petición "Derecho a advertir a la inteligencia artificial". La petición tiene como objetivo abogar por protecciones más sólidas para los denunciantes de irregularidades para aumentar la conciencia pública sobre los riesgos de los sistemas avanzados de inteligencia artificial. El ex empleado de OpenAI, William Saunders, comentó que cuando se trata de nuevas tecnologías potencialmente peligrosas, debería haber formas de compartir información sobre los riesgos con expertos independientes, gobiernos y el público.