Les employés d'Odaily Planet Daily News d'OpenAI et de Google DeepMind ont exprimé conjointement leurs inquiétudes quant au fait que l'IA avancée comporte d'énormes risques et doit être renforcée de toute urgence. En réponse, OpenAI a publié aujourd'hui une déclaration soulignant son engagement à fournir des systèmes d'intelligence artificielle puissants et sécurisés. OpenAI a déclaré qu'au vu de l'importance de la technologie de l'IA, nous sommes d'accord avec le contenu de la lettre ouverte et que la manière de mener des discussions sérieuses est cruciale pour mieux promouvoir le développement de la technologie de l'IA. Nous continuerons de collaborer avec les gouvernements, la société civile et d’autres communautés du monde entier pour travailler ensemble afin de créer un environnement harmonieux pour l’IA. L’inclusion de lignes d’assistance téléphonique anonymes pour l’intégrité et de comités de sûreté et de sécurité (Comité de sûreté et de sécurité) réunissant des membres du conseil d’administration et des responsables de la sécurité de l’entreprise sont autant de moyens efficaces de réglementer l’IA. OpenAI note que la société ne publiera pas de nouvelle technologie d'IA tant que les garanties nécessaires ne seront pas en place. L'entreprise a réitéré son soutien à la réglementation gouvernementale et sa participation à l'engagement volontaire sur la sécurité de l'intelligence artificielle. Répondant aux préoccupations concernant les représailles, un porte-parole a confirmé que l'entreprise avait résilié tous les accords de non-dénigrement des anciens employés et supprimé ces clauses des documents standards de séparation. (IT House) Plus tôt dans la journée, 13 anciens et actuels employés d'OpenAI (ChatGPT), Anthropic (Claude), DeepMind (Google) et des experts dans le domaine de l'intelligence artificielle ont lancé la pétition « Droit d'avertir l'intelligence artificielle ». La pétition vise à plaider en faveur d’une protection renforcée des lanceurs d’alerte afin de sensibiliser le public aux risques liés aux systèmes avancés d’intelligence artificielle. William Saunders, ancien employé d'OpenAI, a déclaré que lorsqu'il s'agit de nouvelles technologies potentiellement dangereuses, il devrait y avoir des moyens de partager des informations sur les risques avec des experts indépendants, les gouvernements et le public.