Selon Odaily, treize anciens et actuels employés d'OpenAI (ChatGPT), Anthropic (Claude) et DeepMind (Google), ainsi que d'éminents experts en intelligence artificielle, plaident pour une protection renforcée des lanceurs d'alerte. L’objectif est de sensibiliser le public aux risques associés aux systèmes avancés d’intelligence artificielle.

Ces personnes, qui sont à l’avant-garde du développement et de la recherche sur l’IA, estiment qu’une protection renforcée de ceux qui exposent des dangers potentiels et des pratiques contraires à l’éthique dans ce domaine est cruciale. Il s’agit de garantir que le public soit bien informé des risques et des défis potentiels que les systèmes d’IA avancés peuvent poser.

L’appel en faveur d’une protection renforcée des lanceurs d’alerte intervient à un moment où la technologie de l’IA progresse rapidement et où son intégration dans divers secteurs de la société devient de plus en plus répandue. C’est pourquoi le besoin de transparence et de responsabilité sur le terrain est plus important que jamais. Les défenseurs estiment qu’en protégeant ceux qui sont prêts à s’exprimer sur ces questions, le public sera mieux équipé pour comprendre et naviguer dans les complexités des systèmes d’IA avancés.