Les démocrates du Sénat et un législateur indépendant ont envoyé une lettre au PDG d'OpenAI, Sam Altman, concernant les normes de sécurité et les pratiques d'emploi de l'entreprise à l'égard des lanceurs d'alerte.

La partie peut-être la plus importante de la lettre, obtenue pour la première fois par le Washington Post, était le point 9, qui disait : « OpenAI s'engagera-t-il à mettre son prochain modèle de base à la disposition des agences gouvernementales américaines pour des tests, des examens, des analyses et des évaluations avant le déploiement ? ?"

La lettre soulignait 11 points supplémentaires à aborder, notamment l’engagement d’OpenAI à consacrer 20 % de sa puissance de calcul à la recherche sur la sécurité et aux protocoles visant à empêcher un acteur malveillant ou un adversaire étranger de voler des produits d’IA d’OpenAI.

Contrôle réglementaire

Bien que le contrôle réglementaire ne soit pas nouveau pour OpenAI et le secteur de l'intelligence artificielle englobant, la lettre des législateurs démocrates a été motivée par des rapports de dénonciateurs faisant état de normes de sécurité laxistes pour GPT-4 Omni afin de garantir que la mise sur le marché du produit ne soit pas retardée.

Connexe : Synchron et ChatGPT pour aider les patients paralysés à discuter et à envoyer à nouveau des SMS

Les lanceurs d'alerte d'OpenAI ont également affirmé que les efforts visant à faire part des problèmes de sécurité à la direction se sont heurtés à des représailles et à des accords de non-divulgation prétendument illégaux, ce qui a conduit les lanceurs d'alerte à déposer une plainte auprès de la Securities and Exchange Commission en juin 2024.

Peu de temps après, en juillet, les géants de la technologie Microsoft et Apple ont renoncé à leur adhésion au conseil d'administration d'OpenAI en raison d'une surveillance réglementaire accrue. La décision de ne pas siéger au conseil d'administration a été prise malgré l'investissement de 13 milliards de dollars de Microsoft dans OpenAI en 2023.

Les peurs existentielles persistent

William Saunders, ancien employé d'OpenAI, a récemment révélé qu'il avait quitté l'entreprise parce qu'il estimait que les recherches en cours à OpenAI pourraient constituer une menace existentielle pour l'humanité, comparant la trajectoire potentielle d'OpenAI au tristement célèbre crash du RMS Titanic en 1912.

Saunders a précisé qu'il n'était pas préoccupé par l'itération actuelle du grand modèle de langage ChatGPT d'OpenAI, mais qu'il était davantage préoccupé par les futures versions de ChatGPT et le développement potentiel d'une intelligence surhumaine avancée.

Le lanceur d’alerte a fait valoir que les employés travaillant dans le secteur de l’intelligence artificielle ont le droit d’avertir le public des capacités potentiellement dangereuses présentées par le développement rapide de l’intelligence synthétique.

Magazine : AI Eye : L'IA est-elle une menace nucléaire ? Pourquoi les champs d'IA avancent tous en même temps, jeux de mots stupides