Selon Cointelegraph, les sociétés d’intelligence artificielle OpenAI et Anthropic ont accepté d’accorder à l’Institut américain de sécurité de l’IA un accès anticipé à tout nouveau modèle d’IA significatif développé par leurs sociétés respectives. Cet accord, motivé par des préoccupations mutuelles en matière de sécurité, laisse quelque peu ambigu le rôle exact du gouvernement en cas de percée technologique significative.

Sam Altman, PDG et cofondateur d'OpenAI, a souligné l'importance de cet accord dans un récent message publié sur la plateforme de médias sociaux X, en déclarant : « Nous sommes heureux d'avoir conclu un accord avec l'Institut américain de sécurité de l'IA pour les tests préalables à la sortie de nos futurs modèles. Pour de nombreuses raisons, nous pensons qu'il est important que cela se produise au niveau national. Les États-Unis doivent continuer à montrer la voie ! »

OpenAI et Anthropic se concentrent toutes deux sur le développement de l’intelligence artificielle générale (IAG), une forme d’IA capable d’effectuer n’importe quelle tâche humaine, à condition de disposer des ressources nécessaires. Chaque entreprise a sa propre charte et sa propre mission visant à créer une IAG en toute sécurité, en mettant l’accent sur les intérêts de l’humanité. Si l’une ou l’autre des entreprises réussit, elles deviendraient les gardiennes essentielles de cette technologie avancée. En acceptant de partager leurs modèles avec le gouvernement américain avant tout lancement de produit, les deux entreprises ont effectivement transféré une partie de cette responsabilité aux autorités fédérales.

Comme l'a récemment rapporté Cointelegraph, OpenAI pourrait être sur le point de réaliser une percée avec ses projets « Strawberry » et « Orion », qui posséderaient des capacités de raisonnement avancées et de nouvelles méthodes pour résoudre le problème des hallucinations de l'IA. Le gouvernement américain aurait déjà examiné ces outils et les premières itérations de ChatGPT les intégrant.

Un article de blog de l’Institut national des normes et de la technologie des États-Unis indique que les directives de sécurité associées à cet accord sont volontaires pour les entreprises participantes. Les partisans de cette approche réglementaire légère affirment qu’elle encourage la croissance et permet au secteur de s’autoréguler. Les partisans de cet accord, dont Altman, voient un modèle de coopération entre le gouvernement et le secteur des entreprises qui peut être mutuellement bénéfique.

Il existe toutefois des inquiétudes quant au manque potentiel de transparence associé à une réglementation trop légère. Si OpenAI ou Anthropic atteignent leurs objectifs en matière d’IAG et que le gouvernement décide que le public n’a pas besoin d’être informé, il semble qu’il n’y ait aucune obligation légale de divulgation.