Selon le Wall Street Journal, OpenAI, la société responsable du développement de ChatGPT, a récemment subi une faille de sécurité majeure, ce qui a suscité des inquiétudes quant aux risques potentiels pour la sécurité nationale. L'incident, survenu au début de l'année dernière, a révélé des discussions internes entre chercheurs et employés, mais n'a pas compromis le code de base du système OpenAI. Malgré la gravité de l'incident, OpenAI a choisi de ne pas le divulguer publiquement, une décision qui a conduit à un examen interne et externe.

Les communications internes d’OpenAI compromises

Début 2023, un pirate informatique s'est introduit dans le système de messagerie interne d'OpenAI et a extrait des détails sur la technologie d'IA de l'entreprise. Selon deux personnes proches du dossier, les pirates ont visité un forum en ligne où les employés discutaient des dernières avancées en matière d'IA, mais n'ont pas pénétré dans le système où est stockée la technologie de base.

Les dirigeants d'OpenAI choisissent de ne pas le révéler au public

Selon des sources, les dirigeants d'OpenAI ont informé les employés de l'affaire lors d'une réunion générale tenue au siège de l'entreprise à San Francisco en avril 2023, et le conseil d'administration en a également été informé. Malgré la violation, les dirigeants ont choisi de ne pas informer le public, affirmant qu'aucune information client ou partenaire n'avait été compromise. Ils ont estimé que le pirate informatique était un individu n'ayant aucun lien avec un gouvernement étranger et n'ont pas signalé l'affaire aux forces de l'ordre, y compris le FBI.

Les inquiétudes concernant l’espionnage étranger augmentent

Cette violation a accru les inquiétudes des employés d’OpenAI selon lesquelles des adversaires étrangers, en particulier la Chine, pourraient voler la technologie de l’IA et menacer la sécurité nationale des États-Unis. L’incident a également déclenché un débat au sein de l’entreprise sur l’adéquation des mesures de sécurité d’OpenAI, ainsi que sur les risques plus larges associés à l’intelligence artificielle.

Des problèmes de sécurité de l’IA émergent

À la suite de l'incident, Leopold Aschenbrenner, chef de projet technique d'OpenAI, a soumis une note au conseil d'administration exprimant ses inquiétudes quant à la vulnérabilité de l'entreprise à l'espionnage par des entités étrangères. Aschenbrenner a ensuite été licencié en raison de la fuite présumée. Il estime que les mesures de sécurité de l'entreprise sont insuffisantes pour se protéger contre les menaces sophistiquées émanant d'acteurs étrangers.

Déclaration officielle d'OpenAI

La porte-parole d'OpenAI, Liz Bourgeois, a reconnu les inquiétudes d'Aschenbrenner, mais a déclaré que son départ n'était pas lié aux problèmes qu'il avait soulevés. Elle a souligné qu'OpenAI s'engage à construire une intelligence générale artificielle (AGI) sécurisée, mais n'est pas d'accord avec l'évaluation d'Aschenbrenner sur ses protocoles de sécurité.

L'espionnage technologique dans le contexte de la guerre sino-américaine

Les inquiétudes concernant des liens potentiels avec la Chine ne sont pas sans fondement. Par exemple, le président de Microsoft, Brad Smith, a récemment déclaré que des pirates informatiques chinois utilisaient les systèmes de l'entreprise pour attaquer les réseaux fédéraux. Cependant, des contraintes juridiques interdisent à OpenAI de discriminer l’embauche en fonction de l’origine nationale, car le blocage des talents étrangers pourrait entraver les progrès de l’IA aux États-Unis.

(De DEI ou MEI : Pourquoi la politique de recrutement de la licorne IA ScaleAI incite-t-elle fréquemment Musk et Coinbase à hocher la tête ?)

L’importance de la diversité des talents

Matt Knight, responsable de la sécurité chez OpenAI, a souligné que le recrutement des meilleurs talents mondiaux est nécessaire malgré les risques. Il a souligné l’importance de trouver un équilibre entre les préoccupations de sécurité et la nécessité d’une réflexion innovante pour faire progresser la technologie de l’IA.

L’ensemble du secteur de l’IA est confronté à des défis

OpenAI n'est pas la seule entreprise confrontée à ces défis. Des concurrents comme Meta et Google développent également de puissants systèmes d'IA, dont certains sont open source, favorisant la transparence et la résolution collective des problèmes dans l'industrie. Cependant, des inquiétudes subsistent quant à l’utilisation de l’IA pour induire en erreur et remplacer des emplois.

Évaluation des risques pour la sécurité nationale : l'IA peut créer des armes biologiques et chimiques

Certaines études réalisées par des sociétés d’IA telles que OpenAI et Anthropic ont révélé que la technologie actuelle de l’IA présente peu de risques pour la sécurité nationale. Pourtant, le débat se poursuit sur le potentiel futur de l’IA à créer des armes biologiques et chimiques ou à pirater les systèmes gouvernementaux. Des entreprises comme OpenAI et Anthropic répondent activement à ces préoccupations en renforçant leurs protocoles de sécurité et en créant des comités axés sur la sécurité de l'IA.

Action législative du gouvernement : restrictions sur certaines technologies d'IA

Les législateurs fédéraux et étatiques envisagent des réglementations qui limiteraient la diffusion de certaines technologies d’IA et pénaliseraient les utilisations nuisibles. Les réglementations visent à réduire les risques à long terme, même si les experts estiment qu’il faudra encore des années avant que des dangers importants liés à l’IA n’apparaissent.

Les progrès de la Chine en matière d’IA

Les entreprises chinoises font des progrès rapides dans la technologie de l'IA, et la Chine abrite un grand nombre des meilleurs chercheurs mondiaux en IA. Des experts comme Clément Delangue de Hugging Face estiment que la Chine pourrait bientôt dépasser les États-Unis en termes de capacités en matière d’IA.

Appel à un développement responsable de l’IA

Même si les probabilités sont actuellement faibles, des personnalités comme Susan Rice appellent à envisager sérieusement les pires scénarios d’IA, soulignant la responsabilité de faire face aux risques potentiellement à fort impact.

Cet article du Wall Street Journal : Des pirates informatiques ont envahi OpenAI, soulevant des problèmes de sécurité nationale. Apparu pour la première fois sur Chain News ABMedia.