Michelle Bowman, gouverneure de la Réserve fédérale, a un message pour les décideurs politiques désireux de réglementer l'intelligence artificielle : ralentissez.

S'exprimant à Washington, Bowman a averti que se précipiter vers des règles strictes pourrait avoir des conséquences négatives. "Nous ne devons pas nous précipiter pour réglementer," a-t-elle déclaré. Sa principale préoccupation est que la sur-réglementation pourrait chasser l'innovation du secteur bancaire, laissant des outils précieux comme l'IA sur le banc de touche.

L'IA, selon Bowman, a beaucoup de potentiel dans la finance. Elle peut rendre les systèmes plus efficaces, lutter contre la fraude et élargir l'accès au crédit. La technologie pourrait également aider les banquiers centraux en améliorant la fiabilité des données économiques.

"Peut-être que l'utilisation plus large de l'IA pourrait agir comme un contrôle sur la fiabilité des données," a-t-elle suggéré. Elle a également dit :

"Les outils d'IA peuvent également être utilisés pour lutter contre la fraude. Un tel usage est dans la lutte contre la fraude par chèque, qui est devenue plus répandue dans l'industrie bancaire au cours des dernières années."

L'effet de l'IA sur le travail et la politique

Bowman surveille également comment l'IA redéfinit les marchés du travail et les fondamentaux économiques. L'IA modifie les niveaux de productivité, influence les taux d'emploi et redéfinit même le taux d'intérêt naturel. Elle pense que cela jouera un rôle de plus en plus important dans les discussions sur la politique monétaire.

Les chiffres laissent entrevoir pourquoi cela importe. Au cours des deux dernières années, la productivité du travail aux États-Unis a explosé, augmentant à un taux moyen annuel de 2,3 %. C'est presque le double de la moyenne de 1,3 % observée dans la décennie précédant la pandémie.

Bowman n'est pas prête à attribuer entièrement l'augmentation à l'IA, mais elle a reconnu qu'elle pourrait jouer un rôle. D'autres responsables de la Réserve fédérale, y compris Lisa Cook, sont d'accord. Elle s'attend à ce que l'IA continue de stimuler la productivité mais avertit que prédire son impact exact reste un jeu de devinettes.

Pour les décideurs politiques, ces changements sont critiques. Les changements de productivité et les perturbations du marché du travail pourraient forcer la Réserve fédérale à repenser ses stratégies.

"Lorsque nous considérons les risques de l'IA, beaucoup d'entre eux sont déjà bien couverts par des cadres existants. Par exemple, l'IA dépend souvent de tiers externes — fournisseurs de cloud computing, technologies d'IA générative sous licence et fournisseurs de services essentiels — pour fonctionner."

– Bowman

La réalité de la réglementation de l'IA aux États-Unis

Si vous recherchez des règles claires sur l'IA en Amérique, bonne chance. La réglementation fédérale est un patchwork au mieux, laissant les États combler les lacunes. L'approche prudente de Bowman reflète la frustration que beaucoup ressentent face à ce système fragmenté.

Au niveau fédéral, le National Artificial Intelligence Initiative Act de 2020 visait apparemment à stimuler le développement de l'IA. Le président Biden a ensuite suivi avec un décret en 2023 pour promouvoir des pratiques d'IA sûres et transparentes. Mais les critiques de tous bords disent que ces efforts ne vont pas assez loin - ou vont trop loin.

Maintenant, les réglementations pourraient changer à nouveau. Le président élu Donald Trump a fait connaître ses intentions. Il prévoit d'annuler le décret de Biden, le qualifiant de "frein à l'innovation."

Pendant ce temps, des États comme la Californie et le Colorado n'attendent pas que Washington se ressaisisse. La Californie mène la charge avec des lois comme l'AI Transparency Act. Cela exige des entreprises disposant de systèmes d'IA utilisés par plus d'un million de personnes qu'elles étiquettent clairement le contenu généré par l'IA.

Le Colorado, en revanche, a interdit la discrimination algorithmique, veillant à ce que les systèmes d'IA ne nuisent pas aux individus en fonction de leur race, de leur genre ou d'autres traits protégés. Les deux États établissent des normes, mais leurs règles diffèrent tellement que les entreprises opérant à travers les frontières des États se retrouvent dans l'embarras.

Le coût de la fragmentation

Ce cadre réglementaire déconnecté est un énorme casse-tête de conformité pour les entreprises. Les entreprises doivent jongler avec des exigences variées d'un État à l'autre, risquant des pénalités pour non-respect.

Par exemple, les lois de Californie exigent des outils de transparence, mais ceux-ci ne sont pas obligatoires dans les États avec des règles plus laxistes. Cela crée un champ de mines pour les développeurs d'IA.

Les consommateurs font également face à des protections inégales. Les résidents de Californie bénéficient de règles strictes de divulgation, tandis que les personnes dans d'autres États pourraient même ne pas savoir quand elles interagissent avec l'IA. L'avertissement de Bowman concernant la sur-réglementation est valable, mais la sous-réglementation pose également des risques.

Les experts craignent que ce désastre laisse les États-Unis à la traîne par rapport à d'autres acteurs mondiaux. La Chine, par exemple, avance à toute vitesse avec une supervision centralisée de l'IA, tandis que les pays européens établissent des normes unifiées. Si les États-Unis ne parviennent pas à élaborer une stratégie cohérente, ils risquent de prendre du retard tant en innovation qu'en responsabilité.

Bowman a terminé son discours en disant : "L'intelligence artificielle a un potentiel énorme pour remodeler l'industrie des services financiers et l'économie mondiale au sens large. Bien que j'aie suggéré dans mes remarques que nous ne devions pas nous précipiter pour réglementer, il est important que nous continuions à surveiller les développements dans l'IA et leurs effets dans le monde réel."

Un système étape par étape pour lancer votre carrière Web3 et décrocher des emplois crypto bien rémunérés en 90 jours.