Michelle Bowman, governatrice della Federal Reserve, ha un messaggio per i decisori politici che vogliono regolamentare l'intelligenza artificiale: rallentate.
Parlando a Washington, Bowman ha avvertito che saltare dentro a regole rigide potrebbe ritorcersi contro. "Non dobbiamo affrettarci a regolamentare", ha detto. La sua preoccupazione principale è che una regolamentazione eccessiva potrebbe allontanare completamente l'innovazione dal settore bancario, lasciando in disparte strumenti preziosi come l'intelligenza artificiale.
L'intelligenza artificiale, secondo Bowman, ha un grande potenziale nella finanza. Può rendere i sistemi più efficienti, reprimere le frodi e ampliare l'accesso al credito. La tecnologia potrebbe anche dare una mano alle banche centrali migliorando l'affidabilità dei dati economici.
"Forse un uso più ampio dell'AI potrebbe fungere da controllo sull'affidabilità dei dati," ha suggerito. Ha anche detto:
"Gli strumenti di AI possono anche essere utilizzati per combattere le frodi. Un tale uso è nella lotta contro le frodi nei controlli, che sono diventate più diffuse nell'industria bancaria negli ultimi anni."
L'effetto dell'AI sul lavoro e sulla politica
Bowman sta anche tenendo d'occhio come l'AI sta rimodellando i mercati del lavoro e i fondamenti economici. L'AI sta alterando i livelli di produttività, influenzando i tassi di occupazione e persino ridefinendo il tasso naturale di interesse. Crede che questo avrà un ruolo sempre più importante nelle discussioni di politica monetaria.
I numeri suggeriscono perché questo sia importante. Negli ultimi due anni, la produttività del lavoro negli Stati Uniti è aumentata, crescendo a una media annuale del 2,3%. Questo è quasi il doppio della media dell'1,3% vista nel decennio prima della pandemia.
Bowman non è pronta a dare completamente credito all'AI per l'aumento, ma ha riconosciuto che potrebbe svolgere un ruolo. Altri funzionari della Federal Reserve, tra cui Lisa Cook, concordano. Si aspetta che l'AI continui a incrementare la produttività, ma avverte che prevedere il suo impatto esatto è ancora un gioco di indovinelli.
Per i responsabili politici, questi cambiamenti sono critici. I cambiamenti nella produttività e le interruzioni nel mercato del lavoro potrebbero costringere la Fed a ripensare le sue strategie.
"Quando consideriamo i rischi dell'AI, molti di questi sono già ben coperti da quadri normativi esistenti. Ad esempio, l'AI dipende spesso da parti esterne: fornitori di servizi di cloud computing, tecnologie di AI generativa con licenza e fornitori di servizi core — per operare."
– Bowman
La realtà della regolamentazione dell'AI negli Stati Uniti
Se stai cercando regole chiare sull'AI in America, buona fortuna. La regolamentazione federale è a malapena un patchwork, lasciando agli stati il compito di colmare le lacune. L'approccio cauto di Bowman rispecchia la frustrazione che molti provano per questo sistema frammentato.
A livello federale, il National Artificial Intelligence Initiative Act del 2020 mirava a stimolare lo sviluppo dell'AI. Il presidente Biden ha seguito con un ordine esecutivo nel 2023 per promuovere pratiche AI sicure e trasparenti. Ma i critici di tutti i lati dicono che questi sforzi non vanno abbastanza lontano — o vanno troppo lontano.
Ora, le normative potrebbero cambiare di nuovo. Il presidente eletto Donald Trump ha reso chiare le sue intenzioni. Ha intenzione di annullare l'ordine esecutivo di Biden, definendolo un "ostacolo all'innovazione."
Nel frattempo, stati come la California e il Colorado non stanno aspettando che Washington si organizzi. La California sta guidando la carica con leggi come l'AI Transparency Act. Questo richiede alle aziende con sistemi di AI utilizzati da oltre un milione di persone di etichettare chiaramente i contenuti generati dall'AI.
Il Colorado, d'altra parte, ha bandito la discriminazione algoritmica, assicurando che i sistemi di AI non danneggino gli individui in base a razza, genere o altre caratteristiche protette. Entrambi gli stati stanno stabilendo standard, ma le loro regole differiscono così tanto che le aziende che operano attraverso le linee statali si trovano in difficoltà.
Il costo della frammentazione
Questo quadro normativo disgiunto è un enorme mal di testa per la conformità delle imprese. Le aziende devono destreggiarsi tra requisiti variabili da stato a stato, rischiando sanzioni per non rispettarli.
Ad esempio, le leggi della California richiedono strumenti di trasparenza, ma questi non sono obbligatori negli stati con regole più flessibili. Questo crea un campo minato per gli sviluppatori di AI.
I consumatori affrontano anche protezioni disuguali. I residenti della California beneficiano di regole di divulgazione rigorose, mentre le persone in altri stati potrebbero neanche sapere quando stanno interagendo con l'AI. L'avvertimento di Bowman riguardo all'iperregolamentazione è valido, ma l'underregulation comporta rischi, anch'essi.
Gli esperti temono che questo disastro lascerà gli Stati Uniti indietro rispetto ad altri attori globali. La Cina, ad esempio, sta procedendo a pieno ritmo con la supervisione centralizzata dell'AI, mentre i paesi europei stanno stabilendo standard unificati. Se gli Stati Uniti non riescono a trovare una strategia coesa, rischiano di rimanere indietro sia in innovazione che in responsabilità.
Bowman ha concluso il suo discorso dicendo: "L'intelligenza artificiale ha un potenziale enorme per rimodellare l'industria dei servizi finanziari e l'economia mondiale più ampia. Sebbene nelle mie osservazioni abbia suggerito che non dobbiamo affrettarci a regolamentare, è importante che continuiamo a monitorare gli sviluppi nell'AI e i loro effetti nel mondo reale."
Un sistema passo dopo passo per lanciare la tua carriera Web3 e ottenere lavori crypto ben retribuiti in 90 giorni.