OpenAI, sviluppatori di ChatGPT, hanno supportato una proposta di legge della California per far sì che le aziende tecnologiche etichettino i contenuti generati dall'intelligenza artificiale. Ciò segue la preoccupazione dello stato su come i deepfake potrebbero influenzare la fiducia e la sicurezza del pubblico durante i periodi elettorali. La proposta di legge sulla trasparenza dell'intelligenza artificiale, AB 3211, impone che i contenuti creati utilizzando l'intelligenza artificiale siano "watermarkati".

Il disegno di legge, che è già stato promosso da Buffy Wicks, membro della California State Assembly, ha ottenuto una notevole trazione nella legislatura statale. È stato approvato dal Senate Appropriations Committee e ha ricevuto il sostegno unanime dell'Assemblea statale. Mentre ora si dirige verso un voto completo del Senato, l'AB 3211 rimane uno dei pochi pezzi di legislazione relativi all'IA ancora in esame quest'anno in California.

I legislatori della California promuovono nuove misure di responsabilità dell'intelligenza artificiale

La mossa per promuovere l'AB 3211 fa parte di un tentativo più ampio da parte della legislatura di regolamentare l'IA in California. Quest'anno, i legislatori hanno presentato 65 proposte di legge che toccano diversi aspetti dell'intelligenza artificiale. Tuttavia, molte di queste sono state accantonate, rendendo l'AB 3211 ancora una proposta di legge importante all'interno di questo dibattito in corso sul ruolo che l'IA dovrebbe svolgere nella società.

OpenAI ha dato il suo contributo supportando la legislazione che sottolinea l'importanza della trasparenza in merito ai contenuti generati dall'IA. Il Chief Strategy Officer di OpenAI, Jason Kwon, ha scritto al membro dell'Assemblea Wicks a sostegno del disegno di legge e ha sottolineato che devono essere sviluppate nuove tecnologie e standard per consentire alle persone di comprendere meglio da dove provengono i contenuti che incontrano. Ha ammesso che sono state sollevate preoccupazioni durante gli anni della campagna elettorale a causa della comparsa di materiali creati dall'IA.

Reuters ha esaminato la lettera di Kwon, in cui si afferma che le nuove tecnologie e gli standard potrebbero aiutare gli individui a identificare la fonte dei contenuti online e prevenire la confusione tra contenuti generati dall’uomo e dall’intelligenza artificiale.

I legislatori della California affrontano le sfide della regolamentazione dell'intelligenza artificiale

Mentre l'AB 3211 ha fatto qualche progresso, un altro disegno di legge sull'IA in California, SB 1047, ha incontrato una notevole resistenza da parte di attori del settore tecnologico come OpenAI. Secondo molti stakeholder nel settore dell'IA, questa legislazione sarebbe troppo gravosa. A un livello più ampio, questo è un punto critico nella discussione più ampia su come regolamentare l'IA e mostra come i legislatori siano alle prese con il raggiungimento di un equilibrio tra innovazione e sicurezza pubblica.

A differenza della SB 1047 che ha attirato molte polemiche, anche la AB 3211 non è controversa, poiché si concentra maggiormente su questioni di responsabilità e trasparenza. Le proposte di legge mirano ad affrontare uno dei problemi più urgenti relativi all'IA, che include la capacità dei media sintetici di ingannare le persone richiedendo che i loro contenuti siano etichettati.

Ciò lo vedrà passare attraverso la scrivania del governatore Gavin Newsom se l'AB 3211 passerà al Senato entro il 31 agosto alla fine della sessione legislativa. Entro e non oltre il 30 settembre, Newsome dovrà firmarlo per renderlo legge o porre il veto. Questa legislazione renderebbe la California uno dei primi stati a richiedere tali misure di trasparenza per quanto riguarda i contenuti creati dall'IA, creando un precedente per altri seguiti forse dalla regolamentazione federale.