L’argomento caldo in questi giorni è l’intelligenza artificiale e il suo impatto sulla tecnologia, sulle arti e sulla letteratura esistenti, e ora ce n’è uno nuovo se anche l’espressione dell’intelligenza artificiale ha una sorta di protezione ai sensi del Primo Emendamento. I ricercatori stanno cercando di imitare le capacità del cervello umano con l’intelligenza artificiale fin dall’inizio della sua evoluzione, come la creatività, la risoluzione dei problemi e il riconoscimento vocale. Il primo è considerato un esercizio esclusivo del cervello umano, mentre gli ultimi due rientrano in una certa misura nell’approccio dell’intelligenza artificiale.

Chatbot Gemini ha generato immagini controverse

Fondamentalmente, l’intelligenza artificiale può essere qualsiasi cosa, da un insieme di algoritmi a un sistema che prende trilioni di decisioni su una determinata piattaforma, come la configurazione del database di un’azienda o un sito di social network, oppure potrebbe essere un chatbot. Più tardi, a febbraio, Google ha dichiarato che avrebbe sospeso il suo chatbot, Gemini, e che non avrebbe generato immagini di persone. Il motivo è che Gemini ha creato scalpore perché ha realizzato alcune immagini di scene che mostravano persone di colore in alcune scene storicamente dominate dai bianchi, e i critici hanno detto che se la società avesse deciso di riparare il bot per il rischio di pregiudizi, Google ha twittato su X che,

“Stiamo già lavorando per risolvere i recenti problemi con la funzionalità di generazione di immagini di Gemini. Mentre lo facciamo, metteremo in pausa la generazione delle immagini delle persone e presto pubblicheremo nuovamente una versione migliorata.

Fonte: Google.

Stiamo già lavorando per risolvere i recenti problemi con la funzionalità di generazione delle immagini di Gemini. Mentre lo facciamo, metteremo in pausa la generazione delle immagini delle persone e presto pubblicheremo nuovamente una versione migliorata. https://t.co/SLxYPGoqOZ

— Comunicazioni Google (@Google_Comms) 22 febbraio 2024

Secondo due studiosi senior, Jordi Calvet-Bademunt della Vanderbilt University e Jacob Mchangama della Vanderbilt University, gli sforzi per combattere i pregiudizi dell'intelligenza artificiale e la discussione sulle sue tendenze politiche sono importanti, ma hanno sollevato un'altra questione che spesso è meno discussa e riguarda il settore dell'intelligenza artificiale. approccio verso la libertà di parola.

I ricercatori valutano l’approccio alla libertà di parola dell’IA

I ricercatori hanno anche sottolineato che se l’approccio del settore alla libertà di parola è conforme agli standard internazionali sulla libertà di parola, hanno affermato che i loro risultati suggeriscono che l’intelligenza artificiale generativa presenta difetti critici rispetto all’accesso alle informazioni e alla libertà di espressione.

Fonte: Freedomforum.

Durante la ricerca, hanno valutato le politiche di sei chatbot AI, inclusi i principali, Google Gemini e ChatGPT, di OpenAI. Hanno notato che il diritto internazionale sui diritti umani dovrebbe essere un punto di riferimento per queste politiche, ma le politiche di utilizzo effettivo sui siti aziendali riguardanti l’incitamento all’odio e la disinformazione sono troppo vaghe. Nonostante il fatto che la legge internazionale sui diritti umani non protegga molto la libertà di parola.

Secondo loro, aziende come Google hanno politiche troppo ampie sull’incitamento all’odio perché, in caso di un simile evento, Google vieta la generazione di contenuti. Anche se l’incitamento all’odio non è auspicabile, avere politiche così ampie e vaghe può anche rivelarsi controproducente. Quando i ricercatori hanno posto domande controverse sulla partecipazione delle donne trans allo sport o alla colonizzazione europea, in oltre il 40% dei casi i chatbot si sono rifiutati di generare contenuti. Ad esempio, tutti i chatbot si sono rifiutati di rispondere alle domande contrarie alla partecipazione delle donne transgender, ma molti di loro hanno sostenuto la loro partecipazione.

La libertà di parola è un diritto fondamentale di chiunque negli Stati Uniti, ma le politiche vaghe si basano sulle opinioni dei moderatori, che sono soggettive riguardo alla comprensione dell’incitamento all’odio. Gli esperti hanno osservato che le politiche delle aziende più grandi avranno un effetto considerevole sul diritto delle persone ad accedere alle informazioni. E il rifiuto di generare contenuti può spingere le persone a utilizzare chatbot che generano contenuti di odio, il che sarebbe un risultato negativo.

La nota di ricerca originale può essere vista qui.