Subiectul fierbinte în zilele noastre este inteligența artificială și impactul acesteia asupra tehnologiei, artelor și literaturii existente, iar acum unul nou, dacă expresia AI are, de asemenea, un fel de protecție în temeiul Primului Amendament. Cercetătorii încearcă să imite capacitățile creierului uman cu AI încă de la începutul evoluției sale, cum ar fi creativitatea, rezolvarea problemelor și recunoașterea vorbirii. Primul este considerat un exercițiu unic numai pentru creierul uman, în timp ce ultimele două sunt într-o oarecare măsură în abordarea AI.

Chatbot Gemini a generat imagini controversate

Practic, AI poate fi orice, de la un set de algoritmi la un sistem care ia trilioane de decizii pe orice platformă dată, cum ar fi configurarea bazei de date a unei companii sau un site de rețea socială, sau ar putea fi un chatbot. Mai târziu, în februarie, Google a spus că își suspendă chatbot-ul, Gemini, și că nu va genera imagini cu oameni. Motivul a fost că Gemenii au creat un sunet pentru că au venit cu niște imagini care erau cu scene care au arătat oameni de culoare în unele scene dominate istoric de oameni albi, iar criticii au spus că dacă compania a terminat de reparat botul pentru riscul de părtinire, Google a postat pe Twitter pe X că,

„Lucrăm deja să rezolvăm problemele recente cu funcția de generare a imaginii Gemini. În timp ce facem acest lucru, vom întrerupe generarea de imagini a oamenilor și vom lansa din nou o versiune îmbunătățită în curând.”

Sursa: Google.

Lucrăm deja să rezolvăm problemele recente cu funcția de generare a imaginii Gemini. În timp ce facem acest lucru, vom întrerupe generarea de imagini a oamenilor și vom lansa din nou o versiune îmbunătățită în curând. https://t.co/SLxYPGoqOZ

— Google Communications (@Google_Comms) 22 februarie 2024

Potrivit a doi oameni de știință, Jordi Calvet-Bademunt de la Universitatea Vanderbilt și Jacob Mchangama de la Universitatea Vanderbilt, eforturile de a combate părtinirea AI și discuțiile cu privire la înclinațiile sale politice sunt importante, dar au ridicat o altă întrebare care este adesea mai puțin discutată și este despre sectorul AI. abordare spre libertatea de exprimare.

Cercetătorii evaluează abordarea libertății de exprimare a AI

Cercetătorii au subliniat, de asemenea, că, dacă abordarea industriei față de libertatea de exprimare este în conformitate cu standardele internaționale privind libertatea de exprimare, ei au spus că descoperirile lor sugerează că IA generativă are defecte critice în ceea ce privește accesul la informații și libertatea de exprimare.

Sursa: Freedomforum.

În timpul cercetării, ei au evaluat politicile a șase chatbot-uri AI, inclusiv cele mai importante, Google Gemini și ChatGPT, de OpenAI. Ei au remarcat că legea internațională a drepturilor omului ar trebui să fie un etalon pentru aceste politici, dar politicile de utilizare efectivă pe site-urile companiilor cu privire la discursul instigator la ură și dezinformarea sunt prea vagi. În ciuda faptului că legea internațională a drepturilor omului nu protejează prea mult libertatea de exprimare.

Potrivit acestora, companii precum Google au politici prea ample privind discursul instigator la ură deoarece, în cazul unui astfel de eveniment, Google interzice generarea de conținut. Deși discursul instigator la ură nu este de dorit, dar a avea politici atât de ample și vagi poate, de asemenea, să se contracoace. Când cercetătorii au pus întrebări controversate cu privire la participarea femeilor trans la sport sau la colonizarea europeană, în peste 40% din cazuri, chatboții au refuzat să genereze conținut. De exemplu, toți chatboții au refuzat să răspundă la întrebările care se opun participării femeilor transgender, dar mulți dintre ei au susținut participarea acestora.

Libertatea de exprimare este un drept de bază al oricui în SUA, dar politicile vagi se bazează pe opiniile moderatorilor, care sunt subiective cu privire la înțelegerea discursului instigator la ură. Experții au remarcat că politicile companiilor mai mari vor avea un efect considerabil asupra dreptului oamenilor de a accesa informații. Iar refuzul de a genera conținut poate îndemna oamenii să folosească chatbot-uri care generează conținut de ură, ceea ce ar fi un rezultat prost. 

Nota de cercetare originală poate fi văzută aici.