Bugünlerde en çok konuşulan konu, yapay zeka ve onun mevcut teknoloji, sanat ve edebiyat üzerindeki etkisi; yapay zeka ifadesinin de Birinci Değişiklik kapsamında bir tür korumaya sahip olması durumunda artık yeni bir konu. Araştırmacılar, insan beyninin yaratıcılık, problem çözme ve konuşma tanıma gibi yeteneklerini, evriminin en başından itibaren yapay zeka ile taklit etmeye çalışıyor. Bunlardan ilki yalnızca insan beynine özgü bir egzersiz olarak kabul edilirken, son ikisi bir ölçüde yapay zekanın yaklaşımındadır.

Chatbot Gemini tartışmalı görüntüler ortaya çıkardı

Temel olarak, AI bir algoritma kümesinden, bir şirketin veritabanı kurulumu veya bir sosyal ağ sitesi gibi herhangi bir platformda trilyonlarca karar veren bir sisteme kadar her şey olabilir veya bir sohbet robotu olabilir. Şubat ayının sonlarında Google, sohbet robotu Gemini'yi askıya aldığını ve insanların resimlerini oluşturmayacağını söyledi. Bunun nedeni, Gemini'nin, tarihsel olarak beyazların egemen olduğu bazı sahnelerde renkli insanları gösteren sahnelerin bazı resimlerini ortaya çıkarması nedeniyle bir vızıltı yaratmasıydı ve eleştirmenler, şirketin önyargı riski nedeniyle botu aşırı düzelttiğini söyledi, Google X'te şunu tweetledi:

"Gemini'nin görüntü oluşturma özelliğiyle ilgili son sorunları çözmek için şimdiden çalışıyoruz. Bunu yaparken, insanların görüntü oluşturmasını duraklatacağız ve yakında geliştirilmiş bir sürümü yeniden yayınlayacağız."

Kaynak: Google.

Gemini'nin görüntü oluşturma özelliğiyle ilgili son sorunları gidermek için şimdiden çalışıyoruz. Bunu yaparken, kişilerin görüntü oluşturmasını duraklatacağız ve yakında iyileştirilmiş bir sürümü yeniden yayınlayacağız. https://t.co/SLxYPGoqOZ

— Google İletişim (@Google_Comms) 22 Şubat 2024

Vanderbilt Üniversitesi'nden Jordi Calvet-Bademunt ve Vanderbilt Üniversitesi'nden Jacob Mchangama adlı iki kıdemli akademisyene göre, yapay zekanın önyargılarına ve siyasi eğilimlerine ilişkin tartışmalara karşı mücadele çabaları önemli; ancak bu çabalar, genellikle daha az tartışılan ve yapay zeka sektörünün ifade özgürlüğüne yönelik yaklaşımıyla ilgili başka bir soruyu gündeme getirdi.

Araştırmacılar yapay zekanın ifade özgürlüğü yaklaşımını değerlendiriyor

Araştırmacılar ayrıca, endüstrinin ifade özgürlüğüne yönelik yaklaşımının uluslararası ifade özgürlüğü standartlarıyla uyumlu olması durumunda, elde ettikleri bulguların, üretken yapay zekanın bilgiye erişim ve ifade özgürlüğü açısından kritik kusurlara sahip olduğunu gösterdiğini söyledi.

Kaynak: Freedomforum.

Araştırma sırasında, aralarında en önemlileri Google Gemini ve ChatGPT'nin de bulunduğu altı AI sohbet robotunun politikalarını OpenAI tarafından değerlendirdiler. Uluslararası insan hakları hukukunun bu politikalar için bir kıstas olması gerektiğini, ancak şirket sitelerindeki nefret söylemi ve yanlış bilgilendirmeyle ilgili gerçek kullanım politikalarının çok belirsiz olduğunu belirttiler. Uluslararası insan hakları hukukunun ifade özgürlüğünü pek de korumadığı gerçeğine rağmen.

Onlara göre, Google gibi şirketler çok geniş nefret söylemi politikalarına sahip çünkü böyle bir olay durumunda Google içerik üretimini yasaklıyor. Nefret söylemi arzu edilmese de, bu kadar geniş ve belirsiz politikalara sahip olmak ters tepebilir. Araştırmacılar, trans kadınların spora veya Avrupa sömürgeciliğine katılımıyla ilgili tartışmalı sorular sorduğunda, vakaların %40'ından fazlasında, sohbet robotları içerik üretmeyi reddetti. Yani, tüm sohbet robotları trans kadınların katılımına karşı çıkan soruları yanıtlamayı reddetti, ancak birçoğu katılımlarını destekledi.

Konuşma özgürlüğü ABD'deki herkesin temel hakkıdır, ancak belirsiz politikalar, nefret söyleminin anlaşılması konusunda öznel olan moderatörlerin görüşlerine dayanmaktadır. Uzmanlar, daha büyük şirketlerin politikalarının insanların bilgiye erişim hakkı üzerinde önemli bir etkiye sahip olacağını belirtti. Ve içerik üretmeyi reddetmek, insanları nefret içeriği üreten sohbet robotlarını kullanmaya teşvik edebilir ve bu da kötü bir sonuç olur.

Orijinal araştırma notuna buradan ulaşabilirsiniz.