OpenAI ve Google DeepMind'ın mevcut ve eski çalışanlarından bazıları, şirketlerini potansiyel olarak insanlığın yok oluşunu tetikleyebilecek yapay zeka risklerini gizlemekle suçladı. Açık bir mektupta işçiler, yapay zeka firmalarının "etkili [hükümet] gözetiminden" kaçınırken kârı ilk sıraya koyduklarını iddia etti.

Ayrıca okuyun: OpenAI, Güvenlik Kaygılarının Ortasında GPT-4'ün Halefi Olarak Sıraya Giriyor

Açık mektup, ikisi Google DeepMind'dan olmak üzere 11 eski OpenAI çalışanı tarafından imzalandı ve eski Google'ın "yapay zekanın vaftiz babası" Geoffrey Hinton tarafından onaylandı. Kâr güdüsü ve düzenleyici boşlukların, şirketlerin gelişmiş yapay zekanın oluşturduğu tehditleri örtbas etmesine olanak tanıdığını söyledi.

Yapay zeka 'insanlığın yok olmasına' yol açabilir

Mektuba göre, OpenAI ve Gemini'nin yaratıcısı Google DeepMind gibi yapay zeka firmaları, gerekli olmadıkları için sistemlerinin yetersiz güvenlik önlemleri ve risk seviyeleri hakkındaki bilgileri kamuya açık olarak paylaşmadılar.

Düzenleyici gözetim olmadan yapay zeka programları insanlara büyük zararlar verebilir. Çalışanlar uyardı:

"Bu riskler, mevcut eşitsizliklerin daha da derinleşmesinden, otonom yapay zeka sistemlerinin kontrolünün kaybedilmesine ve potansiyel olarak insanlığın yok olmasına kadar uzanıyor."

Mektubu imzalayanların belirttiği gibi yapay zeka firmaları da bu riskleri kabul etti. Mayıs 2023'te OpenAI, Anthropic ve Google DeepMind CEO'ları, Yapay Zeka Güvenliği Merkezi'nin açık mektubuna ortak imza attı. Mektupta basitçe şu yazıyordu: "Yapay zeka nedeniyle yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi toplumsal ölçekteki diğer risklerin yanı sıra küresel bir öncelik olmalıdır."

Yapay zeka şirketleri, emniyet ve güvenlik yerine yeni ürünler ve kâr sağlama konusunda giderek daha fazla incelemeye tabi tutuluyor. ChatGPT yapımcısı OpenAI, mektupta dile getirilen endişelere dikkat çekti ve güvenli yapay zeka geliştirmek için çalıştığını söyledi.

“En yetenekli ve en güvenli yapay zekayı sağlama performansımızdan gurur duyuyoruz. OpenAI sözcüsü Lindsey Held, New York Times'a şöyle konuştu:

"Bu teknolojinin önemi göz önüne alındığında, sıkı tartışmaların hayati önem taşıdığı konusunda hemfikiriz ve dünya çapındaki hükümetler, sivil toplum ve diğer topluluklarla iletişim kurmaya devam edeceğiz."

İhbarcılar misillemeden korkuyor

Eski OpenAI ve Google çalışanları, düzenleyiciler yapay zeka geliştiricilerini programları hakkında daha fazla bilgiyi kamuya açıklamaya zorlayan yasalar üzerinde çalışırken gözetim rolünü üstlenmek istediklerini söyledi.

Ancak gizlilik anlaşmaları ve işverenlerin misilleme yapma olasılığı, çalışanların endişelerini kamuya açık bir şekilde dile getirmelerini engelliyor. Mektup başına:

“Sektördeki bu tür vakaların geçmişi göz önüne alındığında, bazılarımız makul olarak çeşitli misilleme biçimlerinden korkuyor. Bu sorunlarla ilk karşılaşan ve bu konuları konuşan biz değiliz.”

İhbarcılar ABD'de yasalarla korunuyor ancak yapay zekanın tehlikeleri hakkında konuşanlar, teknoloji henüz düzenlenmediğinden bu kapsama girmiyor.

Ayrıca okuyun: AB Veri Gözlemcisi ChatGPT'nin Hala Sahtekarlıklar Yaydığını Söyledi

Mektupta yapay zeka şirketlerine, doğrulanabilir anonim geri bildirimleri kolaylaştırma, açık eleştiri kültürünü destekleme ve ihbarcılara karşı misilleme yapmama çağrısı yapıldı.

Yapay zeka araştırmacısı Lance B. Eliot, firmaların eleştiriye karşı havuç ve sopa yaklaşımını benimsediğini söyledi. Risklere karşı sesini yükseltmeyen çalışanlar, iş terfileri ve ücret artışlarıyla ödüllendiriliyor.

Öte yandan ihbarcılar ve eleştirmenler hisse senedi opsiyonlarını kaybederler ve şirketten atılmaya zorlanabilirler ve yapay zeka liderlik topluluğu tarafından sessizce kara listeye alınabilirler.

Jeffrey Gogo'nun Kriptopolitan Raporlaması