Bir gizlilik kuruluşu olan Noyb, ChatGPT ürününün AB'nin birçok veri koruma yasasını ihlal ettiği gerekçesiyle OpenAI'ye karşı Avusturya Veri Koruma Otoritesi'ne (DPA) şikayette bulundu. Kuruluş, ChatGPT'nin kişiler hakkında yanlış bilgiler paylaştığını ve AB'nin Genel Veri Koruma Yönetmeliği'nin (GDPR), kişiler hakkındaki bilgilerin doğru olmasını gerektirdiğini ve kişilere kendileriyle ilgili bilgilere tam erişim sağlanması gerektiğini söyledi.

OpenAI, GDPR suçlamalarıyla karşı karşıya

Noyb, ünlü avukat ve aktivist Max Schrems tarafından kuruldu ve ChatGPT'nin tanınmış bir ünlü kişi hakkında sahte bir doğum günü tarihi paylaştığını ve onunla ilgili verilere erişim ve silme izni istendiğinde bu talebin Open AI tarafından reddedildiğini iddia etti.

Noyb, AB'nin GDPR'sine göre herhangi bir bireyle ilgili her türlü bilginin doğru olması gerektiğini ve kişinin kaynağa erişim ve bilgiye sahip olması gerektiğini söylüyor ancak buna göre OpenAI, ChatGPT modelindeki bilgileri düzeltemeyeceğini söylüyor. Şirket ayrıca bilgilerin nereden geldiğini de söyleyemiyor ve hatta ChatGPT'nin bireyler hakkında hangi verileri sakladığını da bilmiyor.

Noyb, OpenAI'nin sorunun farkında olduğunu ve konuyla ilgili argümanı şu şekilde olduğundan umursamıyor gibi göründüğünü iddia ediyor:

"Büyük dil modellerinde gerçek doğruluk, aktif bir araştırma alanı olmaya devam ediyor."

Noyb, ChatGPT'nin öğrenciler ödevleri için kullandıklarında yanlış bilgilerin yayılması durumunda tolere edilebileceğini belirtti ancak kişisel verilerin doğru olması AB hukukunun bir gereği olduğundan bunun bireyler için açıkça kabul edilemez olduğunu söyledi.

Halüsinasyonlar, sohbet robotlarının AB düzenlemelerine uymamasına neden oluyor

Noyb, yapay zeka modellerinin halüsinasyonlara yatkın olduğunu ve aslında yanlış bilgiler ürettiğini belirtti. OpenAI'nin şu mantığını belirttiği için OpenAI'nin bilgi üretme teknik prosedürünü sorguladılar:

"Her istemde yanıt olarak görünebilecek bir sonraki en olası kelimeleri tahmin ederek kullanıcı isteklerine yanıt verir."

Kaynak: Statista.

Noyb, bunun, şirketin modelini eğitmek için kapsamlı veri setlerine sahip olmasına rağmen yine de kullanıcılara verilen yanıtların gerçek anlamda doğru olduğunu garanti edemediği anlamına geldiğini savunuyor.

Noyb'un veri koruma avukatı Maartje de Gaaf şunları söyledi:

“Yanlış bilgi uydurmak başlı başına bir sorundur. Ancak bireyler hakkında yanlış bilgi söz konusu olduğunda ciddi sonuçlar doğabiliyor.”

Kaynak: Noyb.

Herhangi bir teknolojinin yasalara uyması gerektiğini ve oyun oynamaması gerektiğini, kendisine göre bir araç bireyler hakkında doğru sonuçlar üretemiyorsa bu amaçla kullanılamayacağını, şirketlerin henüz teknik olarak bu konuda yeterli seviyede olmadığını ifade etti. Bu konudaki AB yasalarına uyum sağlayabilecek chatbotlar oluşturmak.

Üretken yapay zeka araçları, 2023'te İtalyan DPA'nın veri korumasını geçici olarak kısıtlaması nedeniyle Avrupalı ​​gizlilik düzenleyicilerinin sıkı incelemesi altındadır. Sonuçların ne olacağı henüz belli değil ancak Noyb'a göre OpenAI, AB yasalarına uyacakmış gibi bile davranmıyor.