Sebuah organisasi privasi, Noyb, telah mengajukan keluhan terhadap OpenAI ke Otoritas Perlindungan Data Austria (DPA) dengan alasan bahwa produknya ChatGPT melanggar banyak undang-undang perlindungan data di UE. Organisasi tersebut mengatakan bahwa ChatGPT membagikan informasi yang salah tentang orang-orang, dan Peraturan Perlindungan Data Umum (GDPR) UE mengharuskan informasi tentang orang-orang harus benar, dan mereka harus diberikan akses penuh terhadap informasi tentang orang-orang tersebut.

OpenAI menghadapi tuntutan GDPR

Noyb didirikan oleh pengacara dan aktivis terkenal Max Schrems, dan mengklaim bahwa ChatGPT membagikan tanggal ulang tahun palsu tentang seorang tokoh masyarakat terkenal, dan ketika dimintai izin untuk mengakses dan menghapus data terkait dengannya, permintaannya ditolak oleh Open AI.

Noyb Mengatakan bahwa menurut GDPR UE, informasi apa pun tentang individu mana pun harus akurat dan mereka harus memiliki akses serta informasi tentang sumbernya, namun menurutnya, OpenAI mengatakan bahwa mereka tidak dapat mengoreksi informasi dalam model ChatGPT mereka. Perusahaan juga tidak dapat mengetahui dari mana informasi tersebut berasal, dan bahkan tidak mengetahui data apa yang disimpan ChatGPT tentang individu.

Noyb mengklaim bahwa OpenAI mengetahui masalah ini dan sepertinya tidak mempedulikannya karena argumennya mengenai masalah tersebut adalah,

“Akurasi faktual dalam model bahasa besar masih menjadi area penelitian aktif.”

Noyb mencatat bahwa informasi yang salah mungkin dapat ditoleransi ketika ChatGPT menyebarkannya ketika siswa menggunakannya untuk pekerjaan rumah mereka, namun dikatakan bahwa hal tersebut jelas tidak dapat diterima oleh individu karena merupakan persyaratan hukum UE bahwa data pribadi harus akurat.

Halusinasi membuat chatbot tidak mematuhi peraturan UE

Noyb menyebutkan bahwa model AI rentan terhadap halusinasi dan membuat informasi yang sebenarnya salah. Mereka mempertanyakan prosedur teknis OpenAI dalam menghasilkan informasi, karena alasan OpenAI menyatakan bahwa,

“menanggapi permintaan pengguna dengan memprediksi kata-kata berikutnya yang paling mungkin muncul sebagai respons terhadap setiap permintaan.”

Sumber: Statista.

Noyb berpendapat bahwa ini berarti bahwa meskipun perusahaan memiliki kumpulan data ekstensif yang tersedia untuk melatih modelnya, namun tetap tidak dapat menjamin bahwa jawaban yang diberikan kepada pengguna benar-benar benar.

Pengacara perlindungan data Noyb, Maartje de Gaaf, berkata,

“Membuat informasi palsu itu sendiri cukup bermasalah. Namun jika menyangkut informasi palsu tentang individu, hal ini dapat menimbulkan konsekuensi yang serius.”

Sumber: Noyb.

Ia juga mengatakan bahwa teknologi apapun harus mengikuti undang-undang dan tidak boleh main-main, karena menurutnya jika suatu alat tidak dapat memberikan hasil yang benar pada individu maka tidak dapat digunakan untuk tujuan tersebut, ia juga menambahkan bahwa secara teknis perusahaan belum sehat. buat chatbot yang dapat mematuhi undang-undang UE mengenai hal ini.

Alat AI generatif berada di bawah pengawasan ketat regulator privasi Eropa, karena pada tahun 2023, DPA Italia untuk sementara membatasi perlindungan data. Masih belum jelas apa hasilnya, namun menurut Noyb, OpenAI bahkan tidak berpura-pura akan mematuhi undang-undang UE.