プライバシー保護団体Noybは、OpenAIの製品ChatGPTがEUの多くのデータ保護法に違反しているとして、オーストリアのデータ保護局(DPA)にOpenAIに対する苦情を申し立てた。同団体は、ChatGPTは人々に関する不正確な情報を共有しており、EUの一般データ保護規則(GDPR)では人々に関する情報は正確でなければならないと規定されており、人々は自分に関する情報への完全なアクセスを提供されなければならないと述べた。

OpenAIはGDPR違反の罪に問われる

Noybは有名な弁護士で活動家のマックス・シュレムス氏によって設立され、ChatGPTが著名人の誕生日を偽って共有したと主張し、その人物に関連するデータにアクセスして削除する許可を求めたところ、Open AIによってその要求が拒否された。

Noyb氏は、EUのGDPRによれば、個人に関するあらゆる情報は正確でなければならず、情報源へのアクセスと情報が必要であると述べているが、それによると、OpenAIはChatGPTモデル内の情報を修正することはできないと述べている。同社はまた、情報の出所を特定することはできず、ChatGPTが個人についてどのようなデータを保存しているかさえ知らない。

Noybは、OpenAIはこの問題を認識しているが、この問題に関する議論は次のようなもので、気にしていないようだと主張している。

「大規模言語モデルにおける事実の正確性は、依然として活発に研究されている分野です。」

Noyb は、学生が宿題に使う場合に ChatGPT が間違った情報を吐き出すことは許容できるかもしれないが、個人データは正確でなければならないという EU 法の要件があるため、個人にとっては明らかに受け入れられないと述べた。

幻覚によりチャットボットはEU規制に準拠しなくなる

ノイブ氏は、AIモデルは幻覚を起こしやすく、実際には誤った情報を作成する傾向があると述べた。彼らは、OpenAIの情報生成の技術的手順に疑問を呈し、OpenAIの理由を次のように指摘した。

「各プロンプトに応じて次に現れる可能性が最も高い単語を予測することで、ユーザーのリクエストに応答します。」

出典: Statista。

Noyb 氏は、同社がモデルのトレーニングに利用できる膨大なデータセットを保有しているにもかかわらず、ユーザーに提供される回答が事実に基づいて正しいことを保証できないことを意味すると主張しています。

ノイブのデータ保護弁護士、マーチェ・デ・ガーフ氏は次のように述べた。

「虚偽の情報を捏造すること自体、かなり問題があります。しかし、個人に関する虚偽の情報となると、深刻な結果を招く可能性があります。」

出典: Noyb.

また、彼は、いかなる技術も法律に従わなければならず、いい加減なことは許されないと述べ、ツールが個人に関する正しい結果を出せないのであれば、この目的に使用することはできないとし、また、この問題に関するEUの法律に準拠できるチャットボットを作成するのに、企業はまだ技術的に十分ではないと付け加えた。

生成AIツールは欧州のプライバシー規制当局の厳しい監視下にあり、2023年にはイタリアのDPAがデータ保護を一時的に制限した。結果がどうなるかはまだ不明だが、Noyb氏によると、OpenAIはEU法に準拠するつもりすらないとのことだ。