近い将来、生成 AI アプリのユーザーは、AI の利用方法、それに伴うリスク、テスト プロセスを明確に示すラベルを見つけるかもしれません。新しいガイドラインに従って、ラベルは必須となり、一般の人々がテクノロジーを理解しやすくなります。

こちらもご覧ください: 欧州連合(EU)がAI規制をリード

シンガポールのジョセフィン・テオ通信情報大臣は、この新たな措置はテクノロジー企業の透明性と検査の基準を定義する取り組みであると述べた。ストレーツ・タイムズの報道によると、彼女は7月15日に個人データ保護技術カンファレンスで講演した。

AIアプリ開発者はイノベーションについて透明性を保つべき

医薬品や家電製品に安全ラベルを貼るのと同じように、生成AIアプリの開発者は、AIモデルの使用と開発についてユーザーに明確に知らせる必要があります。スマート国家とサイバーセキュリティイニシアチブの担当大臣でもあるテオ氏は、次のように述べています。

「開発者と導入者は、生成 AI モデルとアプリがどのように機能するかに関する情報をユーザーに対して透明性を持って提供することを推奨します。」

大臣は、今後の規則について説明し、それは使用者が「市販薬の箱」を開けたときと同じだと述べた。薬の使用方法と「起こりうる副作用」が明確に記された紙が見つかる。

テオ氏は、1つの生成型人工知能に基づいて構築されるAIシステムには「このレベルの透明性」が必要だと主張した。新しい一連の規則は、AIモデルが一般に公開される前に実践すべき安全基準を定義する。

データ匿名化に関するガイドが2025年に公開予定

生成型人工知能は、新しいテキストや画像を生成する能力を持つAIの一種で、従来のAIほど予測可能ではない。新しいガイドラインによれば、クリエイターはコンテンツ内で嘘や敵対的なコメント、偏った物語を広めるリスクについて言及する必要がある。

テオ氏は、家電製品には、その製品が安全使用のためにテストされていることを明記したラベルが貼られていると述べた。そうしないと、顧客はその製品が安全かどうか分からない。AI アプリケーションについても同様である。シンガポールの情報通信メディア開発庁 (IMDA) は、業界と新しい規則に関する協議を開始する予定である。しかし、テオ氏はガイドラインの日付については言及しなかった。

IMDAはテクノロジーにおけるプライバシー関連の問題に関するガイドも公開しており、これはユーザーのプライバシーを保護しながらAIモデルをトレーニングするためのデータに対する需要の高まりに応えるものだとテオ氏は述べた。

こちらもご覧ください: 民主党の円卓会議でマーク・キューバンとブラッド・ガーリングハウスが仮想通貨規制について議論

IMDAの副最高経営責任者であるデニス・ウォン氏は、「生成AIにおいてデータを安全に保つことは、業界にとってより困難な課題です」と述べた。彼女はイベント中にAIとデータプライバシーに関する別のパネルディスカッションで自身の見解を述べた。ChatGPTメーカーのOpenAIやコンサルティング会社のアクセンチュアなど、さまざまなテクノロジー企業の代表者がパネルに参加した。

OpenAIのプライバシー法務責任者、ジェシカ・ガン・リー氏は、AIの開発と展開のあらゆる段階でデータ保護のガードレールを整備する必要があると述べた。同氏は、AIモデルは「世界のあらゆる場所」からの多様なデータセットでトレーニングされるべきだとした。リー氏は、AIトレーニングには複数の文化、言語、情報源を含める必要があり、個人データ処理を制限する方法を見つける必要があると強調した。

テオ氏は、2025年初頭にASEANで事業を展開する企業向けにデータ匿名化に関するガイドが導入されると述べた。このガイドは、安全な世界的デジタルエコシステムを構築する方法を検討した地域当局者による2月の会議の結果となる。