人工知能(AI)は、私たちの生活と仕事の方法を変えました。技術は、マーケティングやテクノロジーからヘルスケアに至るまで、あらゆる分野に影響を与えています。
AI愛好者たちは、機械学習(ML)を基盤として使用し、今日の世界が抱える最も複雑な問題を技術がどのように解決できるかを理解しようとしています。
機械学習(ML)は、データをシステムに供給してシステムがタスクを実行できるようにするプロセスです。今、それは新しいことのようには聞こえないかもしれませんが、機械学習の魅力は、システムが与えられたデータを使用してタスクを自己学習し、人間が明示的に指示を与えることなく、タスクの実行が向上することができることです。これは、AIが爆発的に普及する前の常識でした。
これが、私たちが自動運転車のようなものに向かっている理由です。これは以前は考えられませんでした。機械学習によって駆動されるそのような車は、時間とともにより良い「ドライバー」になることを「学ぶ」ことができます。
しかし、注意の言葉があります。
AIは急速に人間の生活に直接影響を与えるタスクを引き継いでいます。自然に、質問が提起されています:
AIは公平ですか、それともバイアスがありますか?
AIは私たちの基本的人権を侵害するのでしょうか?
このような議論はAI倫理として知られるようになりました。これは、AIを人間の価値観に反しないように使用する方法を特定し、対処する実践です。
このブログでは、AIと機械学習の道徳的コンパスを調整するための難しい率直な会話をどのように行うかについて議論し、ナビゲートします。
AI倫理とは何か?
倫理的AIは、AIが人間社会とどのように相互作用し、影響を与えるかを厳密に検討します。倫理的AIに関与する人々は、AIがデータからリスクを最小限に抑える方法で公平にシステムを構築する方法について議論します。
ポイントを強調するために、手術の例を使いましょう。
ヘルスケアAIの例としては、プロバイダーが医師が手術待機リストの患者を優先するのを助けるシステムをトレーニングすることが挙げられます。この場合、AI倫理学者は、システムが優先順位を決定するために適切なメトリクス(医療状態の深刻度など)を使用し、不倫理的な要因(裕福な地域の人々を優先するなど)を使用しないように確認します。
さらに、倫理学者はAIに公平なデータを供給することを確認します。もしAIが偏ったデータから学ぶことになれば、有害なステレオタイプを助長するだけです。
全体として、倫理的AIの核心は、社会に利益をもたらし、害を最小限に抑えるシステムを作成することです。
特定の社会のメンバーを危険にさらす可能性があるほど技術の進歩に流されないことが重要です。
なぜAI倫理が重要なのか
倫理的AIは、次の方法で個人を危害から保護します。
基本的権利の保護
ビジネスにおけるAIは、個人の財務情報や生体情報のようなセンシティブなデータを扱うことが多いです。
倫理的な保護が実施されていない場合、これらのシステムは人権を侵害する可能性があります。例えば:
データが悪用される可能性がある
データが悪意のある団体に売られる可能性がある
人々が無許可の監視の対象になる可能性があります
この点において、倫理的AIの役割は、これらのシステムが透明に機能することを保証することです。
不均一な影響を防ぐ
機械学習がいかに賢いとしても、人間のバイアスで満たされたデータから学ぶことは破滅的な結果をもたらす可能性があります。それは、差別やセクシズムを増幅するようなものです。その結果は次のようになります:
バイアスのある融資決定
不公平な採用慣行
欠陥のある法的判断
倫理的システム設計は、認知バイアスと無意識のバイアスを根本から取り除くために入ります。
存在的および社会的リスクへの対処
存在的危機を引き起こす方法でのAIの悪用は、現実の問題です。代表的な例はディープフェイクです。
ディープフェイクは、超リアルな偽メディアを作成することを指します。悪意のある行為者が有名人のディープフェイク(似た者)を作成し、彼らが望むことを何でも言わせることができます。それが被害者や社会全体にどれほど有害であるかを考えてみてください。
ディープフェイクは次のような結果をもたらす可能性があります:
虚偽の情報の拡散
アイデンティティの盗難
そのような結果は、一般選挙のようなグローバルなイベントの際には壊滅的である可能性があります。
AI開発における重要な倫理的質問
AIの使用に関する重要な質問を提起していることは良いことですが、AI倫理をどのように実施するのでしょうか?考慮すべきいくつかの質問があります。
誰が正しいと決めるのか?
誰が正しいと間違っているを決めるのか?結局のところ、誰かが厳格な行動規範(組織宗教に見られるようなもの)に従っていない限り、道徳は主観的です。
あなたの権利が私の間違いである可能性があります。
さて、誰が決めるのか?(そして、誰が決めるのかを決めるのか?)
それは次のようにすべきです:
組織全体?
専用の指導グループ?
政府?
開発者?
教皇?
一般的に言えば、最善の前進方法は、さまざまな意見を持つ多様な指導グループです。多様な入力が得られれば得られるほど、健全な選択をする可能性が高まります。なぜなら、各グループがそれぞれのAIの盲点を補うことができるからです。
そして、道徳がどれほど主観的であっても、その大部分は99.99%の人間の合意があるため、道徳的な泥沼が毎回複雑になるわけではありませんが、グループでの意思決定が必要です。
私たちはどのようにバイアスを防ぐのか?
AIシステムは、個人やグループに対する差別を避けるように設計されるべきです。トレーニングデータのバイアスは、不公平な結果をもたらす可能性があります。たとえば、人口統計要因に基づいて融資を拒否することなどです。公平性を確保するには、多様なデータセットと厳密なテストが必要です。
私たちは透明性を持っていますか?
人々はAIシステムがどのように決定を下すかを理解する必要があります。透明性の欠如は混乱を引き起こし、特にヘルスケアや刑事司法のような重要な分野で信頼を減少させます。説明可能なAIは、人々が決定の背後にある理由を理解できることを意味します。
私たちは人々のプライバシーを保護していますか?
透明性の副産物として、システムはユーザーデータがどのように収集、保存、共有されるかを明確にコミュニケートするべきです。プライバシーはAIにおける主な倫理的懸念事項です。
物事がうまくいかないとき、誰が責任を持つのか?
物事がうまくいかないときに従うべき指揮系統が必要です。
開発者、組織、または規制機関は、リスクを管理し、エラーに対する救済策を提供するための責任フレームワークを確立する必要があります。
AIの推論は人間のものをどの程度置き換えるのか?
人間の要素はAIの方程式から決して取り除かれるべきではありません。人間の監視なしでのAIの決定は有害になる可能性があります。
仕事への影響
AIはタスクを自動化する可能性があり、さまざまな業界で労働者を置き換えることができます。
企業は、AI関連の解雇が避けられないと感じています。(画像出典)
倫理的AIには、経済的影響を軽減するための再訓練プログラムや新しい雇用機会の創出など、これらの混乱に対処するための戦略が含まれています。
虚偽の情報
前述のように、ディープフェイクのようなAI技術は、虚偽の情報を広め、公共の意見を操作する可能性があります。
倫理的フレームワークは、AIの悪用を検出し防止することに焦点を当て、情報と民主的プロセスの整合性を保護する必要があります。
AIがうまくいかないとき:実際のケーススタディ
前述の懸念は、過去数年間に特定の事例でAIがどのように失敗したかを考えると妥当です。
バイアスのあるAI採用
アマゾンのAI採用ツールは、「女性のような」言葉を含む履歴書にペナルティを課し、歴史的な採用データのパターンにより男性候補者を優遇しました。
政府におけるアルゴリズム的差別
オランダの児童手当スキャンダルは、政府のアプリケーションにおけるアルゴリズムバイアスの明白な例です。AIシステムは低所得の家庭や二重国籍の人々を潜在的な詐欺者としてフラグ付けし、誤った告発を引き起こしました。
政治的利益のためのデータ操作
ケンブリッジ・アナリティカのスキャンダルは、AI駆動の分析が政治でどのように悪用されるかを明らかにしました。Facebookユーザーのデータを悪用することで、同社は2016年の米大統領選挙に影響を与え、データプライバシーや政治的成果を形作るAIの倫理的境界についての議論を引き起こしました。
倫理的AIシステムを開発するためのステップ
ご覧の通り、AIは善の源であると同時に、非常に破壊的である可能性があります。その結果、倫理的にAIを開発する必要性が非常に高まっています。
方法は次のとおりです。
倫理的AI原則を構築する
すべての組織は、AIを責任を持って使用する方法を概説した倫理的AIの標準操作手順(SOP)を必要とします。これらは公開することが義務付けられるべきです。良いAI倫理は人権、プライバシー、民主的価値を優先します。
このSOPは、その後、組織の北極星として機能します。昨年の報告書では、AI企業が安全性と倫理のために資金の30%を研究開発に費やすことを推奨しました。
そして、倫理的AIが必要なのは営利企業だけではありません。イギリスのトップ大学も倫理的AI原則を策定しています。
倫理的リスク評価の実施
ポリシーを持つだけでは不十分です。企業はAIの開発と使用を定期的に監査して、プライバシーの侵害や差別的な出力のような問題を特定する必要があります。
本質的には、潜在的なリスクを予見できる予測分析のような良いAIを使って、悪いAI(悪意のあるものや無害なもの)を出し抜くことです。
健全な倫理原則を実施する
Bright Dataは、倫理的実践を優先することでAIとデータ収集において際立っています。彼らは、テクノロジーの世界での責任あるデータ使用の課題に対処するために、世界倫理データフォーラムのような組織と協力しています。
明確な倫理的ガイドラインは、データの収集と取り扱いにおける透明性と説明責任を支持するアプローチです。
彼らのコミットメントは、顧客とパートナーの利益を保護しながら、倫理的なウェブデータ収集の基準を設定するTrust Centerのようなイニシアティブを通じてさらに示されています。
明確なユーザーの同意に焦点を当て、GDPRやCCPAのような規制を遵守することで、Bright Dataは責任ある実践が革新と共存できることを示しています。倫理的実践へのコミットメントは、AIとデータ収集の分野で際立った存在にし、革新と責任が共存できる方法の例を示しています。
最終的な考え
AIの倫理的な開発は、機械学習がもたらす倫理的課題をナビゲートするために不可欠です。
プライバシー、公平性、社会的影響のような倫理的懸念に対処することで、AIシステムが人間の価値観と一致し、信頼を促進することができます。
組織にとって、倫理的AIの原則を開発プロセスに統合することは、道徳的または法的義務を超えるものです。それは責任ある革新の前提条件です。
AI倫理101:機械学習の倫理的風景をナビゲートするという記事は、Metaverse Postに最初に掲載されました。