ヘルスケア分野での応用分野として成長している AI には、好意的な見方と疑問の見方の両方があります。公的パートナーシップと機関の多額の資金は、この技術に大きな期待を抱かせますが、専門家と患者は、この技術がすでに十分に成熟しているのか、それとも患者の健康を危険にさらす可能性があるのか​​、依然として疑問を抱いています。

医療におけるAIの受容における課題

素晴らしい変革をもたらす存在として、多くの IT 大手企業や企業が、健康関連のアプリケーションに生成 AI を組み込み始めています。Google と Highmark Health は、パーソナライズのための独自の患者受け入れプロセス ツールを開発している 2 つの企業です。

Amazon の AWS は、生成 AI を使用した手法の表現と医療データベースの分析に特化しています。同様に、Microsoft Azure は、患者とヘルスケア製品の提供者間のコミュニケーションを仲介するシステムの構築に積極的に参加しています。AI は、Ambience Healthcare や Nabla などのベンチャー企業によって、臨床現場に組み込む AI の役割を大幅に拡大しています。

デロイトのレポートは、最近の画期的な進歩や技術の進歩にもかかわらず、医療サービスの改善に生成AIの利用を検討するアメリカ人はわずか53%であることを示す調査の1つにすぎません。

残りの 47% のアメリカ人が、コストを削減し、アクセシビリティを向上させるツールとしての生成 AI にまだ自信がないという事実は、市場に大きなギャップがあることを示しています。

技術的な問題と倫理的な問題

医療における生成AIの信頼性は、研究によってその予測不可能性と欠点が示されており、今後のトレンドトピックになりつつあります。JAMA Pediatricsの研究では、OpenAIのChatGPTにおけるレッドチームの医師による小児疾患の診断で高いエラー率が示され、ベス・イスラエル・ディーコネス医療センターの研究でもGPTで同様の結果が観察されました。

医療管理機能では、MedAlign ベンチマークにより、日常業務におけるモデルの欠陥が明らかになりました。モデルの失敗率は 35% でした。

これらの問題は、これらの権利を侵害する可能性が生じる可能性があると考えられているものです。スタンフォード大学医学部の健康関連分野の研究では、新興のAI技術が社会的な固定観念を強化し、健康格差を著しく悪化させる可能性があることが示唆されています。

医療分野における AI の採用に関連するデータのプライバシー、セキュリティ リスク、および法律の変更により、AI の使用は複数の層の複雑さから構成されます。

VAサンシャイン・ヘルスケア・ネットワークのアンドリュー・ボルコウスキー氏やデュースブルク・エッセン大学のヤン・エッガー氏のような専門家は、新興の生成AI技術に対する堅牢な検証と規制のメカニズムを導入する必要があることを認めています。

AIイノベーションとヘルスケアの監督のバランス

彼らは AI を単独のソリューションではなく補助手段としてサポートしており、各アプリケーションは経験豊富な医療専門家によって注意深く監視されていると紹介しています。

そしてこれに続いて…世界保健機関の人間機関は、ヘルスケアのためのAIアプリケーションの研究と検証が厳格で、一定レベルの監視のために十分な人間が関与する必要があるというガイドラインの改善を試みています。

この勧告は、AI 技術の実装プロセスを監督し、消費者にとって安全かつ有利な状態を維持することを目的としています。透明性、独立した監査、参加する利害関係者の多様性が推奨される対策です。

ヘルスケア分野は、AI がより大きな役割を果たすという岐路に立たされています。AI がヘルスケアの提供方法を​​変える可能性があることは認識されていますが、医療における AI の使用の導入には依然として技術的、倫理的、規制上の問題が残っています。