AI 作爲醫療領域應用日益廣泛的領域,其前景既有好有壞。公共合作伙伴關係和機構的大量資金讓人們對這項技術寄予厚望;然而,專業人士和患者仍然懷疑這項技術是否已經足夠成熟,或者是否會危及患者的健康。

公衆接受醫療保健領域人工智能的挑戰

作爲一個偉大的變革者,許多 IT 巨頭和公司開始將生成式 AI 納入與健康相關的應用中。Google 和 Highmark Health 這兩家機構正在開發獨特的患者入院流程工具以實現個性化。

亞馬遜的 AWS 致力於使用生成式 AI 來表示方法並分析醫療數據庫。同樣,微軟 Azure 也積極參與構建調解患者和醫療產品提供商之間溝通的系統。AI 正在尋求 Ambience Healthcare 和 Nabla 等企業,以極大地擴展 AI 在臨牀環境中的作用。

德勤的報告只是衆多調查之一,該調查顯示,儘管最近取得了突破和技術進步,但只有 53% 的美國人會考慮使用生成人工智能來改善醫療保健服務。

剩下的 47% 的美國人仍然對生成式人工智能作爲降低成本和提高可及性的工具沒有信心,這一事實表明市場存在一些重大空白。

技術困難和道德問題

醫療保健領域生成式人工智能的可靠性正成爲迫在眉睫的趨勢話題,因爲研究表明了它的不可預測性和缺點。JAMA Pediatrics 的一項研究顯示,OpenAI 的 ChatGPT 紅隊醫生在診斷兒科疾病時錯誤率很高,貝斯以色列女執事醫療中心的研究也觀察到了 GPT 的類似結果。

在醫療管理功能方面,MedAlign 基準測試揭示了該模型在日常活動中的不足。它給出的模型失敗率爲 35%。

這些問題源於人們認爲可能出現侵犯這些權利的可能性。斯坦福醫學院健康相關領域的研究表明,新興的人工智能技術可能會強化社會刻板印象,從而顯著加劇健康不平等。

數據隱私、安全風險以及與醫療保健領域人工智能應用相關的不斷變化的法律意味着它的使用包含多個複雜層面。

VA 陽光醫療網絡的 Andrew Borkowski 和杜伊斯堡-埃森大學的 Jan Egger 等專家承認,應該爲新興的生成式人工智能技術建立強有力的驗證和監管機制。

平衡人工智能創新和醫療保健監督

他們支持將AI作爲一項支持措施,而不是獨立的解決方案,因此,他們介紹說,每個應用都受到經驗豐富的醫療專業人員的密切關注。

在此之後……世界衛生組織的人類機構正在嘗試改進指導方針,其中醫療保健人工智能應用的研究和驗證應該嚴格,並涉及足夠多的人類進行一定程度的監督。

該建議旨在監督人工智能技術的實施過程,以保證其對消費者的安全和有利。建議的措施包括透明度、獨立審計和參與利益相關者的多樣性。

醫療保健行業正面臨一個十字路口問題,即人工智能正在發揮更大的作用。儘管人們承認人工智能有潛力改變醫療保健的方式,但在部署人工智能在醫學領域的應用時,仍面臨一些技術、道德和監管問題。