AI 作为医疗领域应用日益广泛的领域,其前景既有好有坏。公共合作伙伴关系和机构的大量资金让人们对这项技术寄予厚望;然而,专业人士和患者仍然怀疑这项技术是否已经足够成熟,或者是否会危及患者的健康。

公众接受医疗保健领域人工智能的挑战

作为一个伟大的变革者,许多 IT 巨头和公司开始将生成式 AI 纳入与健康相关的应用中。Google 和 Highmark Health 这两家机构正在开发独特的患者入院流程工具以实现个性化。

亚马逊的 AWS 致力于使用生成式 AI 来表示方法并分析医疗数据库。同样,微软 Azure 也积极参与构建调解患者和医疗产品提供商之间沟通的系统。AI 正在寻求 Ambience Healthcare 和 Nabla 等企业,以极大地扩展 AI 在临床环境中的作用。

德勤的报告只是众多调查之一,该调查显示,尽管最近取得了突破和技术进步,但只有 53% 的美国人会考虑使用生成人工智能来改善医疗保健服务。

剩下的 47% 的美国人仍然对生成式人工智能作为降低成本和提高可及性的工具没有信心,这一事实表明市场存在一些重大空白。

技术困难和道德问题

医疗保健领域生成式人工智能的可靠性正成为迫在眉睫的趋势话题,因为研究表明了它的不可预测性和缺点。JAMA Pediatrics 的一项研究显示,OpenAI 的 ChatGPT 红队医生在诊断儿科疾病时错误率很高,贝斯以色列女执事医疗中心的研究也观察到了 GPT 的类似结果。

在医疗管理功能方面,MedAlign 基准测试揭示了该模型在日常活动中的不足。它给出的模型失败率为 35%。

这些问题源于人们认为可能出现侵犯这些权利的可能性。斯坦福医学院健康相关领域的研究表明,新兴的人工智能技术可能会强化社会刻板印象,从而显著加剧健康不平等。

数据隐私、安全风险以及与医疗保健领域人工智能应用相关的不断变化的法律意味着它的使用包含多个复杂层面。

VA 阳光医疗网络的 Andrew Borkowski 和杜伊斯堡-埃森大学的 Jan Egger 等专家承认,应该为新兴的生成式人工智能技术建立强有力的验证和监管机制。

平衡人工智能创新和医疗保健监督

他们支持将AI作为一项支持措施,而不是独立的解决方案,因此,他们介绍说,每个应用都受到经验丰富的医疗专业人员的密切关注。

在此之后……世界卫生组织的人类机构正在尝试改进指导方针,其中医疗保健人工智能应用的研究和验证应该严格,并涉及足够多的人类进行一定程度的监督。

该建议旨在监督人工智能技术的实施过程,以保证其对消费者的安全和有利。建议的措施包括透明度、独立审计和参与利益相关者的多样性。

医疗保健行业正面临一个十字路口问题,即人工智能正在发挥更大的作用。尽管人们承认人工智能有潜力改变医疗保健的方式,但在部署人工智能在医学领域的应用时,仍面临一些技术、道德和监管问题。