现在通过人工智能(AI)算法,利用以往医疗保健数据来帮助实现如疾病预测、预防手术患者的术后并发症、预测手术风险和康复途径等能力是当今讨论的热点。但是人们还是会担心采用这类高科技的自动化技术预测模型准确性的问题。医疗机构甚至会要求相关医疗保健组织和开发人工智能技术和提供医疗护理模型的技术供应商承担风险责任和对他们进行问责。
虽然人工智能是人类技术创新史上的飞跃,但也带来了不可预见的复杂性和挑战。除了经常被讨论的预测算法的“黑匣子”之外,还有自主部署等关键问题,如果缺乏必要的临床监督和治理框架,在整个人工智能开发过程中,数据质量、可访问性和偏见所具有的普遍风险将进一步加剧了这种担忧。因此,为了真正负责任地利用人工智能的变革潜力,必须建立和实施强大的监督机制,促进定期健康检查,以帮助确保预测模型始终将患者的健康放在首位——我们需要“负责任的AI”。
▌维护医疗保健领域的人工智能完整性:建立成熟治理的关键步骤
提高 AI 完整性的第一步是解决安全、隐私和数据治理问题,并培养负责任、无偏见的 AI 模型的开发。这可能具有挑战性,因为人类可能会无意中将自己的主观观点注入模型中,尽管他们的意图是好的。降低偏见风险的一项基本措施需要实施强大的数据治理实践,以帮助确保模型是使用多样化和全面的数据集构建的。
为了实现这一目标,组织必须优先投资于可扩展的数据基础设施,包括数据收集、存储、处理和安全性。强大的数据基础设施是保护患者数据的基石,因为患者数据越来越容易受到网络威胁。为了追求数据采集的质量和数量,需要聚合不同的数据源,包括企业资源规划平台 (ERP)、电子健康记录 (EHR) 和医学成像存储库等,同时确保数据的清洁度和可访问性。同样重要的是必须建立数据治理协议,以维护隐私标准和法规遵从性。
第二步是建立一个由医疗预测学家、医疗研究人员、数据专家、技术专家、行业利益相关者和政府机构组成的强大联盟,来共同定义什么是负责任的人工智能,并通过如联合发文或者制定标准来概要阐述实现这一目标的运营战略和政策。利用近期发布的欧盟人工智能法案,这是世界上第一部规范高风险人工智能的法律,在安全和遵守基本人权的需求与促进创新的需求之间取得平衡。该法律预计将于本月生效,预计对聊天机器人等GAI系统将有严格的规定。
▌采用整体方法构建合乎道德且有效的医疗保健人工智能
在追求将人工智能模型集成到医疗保健中的过程中,随着我们逐渐学习和了解这项技术的全部功能和潜在影响,平衡和深思熟虑的方案是至关重要的。虽然走在创新的最前沿可能具有内在的吸引力,但在没有充分测试和验证的情况下过快地发展可能会产生性能不佳的模型,这些模型可能会在最好的情况下损害用户体验,并可能对个人、社区和企业造成伤害。采用迭代思维方式是促进现有模型在构建新模型的同时逐步开发和完善的基础。这种方法的核心是对模型的各个方面进行严格的测试、改进和增强,确保遵守必要的标准,并降低部署后出现错误或“幻觉”的风险。此外,必须在软件开发生命周期过程中建立强大的质量控制机制,以确定人工智能解决方案是否准备好广泛实施和采用。
在 AI 开发团队中培养多样性以最大限度地降低算法中的偏见风险已成为一种关键的最佳实践。认识到人类固有的有意识和潜意识的偏见和偏见,多元化的团队可以作为一种保障,通过提供不同的观点和见解来帮助减轻偏见的可能性。
此外,数据治理的“健康检查”必须始终如一地作为标准做法实施,以帮助确保 AI 模型的质量和准确性,尤其是在使用新数据集重新训练它之后。定期评估对于评估更新数据导致的输出偏差是必不可少的。这些检查还包括使用错误分析、合规性验证和反馈注入进行的部署后评估和全面验证。捕获全面的开发文档也很重要,以帮助确保 AI 开发的可靠性、遵守法规和知识共享,如果忽视这些文档,对于快速发展的团队来说可能是极其危险的。通过进行这些检查,组织可以提高人工智能模型在医疗保健领域的完整性,随着时间的推移增强对其有效性和道德使用的信任和信心。
人工智能在医疗保健领域的变革潜力是巨大的,但也伴随着重大的责任。随着 AI 模型的集成不断受到关注,优先考虑患者福祉、维护强大的数据治理标准以及倡导负责任的开发实践至关重要。行业利益相关者、技术专家和政府实体之间的合作也必须加快。虽然未来的旅程可能充满挑战,但齐心协力教育和提高对人工智能素养和偏见的认识仍然是一种优势。通过精心策划和认真实施,人工智能有望彻底改变医疗保健,将人类带入一个创新和效率的新时代。