中电网移动|移动中电网
 
中电网移动|移动中电网|高清图滚动区

安全隐患多,AI医疗应用中要注意哪些问题?

1、数据泄露问题

医疗数据包括患者的身份信息、健康状况、疾病诊疗情况、生物基因信息等,不仅涉及患者隐私,还具有特殊的敏感性和重要价值,一旦泄露,可能给患者带来身心困扰和财产损失,甚至对社会稳定和国家安全造成负面影响。然而,医疗 AI 的研发与应用,必须依赖大量的医疗数据用于算法训练,数据量越大、越多样,其分析和预测的结果将越精准。但数据收集、分析处理、云端存储和信息共享等大数据技术的应用,加大了数据泄露的风险。
 
事实上,近年来医疗行业已经成为数据泄露的重灾区。2017 年全球 15%的数据泄露事件来自医疗保健行业,仅次于金融业。我国医疗数据泄露事件也不鲜见。据《法制日报》2017 年 9 月报道,某部委医疗信息系统遭到黑客入侵,被泄露的公民信息多达 7 亿多条,8000 多万条公民信息被贩卖。2018 年多家医疗机构计算机系统被勒索病毒攻击。2020 年 4 月,某 AI 医学影像公司遭黑客入侵,其 AI 辅助系统和训练数据被窃取,并以 4 比特币(约合 18 万人民币)的价格在暗网上公开出售。这也是国内首家被曝数据泄露的医疗 AI 公司案例。
 
2、医疗安全问题

尽管医疗 AI 被赋予了准确、高效、安全等优点,但医疗活动本身具有一定的风险性和不确定性,加上手术机器人等医疗 AI 在应用中需要密切接触患者身体或直接作用于人体某些器官,不可避免地面临潜在风险。主要包括技术和人为两方面的因素。
 
从技术来看,国内医疗 AI 的发展在当前还处于起步阶段,产品性能还不稳定,也缺乏相应的标准和规范,安全性还有待考证,需要在实践中不断调试改进。即使是较为成熟的进口产品,也存在诸多问题。据美国媒体报道,使用沃森肿瘤解决方案的医生发现,沃森经常会推荐不准确甚至错误的治疗建议。如果医生据此决策,后果难以设想。
 
人为因素主要是医生操作不当。在现阶段,医疗 AI 还只是机器或程序,它不能根据实际情况调整自己的行为,必须依赖医生对机械进行操控或做最终决策。在应用之初,医生可能因经验不足、操作不熟练而引发机器故障,有的甚至会造成严重后果。如 2015 年 2 月,英国首例机器人心脏手术过程中出现“机器失控”,主刀医生在慌乱中应对失当,最终导致手术失败,患者一周后死亡。这起事故的原因,除机器故障外,与主刀医生操作经验不足、未充分估计手术风险有很大关系。
 
3、责任界定问题

传统医疗模式下,医疗机构和医生是医疗服务的责任主体。引入 AI 后,改变了传统的医患关系格局,医生与患者之间增加了“AI 医生”及其设计制造商,这就使得医疗责任认定问题变得复杂起来。一方面,在当前技术条件下,无论是人类医生,还是医疗 AI,都不能达到 100%的准确率,出现误诊和漏诊在所难免。如果在诊治过程中,医生依赖 AI 出具的报告做出错误的判断,给患者的疾病诊治和身心健康带来伤害时,其责任到底该由谁来承担?另一方面,随着 AI 技术的发展,今后的 AI 将拥有越来越强大的自主能力,在医疗活动中将扮演越来越重要的角色,甚至可能独立做出诊断结果,医疗责任界定问题将更加突出。当医疗 AI 作为直接“参与者”,在手术、康复训练和护理中出现伤害患者的异常行为,或间接性地对患者造成欺骗性、虚幻性消极影响时,是否可以追究它们的伦理责任和道德义务?它们是否具有或在多大程度上具有承担医疗责任的能力?因此,有必要加强医疗 AI 背景下的风险责任规制,以确保患者和公众的健康权益。
 
4、公平受益问题

AI 应用于医疗领域,大大提高了诊疗效率和精准度,无疑会给患者带来巨大福音,但也存在不能公平受益的问题。一方面,由于医疗 AI 是新兴的医学高新技术,在目前阶段还属于稀缺资源,加上医疗 AI 的研发成本高昂,因而在临床应用中收取费用较高,且一般不在医疗保险报销范畴。这就使得医疗 AI 成为少部分人群能够享用的技术,大多数患者由于经济能力有限,只能望机兴叹。另一方面,基于算法和大数据的 AI 程序并非完全客观公正,其中可能隐含着某些偏差或歧视。这些偏差或歧视可能来自算法设计者的价值偏好,也可能来自有偏见的训练数据,还可能来自输入数据的抽样偏差。由于深度学习是一个典型的“黑箱”算法,具有不透明性和不可解释性,从而使这些偏见难以被觉察,并在深度学习中被不断复制和放大,最终导致预测结果的偏差,可能使某些人群在医疗评估中受到歧视性对待,甚至可能引发医疗安全事故。
 
5、医务人员的未来定位问题

AI 有着远超人类的学习能力和计算能力,其准确、高效和不知疲倦等优势,将极大提高工作效率,降低劳动成本,并逐步取代越来越多的人工劳动。2017 年,英国一家名为“改革”的智库发布报告称,机器人未来将有可能取代英国公共部门近 25 万个岗位。在医疗领域,AI 正逐渐取代人类从事一些简单的医疗后勤和技术工作,如智能导诊、微信挂号缴费、机器人发药等,并在医学影像、辅助诊疗等核心医疗环节发挥着越来越重要的作用,医师的主体性地位日益受到挑战。由此引发了人们对医务人员是否能被 AI 取代的争论。
 
医疗行业有其特殊性,涉及人与人之间的沟通和交流,需要医生的个人经验和情感投入,这是 AI 无法取代的。我国医疗资源短缺,基层医生经验不足,有了 AI 的辅助,医务人员不仅可以更好地诊治患者,还可把更多的精力用于与患者沟通,给予患者更多的人文关怀。从这一点来看,AI 不仅无法取代医务人员,还会使他们的工作更有价值,更有人情味,更能回归医学是人学的本质。但是,医疗 AI 的应用,必将推动现有医疗模式发生变革,也必将对医务人员提出更高的要求,如果医务人员不能及时完善知识结构,提升沟通技巧和人文素养,是难以胜任 AI 时代的医疗工作的。
 
6、患者信任问题

医疗技术的发展最终是为患者服务的,必须关注患者对医疗 AI 的信任问题。据笔者的一项调查显示:虽然大多数患者对医疗 AI 持乐观、期待态度,表示对拥有智能医疗设备的医院会更加信任,但对 AI 应用于临床诊断和治疗,患者的接受度和信任度并不高,且 AI 介入的工作越多,占据的角色越重,患者的接受度和信任度反而越低。
 
分析其发因,主要有两个方面:一是当前的医疗 AI 还处于初级阶段,患者对其缺乏深层次了解,加上很多技术尚未成熟,患者对其安全性、易用性等心存担忧,因而对其在医疗活动中的深度介入持戒备心理。二是医疗 AI 改变了传统的就医模式和医患关系,“医”不再只是有情感的人,也可以是智能机器或程序,传统的医患交流可能更多地变成“人机对话”。因此,面对不会说话、冷冰冰的机器,患者对其沟通能力、理解能力以及应变能力等存在怀疑态度,进而影响到他们对医疗 AI 的信任度。可见,AI 能否在医疗领域顺利应用,还需过患者信任这一关。

猜你喜欢
中电网移动|移动中电网|频道导航区