TAG

RSS订阅

收藏本站

设为首页

当前位置:读医学网 > 医药资讯 > 医学话题 >

医学AI犯了错谁担责?最新WHO指南这样说…

发布时间:2021-07-08 13:07 类别:医学话题 标签: 来源:环球医学网

近年来,人工智能发展迅速,逐渐引爆医疗圈。那么,AI会导致医护人员失业吗?AI和医生“意见分歧”怎么办?AI犯了错谁负责?近期,世卫组织(WHO)正式发布了“世界卫生组织卫生健康领域人工智能伦理与治理指南(Ethics and Governance of Artificial Intelligence for Health: WHO Guidance)”,其阐述了AI在医疗领域中的应用、适用的法律和政策、关键的伦理原则和相应的伦理挑战、责任机制和治理框架等。 该指南提出了确保AI符合所有国家公共利益的六项原则:1.保护自治权;2.促进人类福祉、人类安全和公共利益;3.确保透明度、可解释性和可理解性;4.培养责任感和问责制;5.确保包容和公平;6.促进具有响应性和可持续性的AI发展。 AI冲击医界 将导致大量医生失业? 影像是辅助医生诊断的工具,有数据显示,70%的临床诊断需要借助专业的医学影像。影像医生在人手紧张,同时又要面对大量复杂的影像情况下,难免漏诊误诊。而AI可以把影像诊断结果量化、标准化,提高医生的效率,降低误诊、漏诊率,并为临床提供指导。 纵观医疗人工智能市场,AI大显身手的领域逐渐扩大:肺结节筛查、乳腺X线钼靶、放疗靶区规划、糖尿病视网膜病变筛查、骨折监测、三维骨盆重建、黑色素瘤的辨别…… 另外,在临床护理中,人工智能护士不但可以回答患者的反复提问,还可以用画面显示让患者一目了然;在配药方面基本零失误,短短20秒左右就能把药品送到病房;除了快速配药,同时人工智能护士还配备智能输液监测器、可穿戴设备等智能化设备…… 如此一来,AI如火如荼的发展会让大量医护人员失业?答案是否定的。WHO在此次公布的指南中阐述AI在临床护理中使用的趋势时,以中国为例,指出“在中国,远程医疗提供者数量在新冠肺炎大流行期间增加了近4倍”。这能够改善医疗资源紧张、医护人员不足的现状。同时,慢性疾病等类型的患者,也能够借助AI更好地进行自我管理,降低对医护人力资源的需求。 AI将减轻临床医生的日常工作负担,让他们与患者相处的时间更多,并专注于更具挑战性的工作;医护人员将履行其他角色,如标记数据或设计和评估AI技术等,因此不会失业。 AI和医生“意见分歧”怎么办? 不可否认,在临床护理的某些方面,AI取代人类的判断不乏一些好处:机器能够更快速、准确、灵敏地执行决策;大量影像数据和功能成像数据分析能够提高疾病诊断准确性。 然而,目前在医疗卫生领域,决策权尚未完全从人转移到机器。一旦AI和医生出现“意见分歧”时,如果医生忽略机器的决策,AI就失去了价值;如果医生选择完全接受AI的决策,医生的权威和责任也将被削弱。 由于目前很难评估AI对医疗决策的影响,AI能在多大程度上影响医生的判断。所以,医生仍然应该继续完全控制医疗卫生系统和医疗决策。 AI犯了错 谁担责? 新技术新产业也隐含新风险,那么,AI犯了错,谁担责?大多数人会发出这样的疑问。2018年,日本计划制定AI医疗规则:由于AI存在误诊的可能,因此把AI医疗设备定位为辅助设备,基于《医师法》规定“作出最终诊断和决定治疗方针的责任由医生承担”。 不过,此次WHO发布的指南指出,AI犯了错,由医生承担责任并不合理。首先,临床医生不会控制AI技术。其次,由于AI技术往往不透明,医生可能不理解AI系统如何将数据转换为决策。第三,使用AI技术,或是因为医院系统或其他外部决策者的偏好,而非临床医生的选择。 再加上AI会进行自我发展,并非每一步都是人为设定,这样就把伤害患者的风险全都加在离AI更近的医护工作者身上,而这是不合理的。 随着科技的发展和社会的进步,AI势必会持续渗透医疗的各个环节:在辅助诊断、影像识别、医疗机器人、智能药物研发、健康管理、医院管理、疾病风险预测、辅助医学研究……然而,机遇背与风险并存,AI医疗还有很长的路要走。 (环球医学编辑:余霞霞)