在“健康中国2030”规划的统筹推进下,医疗行业由传统医疗转变为数字医疗、信息医疗,再由数字医疗转变为智慧医疗。《中国人工智能医疗白皮书》将人工智能在医疗领域的应用归纳为5大方面,即医学影像、药物研发、辅助诊断、健康管理和疾病预测,利用人工智能技术助力医疗发展成为社会的研究热点。新冠病毒疫情期间,人工智能技术在健康管理、药物研发、疾病预测和疫情防控等方面发挥了重要的作用。人工智能技术不断发展,在重塑人类生活工作方式的同时,也给现代科技伦理学带来了安全伦理、人权伦理、责任伦理等一系列伦理挑战。“AI+医疗”涉及的伦理问题也是现代医学伦理学无法回避的重要议题。
从科技实践层面来看,科技伦理既包括科学研究过程中应遵循的伦理规范,也包括科学技术应用过程中应遵循的伦理规范;既包括传统科技的伦理规范,也包括各类新兴科技(如人工智能、基因工程、大数据等)引发的新型伦理问题。科技伦理治理,是对科学技术负面效应的批判性审视,不仅要将这些伦理规范和价值准则应用于科学研究中,更要将其落实于具体的社会治理行动中,引导科技向善。《加强科技伦理治理的意见》指出,要加强科技伦理治理,有效防范科技创新可能带来的伦理风险。目前,我国正处于建设面向2035的科技伦理体系关键时期,在此过程中,重视“AI+医疗”伴随的伦理问题,不仅有利于完善人工智能应用的伦理原则、规范和体制机制,推动科技伦理体系建设,更有利于确保我国科技创新活动行稳致远,使科学技术更好地造福社会。因此,研究阐述了人工智能应用于医疗领域的现状,深入分析面临的伦理问题及其产生原因,并针对相关伦理问题提出治理建议,为完善“AI+医疗”伦理体系,促进“AI+医疗”规范化发展提供理论基础。
1 应用现状
人工智能(AI)诞生于1956年,其发展经历了多次低谷和高潮。20世纪前,国内外对“AI+医疗”的研究集中在临床知识库上。最初的临床知识库运行需借助LISP设备,但由于LISP设备无法接连互联网且造价昂贵,导致临床知识库应用受到限制。2000-2015年,国外逐步将人工智能应用于疾病救治,创造了手术机器人、电子病历等新兴产品。而中国致力于临床知识库深入研究,“AI+医疗”发展相对缓慢。2015-2017年,人工智能算法进一步优化,其图像识别准确率大幅提升,“AI+影像”进入快速发展阶段。基于前期临床知识库的研究,用于疾病判断的临床决策支持系统(Clinical Decision Support System, CDSS)产品逐渐趋于成熟。2018年,我国发布了《关于促进“互联网+医疗健康”发展的意见》,明确鼓励在医疗保健领域大力发展人工智能等技术应用。在规划推动下,中国“AI+医疗”进入快速发展阶段,创造了智慧病案、智能导诊等新产品,而国产手术机器人仍在培育期。
当前,将人工智能应用于医院层面的服务有智能语音电子病历、智能导医问诊、医疗质量监控、远程医疗、智能手术机器人等。某公司将人工智能与电子病历结合,开发了一款语音病历录入系统,极大缩短了医生报告录入的时间,提高了医生的工作效率。有学者提出并研发的临床“AI+COVID-19”诊断系统,可以用于识别肺部CT影像,并精确诊断、量化和预测COVID-19肺炎。“妙手S”腹腔微创手术机器人、达芬奇外科手术机器人等外科手术机器人也广泛应用于临床治疗。除此之外,人工智能还可用于体检机构的智能健康管理,基因检测机构的基因检测,疾控机构的传染病防控和药企的药物研发等工作。
2 伦理问题及其产生原因
智慧医疗的发展产生了海量的医疗数据,而“AI+医疗”正是通过大规模机器学习和深度学习等技术,处理和分析这些海量的医疗数据,并从中挖掘有价值的数据信息,最后通过建立模型找到解决临床问题的方案以及进行疾病预测等。人工智能在推动医疗健康产业迅速发展的同时,也带来了一系列伦理问题。根据人工智能伦理问题的特征和产生方式的不同,可以从技术、数据和社会应用3个方面分析其产生的原因。
2.1“AI+医疗”伦理问题的产生原因
2.1.1 技术方面。算法与系统的安全问题、算法歧视问题、算法决策问题、算法的透明度问题等都是由人工智能技术引发的伦理问题。算法与系统的安全问题,主要是指人工智能算法被恶意篡改,或系统的漏洞被攻击和恶意利用的情况;算法歧视问题,主要是指研究人工智能算法的人员的认知偏见或者训练数据不完善导致歧视性的决策结果;算法决策问题,主要是指人工智能得出的不可预见性结果;算法的透明度,主要是指算法的可解释性和人类的知情同意。
2.1.2 数据方面。人工智能技术的发展离不开海量数据。随着智能电子病历、智能健康监测等技术的广泛应用,给平台运营方提供了大量收集用户信息的机会,数据收集、保存、提取、流通和利用的安全性,成为引发人工智能伦理问题的重要原因。
2.1.3 社会应用方面。人工智能算法的滥用或误用引发了人工智能社会应用方面的伦理问题。由于算法滥用或误用,人们在社会活动时容易出现使用目的、方式、范围等偏差,从而导致不良的影响和后果。以智能影像诊断为例,利用人工智能辅助影像诊断,可以提高医生诊断效率,但是,如果由人工智能完全替代医生诊断,则有可能诊断错误,进而导致医疗事故。
2.2 人工智能应用于医疗领域的伦理问题
2.2.1 医生主体地位被削弱。人工智能最重要的核心是“数据算法”。人工智能通过收集海量的数据进行提取分析,并迅速得出相应的结论或触发相应的操作。随着算法的不断完善和发展,人工智能被逐步应用于辅助或代替医生做出诊断。从导诊、检查分析、病例录入、手术和放疗等都可见到人工智能的影子。随着人工智能主体性的增强,医生的主体性相对减弱。医务人员是医疗活动中的主体,医生通过学习和实践掌握着丰富的诊疗经验和强大的风险掌控能力,使其能够完成疾病的诊断与治疗。然而,医疗大数据、人工智能的普及引发了医生无用论的观点。患者也因为对科学的信赖而偏向相信数据分析结果,这也导致医生在医疗主体中的地位被逐渐削弱。当前,医生的部分决策权已被人工智能取代,人工智能会提示医生如何做出下一步决策。在此情形下,医生对人工智能的依赖性增加,医生的主体地位逐渐弱化。
2.2.2 数据或隐私安全风险增加。随着谷歌公司“夜莺计划”等事件的曝光,人工智能隐私、安全问题受到世界各国的关注。“AI+医疗”的数据涉及个体身份信息、家庭环境、病历资料、个人生活习惯等,有些智能健康管理APP甚至可以收集个体的情绪变化、精神状态、心理波动等数据。这些信息被实时上传至数据库,供研究机构随时调取分析,导致数据或个人隐私被泄露的风险急剧增加。同时,在大数据环境下,不法分子可能利用数据挖掘预测技术对碎片化的个人健康信息进行处理,以此推测出个人的核心隐私信息,个人数据或隐私的保护难度加大。此外,“AI+医疗”的实施需要依托各类数字平台的建设,数字平台在存放或使用海量数据方面可能存在安全隐患。一方面,平台运营方掌握了大量医患数据,大数据下的云服务与精准推送可能造成医患用户被“数字控制”。这不但包括控制医患用户的使用行为,还包括控制搭建数字平台的底层技术。平台运营方拥有海量的医患用户数据,可能引发数据垄断,相关数据会面临较大安全风险。相关核心数据如果跨境流动,其潜藏的国家安全隐患更为巨大。另一方面,未来医疗机构间、数据平台间的联合将更加紧密,数据在机构间、平台间的流通也存在一定安全风险。
2.2.3 医患信任危机加剧。医疗服务长期具有医患信息不对称的特征,使得医患信任危机成为医学伦理学长期面临的难题。随着人工智能在医疗行业的普遍应用,虽然一定程度上为患者提供了方便快捷的咨询、初诊服务,缓解了看病贵、看病难以及误诊的问题,但人工智能算法结果的不确定性和利己性、过程的难理解性等可能在实际诊疗中给医患信任带来新的危机。新的危机主要表现:一是就医环境智能化逐渐改变患者的行为方式。智能便携设备时刻收集患者的数据,并实时给予患者治疗建议与运动提醒,日复一日改变了患者的就医行为和价值选择。一方面,人工智能在医疗领域的某些方面表现优异,造成了患者的“科技迷信”,对医生的诊断经验持怀疑态度。另一方面,大数据下的精准推送服务会投其所好,使患者更加相信网络信息,而对医生产生怀疑态度。二是人工智能挑战了医生的权威性和知识垄断地位。传统医患关系中,医生在医学专业知识和信息资源中占权威和垄断地位。医疗领域人工智能的诞生汇聚了海量的医学知识,其知识存储、读取能力远超于医生,对部分疾病的诊断效率和精确度也大幅高于医生,因此患者对人工智能给出的诊疗建议的信任程度超过医生,由此对医生的建议产生质疑。
2.2.4 医疗资源分配不均加剧。人工智能可以高效地完成各类医疗任务,如录入病例、辅助诊断、远程医疗等,其根本目的是使所有人从中受益,并非加剧医疗资源分配的不均。智慧医疗是IBM于2008年底提出,旨在缓解医疗资源分配不均的矛盾,提升卫生服务可及性、公平性。然而,搭载人工智能的医疗仪器具有精密度高、造价昂贵、维护成本高等特点,使得“AI+医疗”难以全面推广,拥有优质医疗资源的医院门庭若市,而基层医疗机构无人问津,一定程度上加剧了社会不公与资源分配不均。
2.2.5 事故责任界限模糊。基于人工智能的医疗服务使得各种智能便携设备、远程医疗系统、远程健康监测系统、健康云平台等参与其中,涉及的法律主体包括设备开放商、软件系统开发商、医疗卫生服务机构、医务人员、网络运营商、服务提供商等。若在服务过程中发生意外事件,其责任界限模糊,加大了事故责任界定难度。
3 加强“AI+医疗”伦理治理路径建议
3.1 强化医生主体地位
强化医生的主体地位是“AI+医疗”伦理治理的首要途径。首先,要肯定医生的独立性。人工智能可以辅助医生做出诊断,但不能完全取代医务人员。当人工智能的决策结果与医生的临床经验发生冲突时,必须将最终决策权交给医生,而人工智能的决策结果只能作为参考。其次,要肯定医生的亲历性。医生应亲自参与患者诊疗的全过程,在非关键节点可以适当使用人工智能,以此提升诊疗效率,而在关键性节点,其最终的决策应由医生完成。
3.2 建立健全信息数据保护制度
我国目前关于保护医疗健康信息数据的规定多散见于各个法律制度,针对“AI+医疗”信息数据保护的法律法规较少。因此,政府及相关部门应建立健全“AI+医疗”信息数据保护制度,细化界定“AI+医疗”数据的保护标准和保护范围。同时,政府应统筹制定隐私安全保护和监督规范,医疗机构、健康管理机构以及各类与健康信息数据收集、管理有关的机构应在政府规范的统领下,根据自身工作特点,制定相应的隐私安全保护规范,并安排专职人员进行监督,确保信息数据安全性。政府可以建立专门的数据安全和保护平台,定期对相关机构开展数据安全性检查和数据伦理学教育,加强其职业道德修养,提升数据保护能力。
3.3 增强患者对医务人员的信任感
“AI+医疗”的诞生改变了医患之间的伦理关系,针对“AI+医疗”中医患信任缺失的伦理问题,其治理路径应以增强患者对医务人员的信任感为方向。一方面,要强化医患目标一致性意识。无论是否应用人工智能,医生的最终目标都是希望治愈患者。因此,以医生为主体、人工智能为辅,重建医患间信任的桥梁,才能共同协作完成诊疗康复全流程。另一方面,要强化政府监管职能。政府应完善相关政策法规,对有关医疗机构或企业进行监督和规制,保证人工智能功能和性能的真实性与可靠性。同时,还应对各类违法违规的“AI+医疗”行为予以惩处,以此增强患者对医务人员的信任感,有效化解医患信任危机。
3.4 提高医疗资源配置效率
“AI+医疗”旨在提高医疗资源配置效率,在一定程度上缓解了医疗资源分配不均衡的问题。然而,搭载人工智能的仪器设备具有高端化的特点,使得普通民众难以负担得起智能医学技术,医疗资源配置不均衡问题加剧。因此,政府应充分发挥其在资源配置中的引导性、弥补性作用,加大公共医疗资源供给力度,着力建成分工明确、运行高效的整合型医疗卫生服务体系,切实提升医疗公平与公正。其次,政府应将“AI+医疗”纳入社会保障体系,降低民众的医疗负担,保证全民享有智能医疗发展的红利。
3.5 完善事故责任界定体系
完善事故责任界定落实体系刻不容缓,政府应加强专项立法,出台“AI+医疗”责任分配等相应法律法规,建立人工智能应用审批体系,从法律层面规范“AI+医疗”的相关标准并进行有效监管,明确人工智能应用于医疗过程中各法律主体的责任和义务,建立健全智慧医疗审查和风险规避制度。