四川省|AI似人,伦理与法律边界在哪?( 二 )


当前阶段 , AI医疗在临床应用中发挥了一定的诊疗功能 , 但基本上扮演辅助医生的角色 , 最终诊疗决策还是依靠医生来确定 。 因此 , 当AI医疗使人受到损害可以根据《民法典》的规定视情况而定 。 若是AI医疗设备本身存在缺陷 , 应由生产者或医疗机构承担无过错责任;若是医生过错、过失导致患者受到损害 , 应当由医生(医疗机构)承担赔偿责任 。
尝试多种解决办法
AI医疗现存问题众多 , 因此法律、医疗等领域的从业者均提出了多种解决办法 。
刘梦祺认为 , 第一 , 应否认AI医疗的法律主体地位 。 一方面是源于其无法依靠算法设计完全替代医生在诊疗活动中发挥的作用 。 另一方面 , 人类应当明确并达成共识——无论在现在还是将来 , 医疗领域只能以人类为主导 , 因为其关乎每个人的生命健康 。 若在立法上赋予AI医疗法律地位以及相应的行为能力 , 有朝一日人类的健康和安全将会受到巨大的威胁 。
第二 , 应优化AI医疗各利益方的责任制度体系 。 在使用层面细化医疗机构和医生的责任 , 在制造层面明确生产商的责任 。
第三 , 应建立专门的AI医疗监督委员会 。 “安全原则是AI应用的核心 , 包括物理意义上的技术安全和抽象意义上的安全可控 。 ”刘梦祺表示 , 将AI引入医疗领域对于人类来说 , 最重要的还是确保其安全性 。 在各方利益冲突的情况下 , 专设AI医疗监督委员会具有重大意义 。
重庆医科大学附属第三医院心血管内科主治医师王端指出 , 政府部门和AI行业要尽快制定严格的医疗AI技术标准、安全标准和应用规范 , 构建动态的评估评价机制 , 以便对医疗AI的基础平台、技术研发、产品与服务、临床应用、安全与伦理等方面加以指导和监管 。 在大数据背景下 , 要兼顾医疗数据共享与患者隐私安全 。 除在技术上对数据采取“匿名化”、加密存储等措施外 , 加强数据管理也是重中之重 。
此外 , 各国政府和世界行业组织等也纷纷发布伦理原则 , 鼓励科研人员将伦理问题置于AI设计和研发的优先位置 , 强调AI应当符合人类价值观 , 服务于人类社会 。
例如 , 2016年12月 , 美国电气和电子工程师协会发布了《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》;2017年1月 , 来自全球近千名AI领域专家在 Beneficial AI 会议上联合签署了《阿西洛马人工智能原则》 。
从国家层面来看 , 2018年以来 , 英国、欧盟相继发布了《人工智能准则》和《人工智能道德准则》 , 我国于2019年6月发布了《新一代人工智能治理原则——发展负责任的人工智能》 , 提出“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”八条原则 。
2021年 , 世界卫生组织(WHO)与20人专家领导小组合作 , 确定了AI医疗6项核心原则 , 以提高AI在医疗卫生领域使用的伦理水平 。 这6项核心原则为:保护自治权 , 促进人类福祉、人类安全和公共利益 , 确保透明度、可解释性和可理解性 , 培养责任感和问责制 , 确保包容和公平 , 促进具有响应性和可持续性的AI发展 。
“医学技术的本质是解除患者痛苦 , AI医疗的发展目标也应如此 。 如果仅仅追求技术的不断突破而丧失了对人类安危的守护 , 那么这既违背了医者的初衷 , 也偏离了人类发展的正确路线 。 ”刘梦祺说道 。
原文载于《医学科学报》 (2022-09-02 第5版 封面)