四川省|AI似人,伦理与法律边界在哪?

四川省|AI似人,伦理与法律边界在哪?


“人工智能(AI)医疗的发展实属新兴领域 , 无论是在‘现在时’还是‘将来时’的运用中均存在大量的未知空间 。 ”西南政法大学民商法学院商法教研室讲师刘梦祺曾在最新一期《中华医学杂志》发表的《人工智能医疗应用的现实难题及法律对策探析》中表示 , 在开展AI医疗的过程中 , AI一方面能推动公共卫生和医学实践的巨大进步 , 为民众的医疗和保健提供更优质便利的服务;另一方面我们也逐渐认识到AI医疗的发展对人类会产生潜在的负面影响 , 患者的隐私保护、医疗损害赔偿的责任认定以及衍生的伦理性问题将日益凸显 。
AI和人类产生分歧怎么办?
AI在医疗应用中的伦理问题 , 既有AI应用的常规问题 , 也有与医疗相关的特殊伦理问题 。 例如部分医疗行业从业者会担心AI和医生发生分歧怎么办?医生的自主权怎么保证?
在医疗护理方面 , 诊断中 , AI在放射学和医学成像领域应用较为广泛 , 但仍相对新颖 , 尚未常规应用于临床决策 。 目前 , AI用于评估诊断肿瘤、眼科和肺部疾病 , 并可能通过成像、超声心动图等 , 实现卒中、肺炎、宫颈癌等疾病的及时检测;同时用于预测心血管疾病、糖尿病等疾病或重大健康事件的发生 。 临床护理中 , AI能预测一些疾病进展和耐药性 。
专家指出 , 在临床护理的某些方面 , AI取代人类的判断是有好处的 , 例如与机器相比 , 人类可能做出更不公平、更有偏见、更糟糕的决定 。 当机器能够更快速、准确、灵敏地执行决策时 , 将决策交给人类 , 可能意味着一些患者会发生可避免的病变和死亡 。
目前 , 在医疗卫生领域 , 决策权尚未完全从人转移到机器 。 矛盾的是 , 在AI和医生出现“同行分歧”的情况下 , 如果医生忽略机器 , AI就没有什么价值;如果医生选择完全接受AI的决定 , 可能会削弱其权威和责任 。
比“同行分歧”更甚的情况可能是AI系统正在取代人类成为认知权威 , 常规医疗职能可能会完全交给AI 。 如果不采取适当措施 , 将削弱人类的自主权 , 人类可能既不明白AI是如何决定的 , 也不能与AI谈判 , 以达成协商的决定 。
法律层面存在现实难题
“AI医疗的行为主体认定是当前理论界与实务界共同关注的首要问题 , 只有首先明确AI医疗的主体地位 , 后续的法律问题及相应的解决措施才能得到系统化的推进 。 ”刘梦祺指出 , AI医疗主体的定位主要在医疗设备或器械与医生之间徘徊 , 换言之究竟定位是“物”还是“人”?如果认定是医疗设备 , 那本质上仍然是民事法律关系中的客体 , 与普通的工具别无二致 。
【四川省|AI似人,伦理与法律边界在哪?】刘梦祺指出 , AI医疗发展的趋势在于能够具有独立的意志(思考力和决策力) , 在脱离人类的控制下可以进行自主操作 , 单凭这一点我们就难以将其一直固定于“物”的范畴 。 如果将其定位为医生 , 它的主体定位是与自然人医生完全相同 , 还是在法律上定义为具有完全或有限的人格?是否可以赋予AI医疗与医生相同的权利和义务?在确立了AI医疗主体定位的基础上 , 同理可推导其行为的性质 。 若将AI医疗定位为“物” , 其行为只能视为是医生的医疗行为 。 相反 , 若将其主体定位为“人” , 即AI医疗的行为主体是自己 , 其是否与自然人一样享有民事权利和具有民事行为能力?
除此之外 , AI医疗中的医患关系也是关注焦点 。 传统医患关系之间发生纠纷及其责任认定问题在我国现有的以《民法典》侵权编为代表的法律规定中已经得到了较为完善的解决 。 然而当AI在医疗活动中为人类带来高效、智能的医疗服务时 , 不可避免地会发生AI医疗诊断错误、治疗过程出现故障等情况 , 从而引起新型的医疗纠纷 , 使他人人身或财产受到损害 。