道德问题|人工智能发展何时突破枷锁?( 二 )


从这个角度分析 , 发展人工智能的价值判断并没有道德层面的问题 , 更重要的是分析为何要进行道德评价 。 道德评价的根本是为了得出一个结果并为后续行为进行指引 。 采访人员认为 , 在人工智能的归责上 , 应当将人工智能区分为决策系统和执行系统 , 并对相应的系统引入“负责人”制度 。
在决策角度 , 尽管从法律角度惩罚行为不惩罚思想 , 但只是针对自然人 。 而现行人工智能的“思想”是可以通过数据的方式表达出来的 , 故从决策层面来看 , 人工智能仍存在管控需要 。 人工智能的“思想”存在错误 , 究其原因是训练算法的数据存在问题 , 即人工智能学习了社会存在的问题并加以运用 。 如美国的电商品牌亚马逊在进行员工录取时运用人工智能算法对候选人的简历进行初步筛选 , 结果更加倾向于男性 , 因为工程师在对该算法进行训练时 , 用的是之前亚马逊已经被录用员工的简历进行训练的 , 而亚马逊男性员工偏多 。 结果就是这样的算法使得亚马逊的简历筛选算法更加倾向于男性 , 造成了算法的“性别歧视” 。 采访人员认为 , 如果是因为算法和训练数据的原因造成的法律结果 , 则结果应当对负责算法设计或训练的责任主体进行追责 。
在行为角度 , 即便是人工智能在行为执行度上已经能媲美甚至超越人类 , 在法律层面 , 人工智能仍被视为物而并非权利能力的主体 。 这也就意味着现在的法律否认人工智能能独立承担法律责任 , 本质上是因为人工智能不能对其所实施的行为负责 , 设立“负责人”制度类似于法人组织的法定代表人制度 , 由具体的自然人承担由行为而产生的责任 。 而将“思维”和“行动”区别开 , 则可以在归责方面更加细化 , 在保障有效承担责任的同时不至于影响人工智能行业发展的积极性 。 在现行民事领域 , 人工智能产品侵权适用产品责任 , 强调对研发者、生产者和销售者的责任 。
* * *
近年来 , 我国接连发布了《新一代人工智能治理原则》《新一代人工智能伦理规范》等政策文件 , 明确提出八项原则 , 强调将伦理道德融入人工智能全生命周期 , 从原则性角度维护人工智能行业的健康发展 。 有关人士表示 , 国家科技伦理委员会人工智能分委会正在研究起草人工智能伦理高风险清单 , 以更好地推动人工智能科研活动的伦理监管工作 。 相信随着更多法律规范的出台 , 人工智能的应用道德问题一定能得到极大缓解 。
小贴士
人工智能都有哪些梗?
电车难题:“电车难题(TrolleyProblem)”是伦理学领域最为知名的思想实验之一 , 最早是由哲学家菲利帕·福特(PhilippaFoot)于1967年发表的《堕胎问题和教条双重影响》论文中提出来的 。 大致内容是假设在一个电车轨道上绑了5个人 , 备用轨道上绑了1个人 , 有一辆失控的电车飞速驶来 。 而你身边正好有一个摇杆 , 你可以推动摇杆来让电车驶入备用轨道 , 杀死那1个人 , 救下5个人;你也可以什么都不做 , 杀死5个人 , 救下1个人 。 此类伦理道德困境问题被称为“电车难题” 。
人工智能“奇点”论:最先将“奇点”引入人工智能领域的是美国未来学家雷·库兹韦尔 。 在他的《奇点临近》《人工智能的未来》两本书中 , 将二者结合 , 他用“奇点”作为隐喻 , 描述的是当人工智能的能力超越人类的某个时空阶段 。 而当人工智能跨越了这个“奇点”之后 , 一切我们习以为常的传统、认识、理念、常识将不复存在 , 技术的加速发展会导致一个“失控效应” , 人工智能将超越人类智能的潜力和控制 , 迅速改变人类文明 。