道德问题|人工智能发展何时突破枷锁?

近日 , 某品牌汽车在样车测试期间发生事故 , 造成了很大的人员财产损失 , 第一时间冲上了新闻头条 。 同时 , 被舆论关注的还有老生常谈的汽车自动驾驶问题 。 自动驾驶是否安全?是否应该开放自动驾驶?在自动驾驶的外壳下 , 人工智能能否拥有道德判断作为问题的核心也难下定论 。
“电车难题”人工智能面临道德困境
美国MIT设计了一个名为道德机器(Moral Machine)的网站 , 网站设计汽车失控的各种情景让观众做出选择 , 通过收集300万用户的反馈 , 道德机器发现 , 人们更倾向于让自动驾驶车自毁以保障更多人的生命 , 却希望自己的车没有这个特征 。 这一结论与文化、习俗无关 , 是人类通常普遍的选择 , 与社会普遍认知相契合 , 人们希望通过牺牲少数人的生命换取更多人的生命 。 但这与法律是相违背的 , 因为人的生命本身并不可以进行比较和量化 。
这是自动驾驶不可避免的道德问题 。 一方面 , 如果允许AI在失控中做出决策 , 根据权责一体的规定 , 也就意味着AI或其背后的自动驾驶公司应当对决策行为承担责任 。 另一方面 , 如果不允许AI做出决策 , 则不能称为自动驾驶——因为自动驾驶汽车的定义是不需要人为操作即能感测其环境及导航驾驶的汽车 。
自动驾驶遇到的“电车难题”只是人工智能行业遭遇的困境的一个缩影 。 尽管随着科技的进步和大数据行业的发展 , 人工智能模型越发成熟 , 但是在涉及道德、意识等人性方面的问题时却陷入尴尬的处境:根据人工智能“奇点”论 , 人工智能终会在理性和感性方面超过人类 , 但对人工智能的安全问题 , 人类又历来有“弗兰肯斯坦情结” , 一般人类在心理上无法接受与非生物的机器产生共情 。
今年6月上旬 , 谷歌2021年推出的对话应用语言模型LaMDA被其负责人之一的工程师莱莫伊爆出“有意识” 。 他认为LaMDA模型是一个有着自我意识能够感知这个世界的“人” , 拥有七八岁孩童的智力 。 莱莫伊说LaMDA模型不仅认为自己是一个人 , 还要争取自己作为一个人的权利并积极地为其进行辩护 。 事情爆出后 , 许多网友支持莱莫伊 , 认为人工智能的奇点已经到来 , 相信人工智能已经变得有意识和灵魂 , 可以像人一样进行独立思考 。
价值判断人工智能的爆雷区
人工智能是否有道德 , 即人工智能是否应当有价值判断?
如果认为人工智能有道德 , 意味着人工智能可以摆脱人的意志支配 , 对事件或事物进行独立评价 。 这一点在技术层面并不难实现 , 通过大量的数据“饲养” , 人工智能可以将事件或事物数字化 , 按照深度学习形成的一套“判断标准”进行衡量 。 上文中的LaMDA模型也是如此 。 但事实上 , LaMDA模型只是一个应答机器 , 知名机器学习和神经网络专家Gary Marcus表示:“LaMDA只是在人类语料库里提取字眼 , 然后匹配你的问题 。 ”从这一点分析 , 所谓的人工智能“道德”也只是对事件或事物的应答 , 并不能深刻理解何为道德评价以及道德评价的意义 。
再比如 , 不同的人工智能模型面对相同的情景时有不同的处理方式 。 仍以自动驾驶为例 , 以同样的方式冲向同样的桩桶 , 结果却截然不同 。 有的直接冲撞 , 有的躲避 。 这能上升到道德高度吗?很显然不能 , 甚至这两种模型没有优劣之分 , 因为基于不同的理念和要求设计出的模型有特殊性 , 前者认为此种情况属于驾驶员操作范畴 , 无需介入;而后者认为应当介入 。
再退一步讲 , 假设人工智能拥有像人一样的意识 , 可以独立思考 , 就意味着可以寄希望于它能解决道德问题吗?答案是否定的 。 简单地说 , 人类本身不能解决的道德问题不能指望在无“人性”概念的数字身上得到解决 。