|AI专业有门不教算法的“伦理必修课”( 二 )


与自动驾驶相比 , 智能语音客服的应用如今更为广泛 。 用户拨打客服电话时 , 与他交流的很可能是语音机器人 。 在“辅助性的人工智能”专题中 , 郑戈将援引布鲁克林法学院教授帕斯奎尔的观点 , 分析“人工智能和机器人系统不应该假冒人类”这一法则 。  
智能语音系统为何不能假冒人类 , 而应在对话中告知用户自己是机器人?他解释说 , 现代伦理学的基础是康德提出的“人是目的 , 不是手段” , 这个论断确立了人的主体性地位 , 日益强大的人工智能算法如果假冒人类 , 会消解人的主体性 。 “人工智能应该是辅助性的 , 人工智能和机器系统必须显示出它们的创造者、控制者和所有者 , 而不能刻意模糊人与机器的界限 。 ” 
在郑戈看来 , 国内高校的理工科教育过于偏重工具理性 , 只要求学生找到科学和工程目标的最优解 , 忽略了“人生的目的”“有温度的科技”等价值理性 。 “人工智能思维与伦理”课程在价值理性教育上做了积极探索 , 会让理工科大学生更富有人文情怀 。  
大学生和中学生都应学伦理 
虽然只听了两节课 , 但卜家梓已经有了改造移动互联网产品的想法 。 “很多同学喜欢刷抖音等软件 , 因为它们一直推送自己喜欢看的内容 , 我了解到‘信息茧房’理论后 , 才意识这类软件是有问题的 , 因为它们只根据用户个人喜好推送信息 , 会让用户思维固化、眼界狭隘 。 ”小卜谈了自己的观点 。 在发给吕老师的课后作业中 , 他提出了改进建议:软件开发人员和算法工程师应遵循伦理规范 , 加入“是否允许本App收集您的偏好等信息”这一权限给予提示 , 让用户获得不根据行为偏好获取信息的权利 , 不再受“信息茧房”束缚 。  
吕宝粮和郑戈介绍 , 国外不少高校也开设了人工智能等信息技术伦理课 。 比如麻省理工学院的“工程师伦理:人工智能” , 从引发伦理困境的工程案例出发 , 揭示其背后的深层问题 。 又如普林斯顿大学的人工智能与伦理对话项目 , 由该校人类价值中心和信息技术政策中心联合开发 , 建有案例库 , 供教学和研究使用 。  
“我们身处数字社会 , 人工智能已从前沿技术变成基础技术 , 带来了一系列伦理、法律和治理问题 。 ”郑戈表示 , 国内高校相关专业都有必要开设伦理类课程 , 从人才培养入手树立“科技向善”理念 , 让大学生拥有自觉的科技伦理意识 , 在未来职业生涯中践行科技伦理、遵守法律法规 。  
他还建议国内科技和教育工作者借鉴麻省理工的做法 , 为中学生开发人工智能伦理课程 。 据介绍 , 麻省理工为中学生开发的课程旨在提高青少年使用智能手机、社交媒体时的自我控制和道德判断能力 。 “网络平台经济也叫注意力经济 , 平台背后的行为偏好算法让很多青少年沉迷其中 , 花费了大量时间 。 ”郑戈说 , “中学可通过课程教育 , 让学生了解网络平台的算法逻辑 , 产生对人工智能两面性的自觉意识 。 ”