|AI专业有门不教算法的“伦理必修课”

■这门课不教编程和算法 , 而是在讨论这样一些问题:你们今后开发产品时 , 能否遵循个人信息采集的“最小必要”原则?能否抵制“大数据杀熟”的商业利益诱惑?自动驾驶如果发生交通事故 , 该由谁承担违反注意义务的责任?智能语音系统为何不能假冒人类 , 而应在对话中告知用户自己是机器人? 
■采访人员 俞陶然 
9月13日是上海交通大学开学第一天 , “人工智能思维与伦理”课程在闵行校区开讲 , 近100名本科生聆听了计算机科学与工程系教授吕宝粮的第一讲 。 “我还以为这门课要教编程和算法 , 没想到吕老师主要讲的是伦理问题 , 感觉更接近文科 。 ”人工智能(AI)专业大一新生卜家梓告诉采访人员 。 周一晚上 , 小卜就写好了课后作业《“信息茧房”中的现代人》 , 对网络媒体的智能算法推送做了反思 。  
这门课程是交大电子信息与电气工程学院人工智能专业的必修课 , 其他专业的学生可选修 。 主讲教师共有4人 , 其中3人是人工智能科学家 , 另一位是法学家 。 来自商汤的人工智能专家作为企业特邀讲师 , 也会为学生上课 。  
吕宝粮和交大凯原法学院教授郑戈认为 , 为人工智能相关专业的本科生开设科技伦理课程很有必要 , 可以为未来的算法工程师、软硬件开发人员输入伦理意识 , 防止新一代信息技术被误用或作恶 。 教授发问引发未来精英思考 
深度学习等人工智能技术有哪些典型应用?阿西莫夫提出的机器人三原则是什么?霍金对人工智能的忧虑是不是杞人忧天?“人工智能思维与伦理”第一课上 , 吕老师讲的内容很快引起了同学们的兴趣 。 据了解 , 人工智能本科专业是交大录取分数线最高的专业 , 旨在培养这个领域的行业精英 。 开设这门大一必修课 , 是为了让未来的精英了解人工智能技术发展与伦理、法律的关系 , 从事技术研发时能恪守道德法则 。  
“你们今后很可能成为IT公司的研发人员 , 在开发产品时 , 能否遵循个人信息采集的‘最小必要’原则?能否抵制‘大数据杀熟’的商业利益诱惑?”吕老师的发问 , 引发了同学们的思考 。 据介绍 , “最小必要”原则是指移动互联网产品采集用户人脸、手机号码等个人信息时 , 要有明确、合理的目的 , 并应当限于实现目的的最小范围 。 “大数据杀熟”是指互联网企业利用用户数据 , 对老用户抬高价格的行为 。  
【|AI专业有门不教算法的“伦理必修课”】作为脑机交互专家 , 吕宝粮还介绍了他与瑞金医院合作开展的“基于情感脑机接口的难治性抑郁症评估与治疗”项目 。 用脑深部电刺激术(DBS)治疗抑郁症患者 , 也涉及伦理问题:一是临床医学研究伦理 , 二是DBS参数调节伦理 。 “由于参数调节不当 , 澳大利亚一名帕金森病人接受DBS治疗后 , 变得性欲强烈 。 如果他因此犯罪 , 谁该承担法律责任?”这个问题 , 又一次引发了同学们的思考 。  
加强价值理性教育让理工科大学生更富有人文关怀 
作为法理学专家 , 郑戈将为学生讲8节课 , 分为3个专题——理性的人工智能、辅助性的人工智能、负责任的人工智能 。  
在“理性的人工智能”专题中 , 他将与学生探讨一个问题:自动驾驶系统如何尽到注意义务?注意义务是一个重要的法律概念 , 法律上的过失就是指违反注意义务 。 自动驾驶达到L3、L4级别后 , 如果发生交通事故 , 该由谁承担违反注意义务的责任?“我国道路交通安全法的修订建议稿已引入自动驾驶系统开发单位的责任 , 但这个问题其实很复杂 。 自动驾驶系统是一个由感知、定位、决策和控制模块组成的复杂系统 , 每个模块都有开发者 。 发生事故后 , 5G网络服务供应商有没有责任?高精地图供应商有没有责任?这些单位的法律责任界定问题 , 需要进一步研究 。 ”他希望通过对这个问题的讲解 , 让学生认识到 , 今后开发自动驾驶系统的各个模块时要尽到注意义务 , 从而使整个系统成为“理性的人工智能” 。