助手|算法一定是人的助手 不会成为人类的敌人( 二 )


谈监管
监管就像父母看着小孩学走路
谈到法规监管,聂再清认为这对技术发展是有好处的,但是要纠正一下,不是所有的规范法规都能保护技术发展,好的法规和规范有保护作用,如果一些法规不是特别合理的话,有可能会起阻碍作用。在新技术开始或者创新阶段,应该以一种摸着石头过河的方式,但不是野蛮生长。比方说一个小孩,要让他学走路,完全让他一个人走父母可能不放心,会远远在后面跟着他走,他虽然感觉自由,但实际上父母都可以看到。
那么,在人工智能治理过程当中,企业能负起应有的责任吗?在推出产品时会意识到伦理的问题吗?对此,聂再清认为,好的企业都会意识到,一个好的企业就是价值观很正的企业,但是要注意大企业不一定是好企业。想要走得长远的企业一定都要做到有伦理意识,因为最终人们用你的产品是基于你对他产生什么样的价值。不排除有一些企业初始阶段为生存做一些不好的事情。为什么要监管?就是让好企业能够发展,坏企业慢慢被抓出来,改变它们,不要让它们产生不好的影响。
谈算法
不应根据个性化因素产生不同决策
7月8日下午在隐私计算学术交流会上,蚂蚁集团资深副总裁周靖人就数据权属问题展开讨论,认为消费者在平台购买商品产生的行为数据的主体涉及个人和平台等。且这种数据在流通和分享的过程中需保护所有主体的权益——站在消费者的角度,即为保护他们的隐私权等;站在平台的角度,则为保护知识产权等。
大数据时代,人们有一种莫名其妙被算法支配的感觉。周靖人就算法带来的公平、可解释性和隐私安全问题展开讨论。周靖人认为,算法模型的可解释性和隐私在某种程度上是相矛盾的。为了达到可解释,往往需要披露模型的决策点和边界条件,这一定程度上会暴露隐私。而算法从“黑盒”向“白盒”的过渡,即变得更加可解释,则会促进公平性。周靖人强调,算法不应该根据个性化因素、敏感因素而受到强烈波动、产生不同的决策结果,这和结果均等的理念是一致的。
采写:南都采访人员 张雨亭 尤一炜 见习采访人员 李娅宁 钟键挺