助手|算法一定是人的助手 不会成为人类的敌人

助手|算法一定是人的助手 不会成为人类的敌人
文章插图

助手|算法一定是人的助手 不会成为人类的敌人
文章插图

助手|算法一定是人的助手 不会成为人类的敌人
文章插图

焦点
7月9日,世界人工智能大会可信AI分论坛在上海举行,论坛主题为“AI向善,全球共治”。清华大学国强教授、智能产业研究院首席研究员聂再清在会上表示,可信AI就是有爱的AI。只有有爱,最终可以产生很大用户价值,向善技术才能真正走到千家万户,变成日常生活的一部分。他强调:“我们必须只做可信AI。”
聂再清现任清华大学国强教授、智能产业研究院首席研究员。从业界到学界,他推动技术落地进展,也一直关注着人工智能的治理问题。带着可信AI的含义、实现路径、治理思路等问题,南都采访人员对聂再清教授进行专访,他频频爆出金句,“可信人工智能就是人工智能”“监管就像父母看着小孩子学走路”“大企业不一定是好企业”……
●对于广大崇尚科技向善的人工智能研发人员而言,可信人工智能就是人工智能。
【 助手|算法一定是人的助手 不会成为人类的敌人】●人工智能一定要像人那样有爱,帮助大家。
●我认为机器算法最终一定是人的助手,不会成为人类的敌人。
●一个好的企业就是价值观很正的企业,但是要注意大企业不一定是好企业。
——聂再清
专家谈AI
谈伦理
用一个字总结就是“爱”
针对现在出现的可信AI、负责任的AI、可持续的AI等概念,聂再清认为,可持续、可信、负责任这几个概念是差不多的,因为如果不可信就不可持续,过一段时间就会被“打死”了;不负责任既不可持续,也不可信。今天我们说AI,大家很喜欢把它用拼音翻译成爱,对人类有爱,大家对AI的期许就是向善,是一个大的主题。聂再清认为,这三个概念都可以用“爱”这个字概括。他解释说,其实做任何一个技术,最终要走向千家万户,一定要产生正向价值、符合人类价值观的价值。有一些小公司为了出名可能干一点什么事,短期造成某个影响是有可能,但这个公司肯定做不大。当然破坏性也可能很大,要避免那样的公司或事情出现。聂再清认为,对于广大崇尚科技向善的人工智能研发人员而言,可信人工智能就是人工智能,因为我们不可能做不可信人工智能。只有可信人工智能技术才有可能走向大规模日常应用,成为用户长期生活习惯的一部分。只要产生价值的人工智能,同时能被所有用户接受和喜爱的,基本上来讲就是可信的。他强调,可信人工智能是要经得起时间考验的,也必须是与时俱进的。
谈公平
技术的问题本质上是人的问题
可信AI可以通过技术进步达到吗?现在常讲的可解释性、公平性、安全性,这些问题可以通过技术解决吗?对此,聂再清表示,就广义来讲他觉得可以解决,或者说越来越逼近这个。但是可能短期内有些模型不能做到对用户可解释,但实际上用户并不一定需要可解释,用户要的是安全可控和公平。
他认为,公平肯定是可以做得越来越好的。但这个东西是不是一定百分之百公平,可能并不是那么好界定。我们是朝公平这个方向发展,不断去进步。如果某一些训练数据不足,那么就对这一部分用户和场景增加样本。但最后,人工智能系统背后,在我看来很大一部分是人。人可以不断花很多力量从数据和技术等各个方面把它做得越来越公平。聂再清认为,很难每次都保证所有参与方都认可的百分之百公平。人工智能一定要像人那样有爱,帮助大家。但其实有时候,具体某一个案例可能已经做得特别公平,但还是可能会有人觉得不公平。归根到底我觉得技术背后是人在起决定作用。一个产品背后有很大部分是人的因素,包括产品运营、策略怎么写的,训练数据怎么设计的,整个在技术设计的时候,可能也有一些不公平,但背后都有人的影子。聂再清认为,机器算法最终一定是人的助手,不会成为人类的敌人。因为AI背后研发人员的主流价值观是向善的,法律法规也会确保这一点。