新闻记者|“利用人工智能的优点,但不要依赖它”
封面新闻:相对而言,很多人会认为人工智能是一个非常偏工科的科学研究,而你研究哲学,为什么想到用哲学来谈论人工智能呢?你如何看待哲学和科学之间的关系?
徐英瑾:哲学思考有一个问题,很多话是公说公有理,婆说婆有理。我欣赏莱布尼茨的话,任何事情都可以通过演算去弄清是非。有一些终极问题算不出来,但是这个比例不会很高。分析哲学比较重视论证性,但忽略全局性。欧陆哲学重视全局性,却忽略论证性。我想要做的就是把这两者取长补短,加以综合。这不是很简单就能做到的,但我一直在朝着这个方面努力。
封面新闻:关于人工智能未来发展的预测很多。不少人担心“强人工智能”的出现会威胁人类的生存。你如何看?
徐英瑾:任何事物,我们不能光要它的好处,不要它的风险。人类发展人工智能的一个方向就是要让人工智能变得越来越聪明,越来越像人。这样肯定会带来风险,但如果发展人工智能就必须冒这个风险。如果不冒这个险,它会变得非常笨,也不是人类想要的人工智能。这就像打仗,有人赢,那么就有人败。人类对风险是有相当高的控制能力的,尽管这种控制不是绝对的。其实不只是对机器人,人类对自己的风险控制能力也不是绝对的。比如说,为了把飞机飞行员突然发疯这件事情的概率降到最低,人会用“任何时候驾驶室必须至少有两个人同时在场”的规则。但这也不能将风险降到绝对为零,因为还是有两个人在驾驶室里一起发疯的可能。
我个人觉得,人类是怎么防范自己失控,就应该怎么去防范人工智能失控。如果人工智能拼命往邪恶的方向发展,这不是人工智能干坏事,而是人在利用人工智能干坏事。当然人工智能会让坏事变得更加严重。至于担心人工智能在肉体、物理上对人的毁灭,我觉得大可不必太担心。因为很强的人工智能与黑暗之间的结合,要加很多安全阀。只要不给人工智能独当一面的机会,就能很好阻拦这种状况的发生。但我不确定这种想法是不是过于理想主义。毕竟现在世界各个国家的人类会不会坐下来协商,是不确定和未知的。
封面新闻:你觉得有必要制定一个什么规则来约束一下人工智能技术的发展,防止从事人工智能的从业者是十足的科技狂,创造出一个疯狂的机器人,没有底线,做出对人类杀伤性极强的事情吗?
徐英瑾:其实越是定规范,人类越是会有逆反心理。相比基因编辑,人工智能较为不用担心。对于进攻的恶势力,我不认为防御方会失手。因为防御方也可以获得技术,而且官方会支持对计算机技术的利用。真正要担心的不是失控的人工智能,而是要去警惕掌握人工智能的人发疯。防止人性的恶,才是关键。最好的状态是这样的:利用人工智能的优点,明了人工智能的局限,不要依赖它。利用网络的便利性,又要与它的缺点作斗争。比如大数据时代对人的信息全面采集造成对隐私权的侵犯。我个人有一个思考,即可以发展小数据技术。当这个技术帮我们进行信息处理时,不会把个人信息上传到云,而是当下处理。
封面新闻采访人员 张杰 实习生 李心月
【 新闻记者|“利用人工智能的优点,但不要依赖它”】更多资讯或合作欢迎关注中国经济网官方微信(名称:中国经济网,id:ourcecn)
- 苹果|库克压力确实大,在众多国产厂家对标下,iPhone13迎来“真香价”!
- 京东正式上线“年礼无忧”服务
- 央视公开“支持”倪光南?柳传志该醒悟了
- 小米 11 Ultra 内测 NFC“读写勿扰”与“解锁后使用”功能
- 造车|苹果造车一波三折,缺了一家“富士康”
- 他是“中国氢弹之父”,他的名字曾绝密28年,他叫于敏
- 5G|华为利用5G毫米波发现园区入侵者,这让美国5G联盟情何以堪
- iPhone|iphone14价格被曝!“胶囊”挖孔屏+三星4nm芯片,售价或5999起
- 36氪5G创新日报0112|福建省首个“5G+VR”英模会客厅正式上线;齐鲁医院健康管理中心“5G+ 5g
- 物联网|据说,物联网也可以称之为“一张想想的网络”,物联网世界是梦