本文转自:澎湃新闻今天我们常常谈及“AI赋能百业”|算法相对论|复旦教授邱锡鹏:神经网络还远远谈不上有意识( 二 )


同时 , 邱锡鹏认为 , 神经网络几经发展 , 与最初已有很大不同 。 粗略描述这个“变强” , 邱锡鹏讲了两点 , “比如准确率预测早期是80%的话 , 现在可以达到90% , 另外则是对训练样本数量的要求可能要更少 , 如果原来达到80%的准确率需要标1万个样本 , 那么现在可能100个就够了 。 ”
DALL.E(基于GPT-3开发的一种新型神经网络)根据语言描述生成的牛油果形状扶手椅
“目前还远远谈不上意识”
即使在技术上对Sutskever的发言有一些猜想 , 邱锡鹏也直言 , “我整体上还是觉得现在远远谈不上意识 。 当然 , 首先的问题是意识如何定义 。 ”
比如说宠物狗跟人类的互动 , 属不属于有意识?
1964年 , 戈登·盖洛普曾做过一个判断猩猩是否有自我意识的实验 。 戈登将黑猩猩麻醉 , 然后在它们的眉毛和耳朵上涂了红点 。 按照戈登的猜想 , 如果黑猩猩看镜子并发现红点后触摸的是镜子中的红点 , 那么便无法证明黑猩猩有“自我意识” 。 但如果它们触摸的是自己脸上的红点 , 那么黑猩猩就具有将自己与镜子中的影像对应起来的能力 。
“在我看来非常本质的问题是 , 能不能认识到‘我’区别于世界上其他物体 。 如果用这个观点来看 , 现在AI肯定没有这个能力 。 ”邱锡鹏表示 。
邱锡鹏同时认为 , 如果要智能体有这样的自我意识 , 他应该是放在真实的环境中以交互的方式学习 , 而不是像现在的“喂数据”学习 。
LeCun也在近期的MetaAI论坛上描述道 , 一个从未坐在方向盘后的少年可以在大约20小时内学会驾驶 , 而当今最好的自动驾驶系统需要数百万或数十亿条带标签的训练数据和数百万次强化在虚拟环境中进行学习试验 。 即便如此 , 它们也达不到人类可靠驾驶汽车的能力 。
所以构建接近人类能力的人工智能需要什么?仅仅是更多数据和更大的人工智能模型吗?
LeCun说道 , “我常扪心自问 , 人类和动物使用了哪些我们无法在机器学习中复制的方法 。 人类和非人类动物学习大量关于世界如何运作的背景知识的方式 , 是观察 , 以及用独立于任务、无人监督方式进行的少量互动 。 可以假定 , 这种积累的知识可能构成了通常被称为常识的基础 。 ”
LeCun认为常识使人类能够在不熟悉的情况中有效地预先计划 。 如一名少年司机以前可能从未在雪地上驾驶 , 但他预知雪地会很滑、如果车开得太猛将会失控打滑 。 “常识性知识让智能动物不仅可以预测未来事件的结果 , 还可以在时间或空间上填补缺失的信息”
在LeCun看来 , 机器学习缺失的就是人类和动物如何学习世界模型 , 学习世界如何运作的能力 , “当今人工智能最重要的挑战之一是设计学习范式和架构 , 使机器能够以自监督的方式学习世界模型 , 然后用这些模型进行预测、推理和计划 。 ”
我们需要担心AI有自主意识吗?
如果AI有自主意识 , 这是一件需要担心的事情吗?
邱锡鹏对澎湃新闻(www.thepaper.cn)表示 , “自我意识以目前的途径上很难达到 , 即使造出来的所谓的意识也不会是像人类那样的意识 。 现在的模型都聚焦在做一件事 , 比如下围棋 , 可能下的比人好 , 但只会下围棋 , 下象棋可能就要换一个模型 。 ”
虽然邱锡鹏认为目前离“有意识”还差的远 , 但也有一个非常值得研究的问题:目前这种看起来和以前不一样的模型能力 , 到底本质上源自于什么?“这是个很难的问题 , 因为现在这种神经网络可以认为它就是个黑盒 , 没有什么可解释性 。 ”
另外 , 邱锡鹏认为会不会产生什么危害和自主意识关系不大 , 比如如果AI模型的控制者的动机是坏的 , 那么即使AI模型没有自我意识它也可以产生危害 。 也比如AI模型的过度决策 , 它通常不知道自己哪些不知道 , “自动驾驶在道路行驶时 , 即使是不知道的情况也会做一个预测 , 很有置信度可能还很高 。 ”比如著名的特斯拉电动车在自动驾驶时将白色大货车当成天空事件 。