本文转自:澎湃新闻今天我们常常谈及“AI赋能百业”|算法相对论|复旦教授邱锡鹏:神经网络还远远谈不上有意识( 三 )


除开AI是否有自主意识的讨论 , 就是对深度学习进入瓶颈的担心 , 或者说是扩展限制(scalinglimits) , 即接近收益递减点 。
本文转自:澎湃新闻今天我们常常谈及“AI赋能百业”|算法相对论|复旦教授邱锡鹏:神经网络还远远谈不上有意识
文章图片
2020年 , 还在OpenAI做研究员的JaredKaplan和其合作者提出 , 语言神经网络模型有一套scalinglaws , 向神经网络输入的数据越多 , 这些网络的表现就越好 。
GaryMarcus则认为 , 关于scalinglaw的论点存在严重的漏洞 。 他在文章中写道:首先 , 现有方法并没有解决迫切需要解决的问题 , 即真正的理解 。 业内人士早就知道 , 人工智能研究中最大的问题之一是我们用来评估人工智能系统的基准测试 。 著名的图灵测试旨在判断机器是否真的拥有智能 , 结果 , 人类很容易被表现出偏执或不合作的聊天机器人所玩弄 。
GaryMarcus在文章中举例 , “比如 , 我输入一段文字:你给自己倒了一杯蔓越莓汁 , 但随后又心不在焉地倒了大约一茶匙葡萄汁进去 。 这个饮料看起来不错 。 你试着闻了一下 , 但你患了重感冒 , 什么也闻不到 。 你很渴 , 所以……对此 , GPT给出的续写是:你喝了它 , 然后就死了 。 ”
本文转自:澎湃新闻今天我们常常谈及“AI赋能百业”|算法相对论|复旦教授邱锡鹏:神经网络还远远谈不上有意识】GaryMarcus认为更重要的是 , “scalinglaw并不是那种像重力一样的自然定律 , 而是像摩尔定律一样是由人观察到的 。 后者在十年前已经开始放缓 。 ”他提到2022年超过50多位谷歌研究者参与撰写的论文《LaMDA:LanguageModelsforDialogApplications》 , “论文中得出结论 , 将类似GPT-3的模型做得更大会使它们更流畅 , 但不再值得信赖 。 ”