ChatGPT的爆火|马库斯7大「黑暗」预测:gpt-4带不来agi( 二 )


OpenAI深知 , 更大的训练量意味着更好的输出 。 经过每次迭代 , GPT的表现变得越来越像人类 。 对于GPT-4 , 可能会进化成为一个性能怪物 。
但它会解决之前遇到的问题吗?马库斯对此仍然打了个问号 。
尽管GPT-4看起来肯定会比它的前任更聪明 , 但其内部架构仍然存在问题 。
ChatGPT的爆火|马库斯7大「黑暗」预测:gpt-4带不来agi
文章图片
马库斯称 , 他怀疑人们在GPT-4时 , 会有一种似曾相识的感觉:先是火遍全网 , 然后过了几天 , 人们发现许多问题仍然存在 。
根据当前信息 , GPT-4在架构上与GPT-3基本相同 。 如果是这样 , 可以预料到 , 一些基本问题仍然无法解决:聊天机器人依然缺乏了解世界运作方式的内部模型 。
因此 , GPT-4无法在抽象层面上理解事物 。 它可能更擅长帮学生写论文 , 但它仍然不会真正了解世界 , 答案的字里行间仍会透露机器的特征 。 关于GPT-4的七大预测
因此 , 尽管AI界对GPT-4的到来满心欢喜 , 马库斯却给出了7个不太积极的预测 。
1.GPT-4仍然会像它的前辈一样 , 犯下各种愚蠢的错误 。 它有时可能会很好地完成给定的任务 , 有时却罢工不干 , 但你并不能提前预料到即将出现的是哪种情况 。
2.GPT-4对物理、心理和数学方面的推理依然靠不住 。 它或许能够解决部分之前未能挑战成功的项目 , 但在面对更长和更复杂的场景时依然束手无策 。
比如 , 当被问及医学问题时 , 它要么拒绝回答 , 要么偶尔会说出听起来很有道理但很危险的废话 。 尽管它已经吞噬了互联网上的大量内容 , 但它并不能足够可信和完整地提供可靠的医疗建议 。
3.流畅幻象(fluenthallucinations)仍将十分常见 , 而且很容易被诱发 。 也就是说 , 大型语言模型依然是一个能被轻易用于制作听起来很有道理但却完全错误的信息的工具 。
4.GPT-4的自然语言输出仍然无法以可靠的方式为下游程序提供服务 。 利用它构建虚拟助手的开发者会发现 , 自己无法可靠地将用户语言映射到用户的意图上 。
5.GPT-4本身不会是一个能解决任意任务的通用人工智能 。 如果没有外部的辅助 , 它既不能在Diplomacy中击败Meta的Cicero;也不能可靠地驾驶汽车;更不能驱动《变形金刚》里的「擎天柱」 , 或者像《杰森一家》里的「Rosie」那样多才多艺 。
6.人类「想要什么」与机器「去做什么」之间的「对接」 , 依然是一个关键且尚未解决的问题 。 GPT-4仍将无法控制自己的输出 , 一些建议是令人惊讶的糟糕 , 掩盖偏见的例子也会在几天或几个月内被发现 。
7.当AGI(通用人工智能)实现时 , 像GPT-4这样的大型语言模型 , 或许会成为最终解决方案的一部分 , 但也仅限于其中的一部分 。 单纯的「扩展」 , 也就是建立更大的模型直到它吸收了整个互联网 , 在一定程度上会被证明是有用的 。 但值得信赖的、与人类价值观相一致的通用人工智能 , 一定会来自于结构化程度更高的系统 。 它将具有更多的内置知识 , 并包含明确的推理和计划工具 。 而这些 , 都是现在的GPT系统所缺乏的 。
马库斯认为 , 在十年内 , 也许更少 , 人工智能的重点将从对大型语言模型的扩展 , 转向与更广泛的技术相结合 。
酷炫的东西总是好玩的 , 但这并不意味着它能带领我们走向可信的通用人工智能 。
ChatGPT的爆火|马库斯7大「黑暗」预测:gpt-4带不来agi】对此 , 马库斯预测 , 我们在今后需要的是一个可以将显性知识和世界模型作为核心的全新架构 。