别让ChatGPT跑了

别让ChatGPT跑了
文章图片
ChatGPT只是另一场AI噱头吗?明面上 , ChatGPT的热度在最近降了下来 , 这实在是符合许多唱衰AI产业的人一贯的论调——就像击败国际象棋冠军的深蓝、国际围棋冠军的AlphaGo一样 , 爆红的AI工具总是最终归于平静 。
因为这些炫酷的工具往往有一个无法回避的问题:商业化的前景在哪里?
从使用场景上说 , 除了专业棋手 , 没有人会需要每天和机器人对弈 , 而ChatGPT作为一个吸收了无数语言材料 , 光是模型参数就有一千七百多亿的大模型 , 目前最适用场景似乎只有完成学术论文中内容梗概撰写和统一注释格式 , 以及帮助论文作者规避查重风险 。 说实话 , ChatGPT在这方面完成的不错 , 几乎成了留学生中的不传之秘 , 以至于有华裔学生专门写了一个名为GPTZero的app负责辨认作业中ChatGPT生成的内容 。
但也仅此而已 。 从成本角度说 , 动辄数千万美元的开发和部署成本让外界有了坚定看衰它的理由 , 这个所谓智能聊天工具实在太过昂贵 , 更何况它最让人惊艳的那部分:对人类语言和对话逻辑的理解 , 对回答内容的“生成式”创作 , 都随着越来越多的“翻车”实例而迅速“祛魅” 。 那些认为它将取代搜索引擎、颠覆智能语音助手的乐观论调正在消失 。
ChatGPT在大众视角中似乎即将走上过往那些AI工具的老路 , 流星一样炫目 , 然后归于沉寂 。
别让ChatGPT跑了
文章图片
但 , 真的仅此而已吗?
第一个造出飞机的人Sheng谈到ChatGPT时充满了一种兴奋和紧张混合的口吻 , 他是在清华从事预训练大模型研究的博士生 。
“就在两年前 , 要不要走预训练大模型的方向 , 整个学界还在讨论中 。 ”Sheng说到 , 而原因正是上面提到的 , 大模型一次的训练成本实在太过高昂 , 能得到什么结果也是未定之数 , 很少有人愿意冒险 。 国内相关方向的玩家一度倾向使用大小模型协同配合的方法提高AI工具效果 , 因为传统观点认为 , 在规模相对较小的模型上进行训练 , 效果并不一定比大模型差 。 而不止一位AI方向的从业者也表示 , 过去业内对人工标记数据的重视也远远不够 , 大家没料到ChatGPT采用的基于人类反馈的强化学习效果会如此之好 。
直到OpenAI推出了ChatGPT 。
“有多少人工 , 就有多少智能 。 ”这是人工智能领域经常被拿来调侃的一句话 , 用来形容ChatGPT再合适不过 。 作为预训练大模型 , 它很好的体现了“大”这个字 。 一方面 , 相比GPT1 , GPT3的参数规模提升了将近1500倍 。 另一方面 , 由于运用了所谓的“自监督学习(self-supervisedlearning)”机制 , 模型可以使用互联网上海量的文本数据进行训练 。
这种级别的大模型是前所未见的 。
“最近的研究告诉我们 , 当模型达到一定规模后 , 会有emergentability(突现能力)的东西出现 。 ”Sheng说到 。
某种程度上讲 , ChatGPT的开发者OpenAI也是在赌博 , 没有人知道这条路究竟能不能走通 , 而正是它们持之以恒不惜血本的投入 , 最终证明了预训练大模型拥有一般模型所不具备的认知理解能力和泛化能力 。 换而言之 , 预训练大模型和人们理想中的AI“通用模型”非常相似 。
不像是AlphaGo专门针对围棋度身定做 , ChatGPT不是针对一个特定的狭窄领域问题开发出来的AI工具 , 相反 , 它可能更像某种尚显稚嫩的通用AI计算模型 , 有回答开放问题的能力 , 显示出可被灵活部署应用在各种领域的潜力 。