|AIGC元年,全球巨头进入人工智能决赛圈?( 二 )


哪怕对于一些比较抽象的概念 , ChatGPT也会先向人询问这些概念到底指什么 , 再做出自己的回答 , 真是个小机灵鬼 。

这么看的话 , ChatGPT是不是有点通过图灵测试那味儿了?
当然 , 由于预言与注册程序的原因 , 国内用户想要体验这两类AI应用还是比较困难的 , 但国内对于AIGC的研发也完全不落下风 。
比如百度的文心一格可以用来AI作画 , 文心NLP大模型ERNIE可以写诗、可以撰文 。 而且国内的产品也往往对于中文有更好的支持 , 在写描述的时候也不用翻译来翻译去的了 。

在此前几轮的AI热潮中 , 不论是下棋还是驾驶还是机器人 , 主角都是决策式AI 。
而“AI作画”和“AI聊天” , 它们的名字叫生成式AI 。
生成式AI擅长的是归纳后演绎创造 , 根据人给出的条件进行缝合式创作、模仿式创新 。 英伟达的CEO黄仁勋相信 , 生成式AI会成为一项革命性的技术 。
不过在10年代的机器学习教科书中 , 早已就有了这两类AI 。 为什么在2020年后出现有了显著突破呢?
真正的关键是 , 大模型的突破 。
2019年 3 月 , 强化学习之父Richard Sutton发文表示:“短期内要使AI能力有所进步 , 研究者应寻求在模型中利用人类先验知识;但之于AI的发展 , 唯一的关键点是对算力资源的充分利用 。 ”
神经网络模型在上世纪90 年代出现 , 但在2010 年前 , 基于统计的学习模型仍是主流 , 所以在打败人类象棋高手多年后 , 迟迟无法攻克变数近乎宇宙级的围棋 。
后来得益于GPU算力的高速进步与深度神经网络、卷积神经网络等等算法的进步 , 深度学习模型逐渐成为主流 , 摆脱了穷举法的限制 , AI能够用来学习训练的参数也越来越多 , 充分利用了GPU 擅长并行计算的能力 , 基于庞大的数据集、复杂的参数结构一次次刷新人类对AI智力天花板的想象 。
简单来说 , 早期的AI就像个刚出生的小婴儿 , 什么也不懂 。 爸爸妈妈就要拿着一张“猫”的图片然后跟他说“这是一只猫” , 建立起图像和语言的联系 。 AI也是如此 , 我们需要大量的“识图卡”来训练AI 。
在十年前 , 由于芯片的算力有限 , 人类使用的方法非常笨拙:
找出一张主体是猫的图片 , 然后人工打上“猫”的标签 , 喂给AI来学习 , 效率非常低下 , 而且训练出来的AI只能识别特定的物种 。 经过大量的训练 , AI虽然能识别几千类物品 , 可一旦遇到复杂的情况就蒙了 。 比如给一只狗带上猫猫的头套 , AI大概率就出错了 , 因为它只认识0和1 , 但不认识0.5 。
但大模型就不一样了 。
随着算力的提升 , AI能处理的样本数量也突飞猛进 。
工程师们反而可以化繁为简 , 直接把大量的网络图片丢给AI去学习就好了 。
因为网络上的图片一般都是自带描述的 , 而且画面还更复杂 , 比如“一只狗在草地上玩飞盘” , 包括多个主体还有动作 , 一下子让AI接收的信息量暴增 。
比如 , DALL-E 2采用了6.5亿张图文配对 , 这种庞大的样本数量就构成了AI的“大模型” , 也是这两年AI发展的大趋势 。 从结果上来看 , 大模型也的确让AI从量变达到了质变 , 比如我们不仅可以画“猫”和“火焰” , 还可以画“用火焰构成的猫”这种现实中不会存在的幻想生物 。

所以 , 大模型便是样本参数量达到一定量级的产物 , 一旦突破某个质变点 , 比如十亿级的参数量 , 就能实现在小模型无法实现的泛用性 。
因为无论是AI作画、AI聊天还是AI写小说、写诗歌 , 其背后最大的共同点是 , 可以分析识别人类的自然语言 。 而语言和人类的知识、思维整体相关 , 所以AI学习势必需要庞大的参数来支撑 。