chatgpt|和ChatGPT大战几个回合,我试图驯服“最强AI”( 三 )


但GPT-3的训练样本量已经足够大了 , 根据OpenAI 的 CEO山姆·奥特曼此前公开透露的信息 , GPT-4不会再追求训练样本上的大幅增加 。 事实上 , 这从ChatGPT上已经有所体现 , 相比GPT-3 , ChatGPT并没有参数规模上的大突破 , 而是集成了自动问答系统InstructGPT和GPT-3模型 , 并强化了对模型的训练 , 在训练中引入了人类监督员 。

《边缘世界》剧照
OpenAI的论文显示 , 在GPT-3中 , AI采用的训练方式是“从人类反馈中强化学习”(RLHF) , 即人类设计算法 , 提供数据库后 , AI对不同的问题自行回答 , 人类虽然会对学习效果打分 , 但只提供参考 , 供AI继续强化学习 。 但ChatGPT首次使用了“监督微调”(SFT)方法 , 即由人来问问题 , 由人来回答 , 然后让AI模型来学习问答模式本身 。
此外 , 在多个环节 , ChatGPT都引入了人类评价 , 供AI学习 , 甚至包括本次发布产品 , 实际上也是一次开放公测 , 好收集更多的真实用户反馈 , 以改进对话技术和质量 。 在每一个ChatGPT的回答后面 , 用户都可以添加一条feedback发送给OpenAI 。 从这个角度就不难理解这次ChatGPT发布后引起的轰动了 , 某种程度上 , 它代表着自然语言领域的AI技术 , 已经从“量变”发展到“质变了” 。

在每条回复后面 , 用户可以添加反馈
山姆·奥特曼曾说 , “十年前的传统观点认为 , 人工智能首先会影响体力劳动 , 然后是认知劳动 , 再然后 , 也许有一天可以做创造性的工作 。 现在看起来 , 它会以相反的顺序进行 。 ”
如今AIGC(AI技术自动生成内容的生产方式)的发展显然正在印证这一点 。 前阵子火遍社交网络的AI作画 , 虽然很多时候人们看到的只是半截扭曲的人脸 , 从天而降的断桥 , 显得完全不顾现实逻辑 。 但也有一些时候 , 仅仅一串字符后 , 就有令人惊艳的作品出现 。
基于此 , 一场关于AIGC的军备竞赛已经开启 。 最近 , 除了主要由微软注资的OpenAI发布的ChatGPT , 谷歌系的AI研发机构DeepMind最近也发布了一款AI写作工具“Dramatron” , 专门写剧本的 , 标题、角色列表、情节、场景描述和对话等要素样样齐活 。 国内各互联网大厂同样在AIGC领域有所投入 , 其中同样有产品已经能进行作文、新闻稿、小说、文案等创作 。
从这个角度 , 新一代AI产品或许将重新定义 , 什么是真正的创造性劳动 。

图|OpenAI 官网
宕机和商业化
在定义创造性劳动之前 , 起码在当下 , 高水平AI工具还面临着一些其他的小小问题 。
随着涌入的用户越来越多 , ChatGPT对算力的需求变得越来越高 。 12月12日进入网页后 , 系统上的提示是 , “我们正在经历异常高的需求 , 在我们努力扩展我们的系统时 , 请稍等片刻 。 ”
其实两天前的晚上 , 我就发现它已经有些疲软了 。 当时我邀请它 , “来做个数字游戏吧” , ChatGPT本来欣然答应 , 还制定好了规则 。 结果才玩到第四个回合 , ChatGPT就不再有反应了 。 它宕机了!
再问 , 就是“too many questions , please slow down 。 ”等到再开一局时 , 它甚至不承认自己会玩数字游戏了 。 在翻脸速度上也能比肩人类了啊 。

事实上 , GPT产品的每一次产品迭代 , 都意味着算力成本的大幅增长 。 据《上海证券报》援引一位业内人士的说法 , 此次ChatGPT背后的训练消耗算力大约为3640PF-days , 也就是假设每秒运算一千万亿次的话 , 需要运行3640天 。
作为一家创业公司 , OpenAI选择的还是一种相对轻快的数据存储和运行办法——上云 。 目前ChatGPT的训练都是基于微软的超算基础设施(由V100GPU组成的高带宽集群)完成 。 有报道指出 , OpenAI每年在微软云计算上花费约为7000万美元 。