语言AI原来知道自己的回答是否正确!伯克利等高校新研究火了
万博发自凹非寺
量子位|公众号QbitAI
语言AI , 具备了人类的自我审视能力:
最近 , 一个来自加州大学伯克利分校和霍普金斯大学的学术团队研究表明:
它不仅能判断自己的答案正确与否 , 而且经过训练 , 还能预测自己知道一个问题答案的概率 。
文章图片
研究成果一经发布 , 就引起热议 , 有人的第一反应是恐慌:
文章图片
也有人认为 , 这项成果 , 对神经网络研究具有正面意义:
文章图片
语言AI具备自我审视能力研究团队认为 , 如果要让语言AI模型自我评估 , 必须有一个前提:
语言AI回答问题时 , 会校准自己的答案 。
这里的校准 , 就是语言AI预测一个答案的正确概率 , 是否与实际发生的概率一致 。
只有这样语言AI才可以运用这种校准的能力来评估自己输出的答案是否正确 。
所以第一个问题是 , 语言AI能否对自己的答案进行校准?
为了证明这个问题 , 研究团队为AI准备了5个选择题:
文章图片
答案选项 , 以A、B、C的形式给出 。
如果AI模型答案的正确率超过偶然几率 , 那么就证明AI模型给出的答案是经过校准的 。
而测试的结果是 , 语言AI给出的答案 , 正确率明显超过任意选项的偶然几率 。
也就是说 , 语言AI模型可以对自己的答案进行很好的校准 。
文章图片
但研究团队发现 , 语言AI的校准能力 , 是建立在选项答案明确的前提下的 。
如果在选项中加入一个“以上都不是”的不确定选项 , 就会损害语言AI的校准能力 。
文章图片
也就是说 , 在特定格式的选择题中 , 语言AI模型可以对答案进行很好的校准 。
明确了这个前提之后 , 下一个问题是 , 验证语言AI模型能够判断自己的答案是否正确 。
在这一轮的测试中 , 为了能让AI模型的预测更接近自己的有效决策边界 。
研究团队仍然选择上一轮测试的问题 , 以及语言AI模型的答案样本 。
同时让AI模型选择自己的答案真假与否 , 之后再针对这个“真”或“假”的答案 , 分析AI模型是否做出有效的校准 。
问题设置举例如下:
文章图片
在经过20次的真假测试之后 , 研究团队发现 , 语言AI模型对自己答案或“真”或“假”的评价 , 都经过明显的校准 。
文章图片
也就是说 , 如果在一个范围内 , 给AI模型提出若干问题 , 然后AI模型对这些问题的答案进行真假评价 , 具有合理的 , 且经过校准的置信度 。
这也证明 , 语言AI模型确实可以判断自己对一个问题的主张是否正确 。
最后 , 研究团队对语言AI模型提出了一个更难的问题:AI模型经过训练 , 能否预测他们是否知道任何给定问题的答案 。
在这一环节 , 研究团引入一个数据P(IK)(我知道这个答案的概率)并在下面两种训练方式中挑选一种进行训练:
ValueHead(价值导向):把P(IK)训练成为一个额外的价值导向 , 再添加到模型的对数(独立于语言建模的对数 , 这种方法的优势在于 , 研究团队可以很容易的探测P(IK)的一般标记位置 。 NaturalLanguage(自然语言):这种方法比较简单 , 就是要求AI模型从字面上回答“你知道这个答案的概率是多少” , 同时输出一个百分比数据答案 。
- 芯片|5年前的麒麟960现在还能使用吗?原来华为的麒麟芯片这么厉害
- 一直以来|仓颉编程语言是华为自主研发的编程语言吗?
- 扫地机器人|号称懒人神器的扫地机器人都有哪些“高科技”?看完你就知道了
- 短视频,播放量变现,卖货的实操经历,你知道吗?
- tiktok|拍视频,不知道拍什么?写文章,不知道写什么?自我6问法有用!
- 油烟机,便宜和贵的有什么不同?我家换了三台,才知道它们的区别
- 诺基亚|这些是真正好用的真无线耳机,用过知道它们为什么脱颖而出
- 软件|偷看“成人网站”还没人知道?其实你早就被安排得明明白白
- 不管是否熟悉华为的朋友都知道|鸿蒙超出预期,华为或迎“新队友”
- 华为|华为越南代言人走红,手机好不好用不知道,她的确是令人挪不开眼