视觉Transformer BERT预训练新方式:中科大、MSRA等提出PeCo( 二 )
文章图片
学习用于视觉内容的PeCo
该研究提出 , 在不包含像素损失的情况下 , 对模型强制执行原始图像和重构图像之间的感知相似性 。 感知相似性不是基于像素之间的差异得到的 , 而是基于从预训练深度神经网络中提取的高级图像特征表示之间的差异而得到 。 该研究希望这种基于feature-wise的损失能够更好地捕捉感知差异并提供对低级变化的不变性 。 下图从图像重构的角度展示了模型使用不同损失的比较 , 结果表明图像在较低的pixel-wise损失下可能不会出现感知相似:
文章图片
图1.不同损失下的图像重构比较 。 每个示例包含三个图像 , 输入(左)、使用pixel-wise损失重构图像(中)、使用pixel-wise损失和feature-wise损失重构图像(右) 。 与中间图像相比 , 右侧图像在感知上与输入更相似 。
在形式上 , 假设输入图像x和重构图像
文章图片
的感知度量可以表示为:
文章图片
其中S表示提取特征的层数 , 总的目标函数为:
文章图片
BERTobjective执行掩码图像建模
该研究采用BERTobjective在离散视觉token上执行掩码图像建模任务 , 如BEiT 。 对于给定的图像x , 输入token为不重叠的图像patch , 输出token是通过学习方程(5)获得的离散感知视觉单词 。 设输入为{x_1,x_2,···,x_N} , 并且真值输出为
文章图片
。 掩码图像建模的目标是从掩码输入中恢复相应的视觉token , 其中一部分输入token已被掩码掉 。 准确地说 , 令M为掩码索引集合 , 掩码输入
文章图片
表示为:
文章图片
其中 , m是与非掩码token相同维度的可学习掩码token 。 掩码(masked)输入token被送入L层视觉Transformer , 最后一层的隐藏输出表示为{h^1,h^2,···,h^N} 。
实验
该研究将预训练模型应用于各种下游任务 , 包括ImageNet-1K分类、COCO目标检测和ADE20k分割 。
与SOTA模型比较
首先该研究将PeCo与SOTA研究进行比较 。 研究者使用ViT-B作为主干并在ImageNet-1K上进行预训练 , epoch为300 。
图像分类任务:在ImageNet1K上进行分类任务的Top-1准确率如表1所示 。 可以看出 , 与从头开始训练的模型相比 , PeCo显着提高了性能 , 这表明预训练的有效性 。 更重要的是 , 与之前自监督预训练模型相比 , PeCo模型实现了最佳性能 。 值得一提的是 , 与采用800epoch的BEiT预训练相比 , PeCo仅用300epoch就实现了0.9%的提高 , 并比MAE采用1600epoch预训练性能提高0.5% 。 这验证了PeCo确实有利于预训练 。
文章图片
语义分割任务:该研究将PeCo与1)在ImageNet-1K上进行监督预训练和2)BEiT(SOTA性能自监督学习模型)进行比较 , 评估指标是mIoU , 结果如表2所示 。 由结果可得 , PeCo在预训练期间不涉及任何标签信息 , 却取得了比监督预训练更好的性能 。 此外 , 与自监督BEiT相比 , PeCo模型也获得了较好的性能 , 这进一步验证了PeCo的有效性 。
- ktv|KTV瞄准老年人
- 董秘|丝路视觉董秘回复:公司不生产3D眼镜设备
- 一加10|Pixelworks三大视觉技术加持:一加10 Pro显示颜色完美无偏差
- 机器视觉|陈湛匀教授:为什么社交媒体营销是企业营销的新突破?
- 清华大学提出DAT | DCN+Swin Transformer会碰撞出怎样的火花?
- 保单|节省60%以上的人力成本!视觉AI正在成为保险行业的“新宠儿”
- OPPO|专为色觉障碍人士打造!OPPO公开色彩视觉检测技术:辨色正确度提升80%
- 机器视觉|融资丨「微链科技」完成数千万元A轮融资,中博聚力领投
- 提供商|智能视觉解决方案提供商中科慧眼完成近3亿元B轮融资
- 大片|致敬向美好生活奔赴的每个人,微众银行联合视觉志打造走心大片