使用高效的基于投影的模型架构推进 NLP( 二 )
文章图片
性能
我们在Civil_comments数据集上评估了pQRNN , 并将其与相同任务的BERT模型进行了比较 。 仅仅因为模型大小与参数数量成正比 , 所以pQRNN比BERT小得多 。 但此外 , pQRNN被量化 , 进一步将模型尺寸缩小了4倍 。 BERT的公共预训练版本在任务上表现不佳 , 因此与在多个不同相关多语言数据源上预训练的BERT版本进行比较 , 以实现最佳性能 。
文章图片
结论
使用我们的上一代模型PRADO , 我们已经展示了如何将其用作下一代最先进的轻量级文本分类模型的基础 。 我们展示了一个这样的模型pQRNN , 并表明这种新架构几乎可以实现BERT级别的性能 , 尽管它小了300倍并且仅在监督数据上进行了训练 。 为了激发该领域的进一步研究 , 我们开源了PRADO模型 , 并鼓励社区将其用作新模型架构的起点 。
- 本文转自:北京日报对于一些青少年来说|前所未有的“大脑切除术实验”
- ai|提前给新机型让路?盘点年后大降价的几款骁龙8+机型,性价比有了
- 芯片|不装了?中国科技再“亮剑”,外媒:低估了中企的实力
- 关于大多数网络验证的通用“解决”思路
- |Q1季度启动!荣耀老机型可以升级鸿蒙OS3.0了,你的机型在内吗?
- 三星|国产手机的每一步,都走的异常艰难,屏幕主要依赖于三星
- 封锁中企后,老美的日子不好过,如今华为中芯拿下千亿美元的许可
- 翻译|给你安利三个自媒体必备的TXT翻译成中文软件
- 华为手机|好评率第一名的手机,6000万+100W+鸿蒙OS,仅售2709元起
- 拼多多|“千呼万唤”的拼多多,为何年年上不了315晚会?