MSN中国首页|Outlook邮箱|OfficePLUS微软官方模板
MSN中文网 > 首页 > 科技 >正文
正文
分享至新浪微 转播到腾讯微博转播到腾讯微博

再度PK谷歌预训练模型BERT,百度发布ERNIE 2.0,16个中英文任务全面超越

2019-07-31 19:00:17  责任编辑:  出处:[db:出处]

  2019年3月,百度正式发布NLP模型ERNIE,其在中文任务中全面超越BERT一度引发业界广泛关注和探讨。

  今天,经过短短几个月时间,百度ERNIE再升级。发布持续学习的语义理解框架ERNIE 2.0,及基于此框架的ERNIE 2.0预训练模型。继1.0后,ERNIE英文任务方面取得全新突破,在共计16个中英文任务上超越了BERT和XLNet, 取得了SOTA效果。目前,百度ERNIE 2.0的Fine-tuning代码和英文预训练模型已开源。(Github 项目地址:https://github.com/PaddlePaddle/ERNIE)

  近两年,以BERT、XLNet为代表的无监督预训练技术在语言推断、语义相似度、命名实体识别、情感分析等多个自然语言处理任务上取得了技术突破。基于大规模数据的无监督预训练技术在自然语言处理领域变得至关重要。

  百度发现,之前的工作主要通过词或句子的共现信号,构建语言模型任务进行模型预训练。例如,BERT通过掩码语言模型和下一句预测任务进行预训练。XLNet构建了全排列的语言模型,并通过自回归的方式进行预训练。

  然而,除了语言共现信息之外,语料中还包含词法、语法、语义等更多有价值的信息。例如,人名、地名、机构名等词语概念知识,句子间顺序和距离关系等结构知识,文本语义相似度和语言逻辑关系等语义知识。设想如果能持续地学习各类任务,模型的效果能否进一步提升?

图片1.png

  ERNIE 2.0:可持续学习语义理解框架

  基于此,百度提出可持续学习语义理解框架ERNIE 2.0。该框架支持增量引入词汇(lexical)、语法 (syntactic) 、语义 (semantic) 等3个层次的自定义预训练任务,能够全面捕捉训练语料中的词法、语法、语义等潜在信息。这些任务通过多任务学习对模型进行训练更新,每当引入新任务时,该框架可在学习该任务的同时,不遗忘之前学到过的信息。这也意味着,该框架可以通过持续构建训练包含词法、句法、语义等预训练任务,持续提升模型效果。

图片2.png

  新发布的ERNIE 2.0模型结构

  依托该框架,百度充分借助飞桨PaddlePaddle多机分布式训练优势,利用 79亿tokens训练数据(约1/4的XLNet数据)和64张V100 (约1/8的XLNet硬件算力)训练的ERNIE 2.0预训练模型不仅实现了SOTA效果,而且为开发人员定制自己的NLP模型提供了方案。目前,百度开源了ERNIE 2.0的fine-tuning代码和英文预训练模型。

  百度研究团队分别比较了中英文环境上的模型效果。英文上,ERNIE 2.0在自然语言理解数据集GLUE的7个任务上击败了BERT和XLNet。中文上,在包括阅读理解、情感分析、问答等不同类型的9个数据集上超越了BERT并刷新了SOTA。

图片3.png
图片4.png

  ERNIE的工作表明,在预训练过程中,通过构建各层面的无监督预训练任务,模型效果也会显著提升。未来,研究者们可沿着该思路构建更多的任务提升效果。

  自2018 年预训练语言模型 BERT 提出之后,预训练语言模型将自然语言处理的大部分任务水平提高了一个等级,这个领域的研究也掀起了热潮。如今百度ERNIE 2.0 再度为行业提供了研究思路上的方法创新,可持续学习的特点亦将成为NLP领域发展里程中的注脚。

频道推荐
体育/教育
汽车视界 金融财经
数码酷玩
三星Neo QLED 8K电视,和这   在2021年国际消费类电子产品展览会(CES)上,三星在“First Look”…
三星电视:做时代的引领者   家电圈近期最值得期待的看点非三星电视莫属,除了一系列科技大片即视感的VLO…
影创科技集团董事长孙立荣 2019年度商界青年领军者获奖人——爱库存联合创始人冷静女士为孙立颁奖....…
共绘XR文旅蓝图,影创科技 此次战略合作签约仪式意味着双方建立起长期战略合作伙伴关系,影创科技与江西旅游…
南昌市工商联党组书记熊冬 调研组一行在体验 5G+MR 全息智慧教室后对其丰富、直观、立体的教学形式表示赞许…
游戏世界
版权声明 | 网站简介 | 网站律师 | 网站导航 | 广告刊例 | 联系方式 | Site Map
MSN中国(MSN.SH.CN)版权所有,未经授权禁止复制或建立镜像