看了上面火热的讨论,你一定很好奇“艾尼”、“ERNIE”到底是个啥?
自然语言处理( Natural Language Processing,简称NLP )被誉为人工智能“皇冠上的明珠”。NLP为各类企业及开发者提供用于文本分析及挖掘的核心工具,已经广泛应用在电商、文化娱乐、金融、物流等行业客户的多项业务中。
而艾尼(ERNIE),可谓是目前NLP领域的最强中文预训练模型。
9月5日,百度资深研发工程师龙老师,就通过直播带开发者走近最强中文NLP预训练模型ERNIE,在线上解读了一系列艾尼ERNIE的强大特性,并现场与同为NLP模型的BERT直接PK,让开发者连连感叹,希望能把ERNIE运用到自己的工作与生活之中。
错过了直播没关系,让我们来回顾一下课上都讲了什么~
什么是艾尼(ERINE)?
艾尼(ERNIE)是百度自研的持续学习语义理解框架,该框架支持增量引入词汇(lexical)、语法 (syntactic) 、语义(semantic)等3个层次的自定义预训练任务,能够全面捕捉训练语料中的词法、语法、语义等潜在信息。
这些任务通过多任务学习对模型进行训练更新,每当引入新任务时,该框架可在学习该任务的同时,不遗忘之前学到过的知识。这也意味着,该框架可以通过持续构建不同的预训练任务,持续提升模型效果。因此ERNIE具有了更好的语义理解能力。
ERNIE 2.0持续学习语义理解框架
ERNIE好用么?
好不好用,摆事实才知道。
直播环节中,龙老师直接用填空题的形式展示了ERNIE与BERT在填空方面的表现。
例如题目:中国历史上唯一的正统女皇帝是[?][?][?],下面是直播中两种算法的表现:
ERNIE的结果是“武则天”,而BERT的结果是“宋太帝”。ERNIE能输出“武则天”说明它确实能学到“武则天”与“女皇帝”之间的关联。
而BERT输出的“宋太帝”虽然每个字“宋”、“太”、“帝”都与“皇帝”相关,但是连在一起就不是一个完整的词,而且也不能与“女皇帝”的形成照应。
再如,陈晓的妻子是[?][?][?]
ERNIE用答案向我们证明了自己不只懂百科,也懂八卦。
通过上面的DEMO测试,我们也就引出了这样一个问题:
ERNIE和BERT最大的区别是什么?
ERNIE1.0能够充分学习词语、短语、命名实体识别中字与字之间的关系,将其整体进行掩码。而BERT不具备这样的能力。ERNIE2.0则通过持续构造辅助任务让ERNIE进行学习,会的任务越多能力越强大。
这与BERT只靠一两个任务进行预训练的思路是完全不同的。就像小学生做题,一直只练一种题型肯定是不行的,需要多种题型都会做,既要有专项突破也要有综合练习,这样才能成为真正的学霸。
随着多样的训练数据的增加,ERNIE通过持续学习就能够学得越来越好。
ERNIE作为模型,也需要与深度学习框架深度配合,才能实现最佳的效果。百度开源的深度学习框架飞桨(PaddlePaddle)对ERNIE模型有非常好的定制优化,使得其加速比达到77%,可以说是ERNIE背后的神助攻。
ERNIE借助飞桨PaddlePaddle多机分布式训练优势,利用79亿tokens训练数据(约1/4的XLNet 数据)和64张V100(约1/8的XLNet 硬件算力)训练的ERNIE 2.0预训练模型不仅实现了在中英文16个任务上的最优效果,而且为开发人员定制自己的NLP 模型提供了方案。
目前,百度开源了ERNIE 2.0的Fine-tuning代码和英文预训练模型。
本次基于艾尼ERNIE的直播,同步在爱奇艺、IT大咖说、BiliBili、虎牙、斗鱼五个平台同步直播,收到了近3W开发者的关注与讨论。
直播回放视频已经上线,欢迎大家继续学习~
回顾ERNIE的原理、优势以及案例,请戳回放视频:
http://play.itdks.com/watch/8591895
在11月,ERNIE的线下培训课程也会在上海、成都等地分别落地,欢迎关注“百度NLP”公众号,关注最新报名信息~
划重点!
查看ERNIE模型使用的完整内容和教程,请点击下方链接,建议点击Star收藏到个人主页,方便后续查看。
GitHub:https://github.com/PaddlePaddle/ERNIE
版本迭代、最新进展都会在GitHub第一时间发布,欢迎持续关注!
也邀请大家加入ERNIE官方技术交流QQ群:760439550,可在群内交流技术问题,会有ERNIE的研发同学为大家及时答疑解惑。