资讯 文档
技术能力
语音技术
文字识别
人脸与人体
图像技术
语言与知识
视频技术

ERNIE-Gen

ERNIE-Gen

简介

ERNIE-GEN是针对通用生成任务的预训练模型,在4类生成任务的5个英文公开数据集上超过微软 MASS 和 UNILM、Facebook BART、谷歌 T5 等参数规模更大、预训练数据更多的竞品模型取得SOTA效果,在中文任务上较通用ERNIE模型提升显著。

技术原理

ERNIE-GEN的核心技术和创新主要体现在以下三个方面:

•针对encoder-decoder 联合建模能力较弱的问题,提出了多片段-多粒度预训练采样策略,增强了 encoder 和 decoder 的交互。

•针对seq2seq 曝光偏差问题, 提出基于 Infilling 机制的 pretrain-finetune 框架, 并进一步引入噪声增强策略。

•考虑到人类的思考模式,提出将 span 预测引入生成预训练中,增强语义学习。

image.png

详细的原理请移步论文:https://arxiv.org/pdf/2001.11314.pdf

模型效果

image.png

使用方式

目前我们在文本生成任务中提供了详细的ERNIE-Goc使用Demo,请移步文本生成

上一篇
ERNIE-IE 2.0
下一篇
ERNIE-Sentiment