资讯 文档
技术能力
语音技术
文字识别
人脸与人体
图像技术
语言与知识
视频技术

(new)模型蒸馏-抽取任务

代码结构

.
├── data
│   ├── download_general_data.sh
│   ├── download_task_data.sh
│   ├── msra_ner
│   └── predict_demo
├── examples
│   ├── ernie_3.0_large_ft.json
│   ├── ernie_3.0_tiny_ft.json
│   ├── minilm_ged.json
│   ├── minilm_student_infer.json
│   ├── minilm_td1.json
│   ├── minilm_td2.json
├── inference
│   ├── custom_inference.py
├── model
│   ├── ernie_fc_sequence_label.py
│   ├── general_enhanced_distill_minilm.py
│   └── task_distill_minilm.py
├── reader
│   ├── ernie_seqlab_dataset_reader.py
│   ├── ernie_seqlabel_dataset_reader.py
├── run_infer.py
├── run_trainer.py
└── trainer
    ├── custom_dynamic_trainer.py

开始使用

数据准备

使用xnli作为任务数据集,中文wiki百科作为通用数据集。

  • 下载方式
    bash download_task_data.sh
    bash download_general_data.sh
  • 分阶段运行

    1.准备预训练教师模型和学生模型

cd wenxin_appzoo/models_hub
bash download_ernie_3.0_large_distill_ch.sh
bash download_ernie_3.0_tiny_ch.sh
cd wenxin_appzoo/tasks/model_distillation_seqlab
  1. fine-tune 教师模型
python run_trainer.py --param_path ./examples/ernie_3.0_large_ft.json
  1. 任务蒸馏通用数据增强阶段:GED
  • 首先需要根据评估指标选择最优的fine-tuned教师模型,然后运行:
python run_trainer.py --param_path ./examples/minilm_ged.json
  1. 任务蒸馏二阶段:TD1
python run_trainer.py --param_path ./examples/minilm_td1.json
  1. 任务蒸馏二阶段:TD2
python run_trainer.py --param_path ./examples/minilm_td2.json
  1. 对学生模型的效果进行预测
python run_infer.py --param_path ./examples/minilm_student_infer.json
  • 效果验证

    教师模型与学生模型的微调 (fine-tune) 和蒸馏 (distill) 效果对比 image.png

上一篇
(new)模型蒸馏-匹配任务
下一篇
(升级)模型蒸馏-分类任务