资讯 社区 文档
技术能力
语音技术
文字识别
人脸与人体
图像技术
语言与知识
视频技术

什么是DPO训练


DPO(Direct Preference Optimization)
  直接偏好优化方法,通过直接优化语言模型来实现对大模型输出的精确把控,不用进行强化学习,也可以准确判断和学习到使用者的偏好,且效果更加突出。

本平台已预置DPO模型训练方式,快开启您的模型训练之旅吧~

优势

  • 操作更便捷:更容易实施和训练,只需匹配专有数据集和训练模型,即可发布服务。
  • 运行更稳定:最大力度避免陷入局部最优,保证训练过程更可信、可靠。
  • 效率更明显:与强化学习相比,节省训练步骤,需要的计算资源和数据更少,实现训练轻量化。
  • 输出更有效:在情感控制、内容摘要和对话输出等语言任务中,效果优于RLHF。

工作步骤

DPO微调包含以下两个步骤:

  1. 数据集收集:prompt+chosen+rejected数据集,样例下载

    • prompt:

      • ①单轮对话场景,Prompt字段仅包含每轮对话的提问;
      • ②多轮对话场景,Prompt字段包含前几轮对话的问答及最后一轮的提问
    • chosen:Prompt字段对应的正偏好回答。
    • rejected:Prompt字段对应的负偏好回答。
  2. 优化训练:基于预置或SFT后的大模型,调整部分参数,训练您的偏好大模型。

常见问题

Q:是不是DPO不含奖励模型训练的过程?

A:严格意义上讲,DPO是将奖励模型训练和强化学习融合在同个阶段进行,其目标函数是优化模型参数以最大化奖励的函数。

前往体验DPO模型训练

上一篇
什么是Post-pretrain
下一篇
什么是KTO训练