资讯 文档
技术能力
语音技术
文字识别
人脸与人体
图像技术
语言与知识
视频技术

模型精调

模型精调是模型训练过程中,所选用的基础模型训练费用,包括Post-pretrainSFT偏好对齐等内容,您可点击右侧目录选择需要了解的训练方式。

模型训练价格限时5折优惠,文心大模型部分训练支持闲时调度。

价格费用举例

训练数据:25800字符数;

文本生成模型训练公式为:
计算公式 = (训练集tokens) x epoch(迭代轮次) x token单价

示例1:ERNIE Lite训练服务-SFT-全量更新

训练总价 = 训练集字符数 x 0.001(千位计算) x 字符转换token系数(0.5~0.8) x epoch(迭代轮次) x token单价

  • 预估价格计算方式为: 25.8千字符数 x (0.5~0.8) x 2(epoch迭代轮次) x 0.03 = 0.774~1.2384 元(原价)

模型训练限时5折优惠,以上示例现价为0.387~0.6192元。

示例2:大模型公有云训练服务-强化学习

  • 预估价格(最高)计算方式为: (25800 + 1000 x 2048) x 0.001(千位计算) x 2(epoch迭代轮次) x 0.01 = 41.476 元

模型训练限时5折优惠,以上示例现价最高为165.904元。

示例3:ERNIE Lite训练服务-postpretrain

  • 预估价格计算方式为: 25.8千字符数 x (0.5~0.8) x 2(epoch迭代轮次) x 0.004 = 0.1032~0.16512 元(原价)

模型训练限时5折优惠,以上示例现价为0.0516~0.08256元。


Post-pretrain


ERNIE 4.0 Turbo 百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景。
基础模型版本 说明 现价(折后价) 原价
ERNIE-4.0-turbo-128K 单条数据支持32k tokens。该模型在性能和效果上表现优异。 0.2元/千tokens 0.4元/千tokens

ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。
基础模型版本 说明 现价(折后价) 原价
ERNIE-Speed-8K 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 0.004元/千tokens 0.008元/千tokens
ERNIE-Speed-Pro-128K 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 0.03元/千tokens 0.06元/千tokens

ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。
基础模型版本 说明 现价(折后价) 原价
ERNIE-Lite-128K-0722 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 0.015元/千tokens 0.03元/千tokens

ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。
基础模型版本 说明 现价(折后价) 原价
ERNIE-Character-Fiction-8K 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 0.004元/千tokens 0.008元/千tokens

ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。
基础模型版本 说明 现价(折后价) 原价
ERNIE-Tiny-8K 单条数据支持8192 tokens。 0.0004元/千tokens 0.0008元/千tokens
ERNIE-Tiny-128K 单条数据支持128k tokens。 0.003元/千tokens 0.006元/千tokens

Llama Meta AI推出的开源大语言模型。
基础模型版本 说明 现价(折后价) 原价
Qianfan-Chinese-Llama2-13B-v1 单条数据支持4096 tokens。Qianfan-Chinese-Llama-2-13B-v1,千帆团队在Llama-2-13b基础上的中文增强版本。 0.002元/千tokens 0.004元/千tokens

训练字符转换token系数为(0.5~0.8),详情计费可查看示例

SFT

SFT模型训练分为文本生成图像生成图像理解三种作业类型。

SFT-文本生成


ERNIE 4.0 Turbo 百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-4.0-Turbo-8K 单条数据支持8192 tokens。该模型在性能和效果上表现优异。 LoRA

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens
ERNIE-4.0-Turbo-128K 单条数据支持32k tokens。该模型在性能和效果上表现优异。 全量更新

0.1元/千tokens

0.2元/千tokens 0.4元/千tokens
LoRA

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens

ERNIE 3.5 ERNIE系列旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-3.5-8K 单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 全量更新

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens
LoRA

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens

ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Speed-8K 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens
ERNIE-Speed-Pro-128K 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
LoRA

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens

ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Lite-8K-0308 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化,且扩展支持LoRA训练方法。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
ERNIE-Lite-128K-0722 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 全量更新

0.01元/千tokenss

0.02元/千tokens 0.04元/千tokens
LoRA

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens
ERNIE-Lite-128K-0419 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Character-8K-250124 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
LoRA

0.00375元/千tokens

0.0075元/千tokens 0.015元/千tokens
ERNIE-Character-Fiction-8K 单条数据支持8192 tokens。相比ERNIE-Character-8K-0321,在情节演绎和括号文学等指令遵循能力更强。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens
ERNIE-Character-8K-0321 单条数据支持8192 tokens。2024年3月21日发布的初始版本。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens
ERNIE-Character-Fiction-8K-1028 单条数据支持8192 tokens。在深度扮演能力、剧情创意度等方面能力得到增强,场景更加丰富。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Code ERNIE Code是百度自研的代码专精大模型,支持 600+ 种编程语言,在 Go、Java、Python、CPP 等头部语言上优势显著。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Code3-128K 单条数据支持128k tokens。支持代码续写、自然语言生成代码、单元测试生成、代码优化、注释生成、代码解释、动作预测等多项编程相关能力。 全量更新

0.0025元/千tokens

0.005元/千tokens 0.01元/千tokens
LoRA

0.0025元/千tokens

0.005元/千tokens 0.01元/千tokens

ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Tiny-8K 单条数据支持8192 tokens。 全量更新

0.0025元/千tokens

0.005元/千tokens 0.01元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
ERNIE-Tiny-128K-0929 单条数据支持128k tokens。 全量更新

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens

DeepSeek DeepSeek是杭州深度求索人工智能基础技术研究有限公司研发的通用AI模型。在知识问答、代码生成、数学计算等方面具备优秀的能力。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
DeepSeek-R1 单条数据支持8k tokens。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
LoRA

0.3元/千tokens

0.6元/千tokens 1.2元/千tokens
DeepSeek-V3-0324 单条数据支持8k tokens。2025年3月24日最新版本,由杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,在百科知识、数学推理等多项任务上优势突出,评测成绩在主流榜单中位列开源模型榜首。
LoRA

0.175元/千tokens

0.35元/千tokens 0.7元/千tokens
DeepSeek-R1-Distill-Qwen-32B 单条数据支持16k tokens。DeepSeek-R1-Distill-Qwen-32B是DeepSeek基于Qwen2.5-32B蒸馏得到的。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
DeepSeek-R1-Distill-Qwen-14B 单条数据支持16k tokens。DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-14B蒸馏得到的。 全量更新

0.003元/千tokens

0.006元/千tokens 0.012元/千tokens
LoRA

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens
DeepSeek-R1-Distill-Qwen-7B 单条数据支持16k tokens。DeepSeek-R1-Distill-Qwen-7B是DeepSeek基于Qwen2.5-Math-7B蒸馏得到的。 全量更新

0.0025元/千tokens

0.005元/千tokens 0.01元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
DeepSeek-R1-Distill-Qwen-1.5B 单条数据支持32k tokens。DeepSeek-R1-Distill-Qwen-1.5B是DeepSeek基于Qwen2.5-Math-1.5B蒸馏得到的。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens

Qianfan  Qianfan是千帆大模型平台推出的大模型,在通用和垂类场景中进一步增强。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
DeepSeek-R1-Distill-Qianfan-Llama-70B 单条数据支持32k tokens。DeepSeek-R1-Distill-Qianfan-Llama-70B是千帆大模型平台基于Llama3-70B模型蒸馏DeepSeek-R1模型得到的,综合能力较强,在数学题解析场景评测中达到优于DeepSeek-R1模型的效果。 全量更新

0.02元/千tokens

0.04元/千tokens 0.08元/千tokens
LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens
DeepSeek-R1-Distill-Qianfan-Llama-8B 单条数据支持32k tokens。DeepSeek-R1-Distill-Qianfan-Llama-8B是千帆大模型平台基于Llama3-8B模型蒸馏DeepSeek-R1得到的,在多个评测集中优于同参数量模型。 全量更新

0.00175元/千tokens

0.0035元/千tokens 0.007元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
Qianfan-Sug 单条数据支持8192 tokens。Qianfan-Sug是千帆大模型平台下的一款对话预测模型,能够基于对话上下文精准识别用户意图,并智能推测用户接下来的可能提问。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
LoRA

0.00075元/千tokens

0.0015元/千tokens 0.003元/千tokens

Llama Meta AI推出的开源大语言模型。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
Meta-Llama-3.2-1B-128K 单条数据支持128k tokens。Meta-Llama-3.2-1B针对多语言文本对话进行了优化,包括代理检索和摘要任务,表现优于许多可用的开源和封闭聊天模型。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
Meta-Llama-3.1-8B 单条数据支持8192tokens。Meta-Llama-3.1-8B是在15T+tokens上训练的80亿参数预训练大语言模型,推理效果整体优于同参数量级开源模型。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
Meta-Llama-3-8B 单条数据支持4096 tokens。Meta-Llama-3-8B在通用能力、知识推理、阅读理解的行业基准测评上表现优异。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
Qianfan-Chinese-Llama-2-13B-v2 单条数据支持4096 tokens。千帆团队基于Llama2架构开发的130亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语。推理效果整体优于同参数量级开源模型。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
LoRA

0.00375元/千tokens

0.0075元/千tokens 0.015元/千tokens
Qianfan-Chinese-Llama-2-7B 单条数据支持4096 tokens。Qianfan-Chinese-Llama-2-7B,千帆团队在Llama-2-7b基础上的中文增强版本。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
Qianfan-Chinese-Llama-2-13B-v1 单条数据支持4096 tokens。Qianfan-Chinese-Llama-2-13B-v1,千帆团队在Llama-2-13b基础上的中文增强版本。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
LoRA

0.00375元/千tokens

0.0075元/千tokens 0.015元/千tokens
Qianfan-Chinese-Llama-2-7B-32K 千帆团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文。 全量更新

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
Qianfan-Chinese-Llama-2-1.3B 单条数据支持4096 tokens。Meta-Llama-3-8B在通用能力、知识推理、阅读理解的行业基准测评上表现优异。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens

Mixtral-8x7B 由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
Mixtral-8x7B 单条数据支持32768 tokens。该版本为支持对话的微调版本。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens

SQLCoder-7B 由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
SQLCoder-7B 单条数据支持4096 tokens。由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。使用Apache 2.0、CC-BY-SA-4.0协议。根据CC-BY-SA-4.0协议要求,您需要将修改后的模型权重在CC-BY-SA-4.0license中开源。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens

ChatGLM 智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ChatGLM4-9B 单条数据支持8192 tokens。GLM-4-9B是智谱 AI 推出的预训练模型 GLM-4系列中的开源版本,在语义、数学、推理、代码等多方面的数据集测评中,均表现出较高的性能。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
ChatGLM3-6B 单条数据支持4096 tokens。相比前两代,具备更强大的基础模型能力。目前仅支持Prompt+Response数据格式。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
ChatGLM2-6B-32K 在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 全量更新 暂不支持 0.004元/千tokens 0.008元/千tokens
ChatGLM2-6B 单条数据支持4096 tokens。智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。 全量更新 暂不支持 0.003元/千tokens 0.006元/千tokens
LoRA 暂不支持 0.002元/千tokens 0.004元/千tokens

Baichuan2 Baichuan2是百川智能推出的新一代开源大语言模型。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
Baichuan2-7B-Chat 单条数据支持4096 tokens。Baichuan2-7B-Chat 是在大约 1.2 万亿 tokens 上训练的 70 亿参数模型。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
Baichuan2-13B-Chat 单条数据支持4096 tokens。Baichuan2-13B-Chat 采用2.6万亿Tokens的高质量语料训练。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
LoRA

0.00375元/千tokens

0.0075元/千tokens 0.015元/千tokens

BLOOM-7B 业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
BLOOM-7B 单条数据支持2048 tokens。 Qianfan-BLOOMZ-7B,千帆团队在由BigScience研发并开源的BLOOMZ-7B的基础上的中文增强版。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens


CodeLlama 由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
CodeLlama-7B 单条数据支持4096 tokens。由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解,模型参数规模为70亿。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens

Qwen Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
Qwen3-0.6B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
Qwen3-8B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
Qwen3-14B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.0045元/千tokens

0.009元/千tokens 0.018元/千tokens
LoRA

0.00325元/千tokens

0.0065元/千tokens 0.013元/千tokens
Qwen3-32B 单条数据支持32k tokens。实现思考模式和非思考模式的有效融合,可在对话中切换模式。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
QwQ-32B 单条数据支持32k tokens。模型数学代码等核心指标及部分通用指标达到DeepSeek-R1 满血版水平。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
Qwen2.5-1.5B-Instruct 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
Qwen2.5-7B-Instruct 单条数据支持8192 tokens。 全量更新

0.0025元/千tokens

0.005元/千tokens 0.01元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
Qwen2.5-14B-Instruct 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.003元/千tokens

0.006元/千tokens 0.012元/千tokens
LoRA

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens
Qwen2.5-32B-Instruct 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens 0.02~~~~元/千tokens

SFT中大模型训练字符转换token系数为(0.5~0.8)。

需注意:基于基础模型Meta-Llama-3-8B训练和Meta-Llama-3.1-8B全量更新产生的计费账单,将合并于Llama2-7B的训练模型的账单中,并非单独记账。

SFT-图像生成

资源配置计费:

计费项目 说明 单价
模型精调资源实例 大模型公有云训练服务-按小时计费 (5折后)112元/小时
大模型训练模块会根据数据集大小,预估训练时长,其中最小计量粒度为0.01小时,不足0.01小时按0.01小时计算。

SFT-图像理解


LLaVA LLaVA模型是多模态大模型,是Haotian Liu等人基于Vicuna/Llama等大模型使用多模态数据训练得到。
基础模型版本 说明 训练方法 折后价 原价
LLaVA-V1.6-13B LLaVA-v1.6-13B 是基于Vicuna-13B模型训练得到,在多个benchmark数据集上表现优异。该模型仅供研究使用,需要遵循模型许可。 全量更新

0.085元/千tokens

0.017元/千tokens
LoRA

0.045元/千tokens

0.09元/千tokens

InternLM-XComposer InternLM是在2.6万亿token的高质量语料上训练得到的,包含7B及20B两种参数规格及基座、对话等版本,满足不同复杂应用场景需求。多图训练时需要保证图片长宽尺寸相同。
基础模型版本 说明 训练方法 折后价 原价
InternLM-XComposer2.5-7B InternLM-XComposer2.5在各种文本-图像理解和创作应用中表现出色。 全量更新

0.015元/千tokens

0.03元/千tokens
LoRA

0.008元/千tokens

0.016元/千tokens

InternVL2 InternVL2.0在文档和图表理解、数理问题解决,以及集成多模态能力等方面表现出较强竞争力。
基础模型版本 说明 训练方法 折后价 原价
InternVL2.5-8B 基于 InternVL 构建的先进多模式大型语言模型,保留了其核心模型架构,同时在训练和测试策略以及数据质量方面进行了显著的改进。 全量更新

0.0055元/千tokens

0.011元/千tokens
LoRA

0.004元/千tokens

0.008元/千tokens
InternVL2-2B InternVL2-2B使用8K上下文窗口进行训练,包含InternViT-300M-448px、MLP projector和internlm2-chat-1_8b,参数规模达20亿。 该模型仅供研究使用,需要遵循模型许可。 全量更新

0.003元/千tokens

0.006元/千tokens
LoRA

0.0025元/千tokens

0.005元/千tokens
InternVL2-8B InternVL2-8B使用8K上下文窗口进行训练,包含InternViT-300M-448px、MLP projector和internlm2_5-7b-chat,参数规模达80亿。 全量更新

0.0055元/千tokens

0.011元/千tokens
LoRA

0.004元/千tokens

0.008元/千tokens

Qwen-VL 引入了朴素动态分辨率机制,使模型能够将不同分辨率的图像动态处理成不同数量的视觉标记,重新定义了视觉处理中传统的预定分辨率方法。
基础模型版本 说明 训练方法 折后价 原价
Qwen2.5-VL-7B-Instruct Qwen2.5-VL-7B在视觉理解、文档解析、视频理解等方面表现出色,具备强大的多模态能力。 全量更新

0.008元/千tokens

0.016元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens
Qwen2-VL-7B Qwen2-VL-7B支持图像、视频的输入,在更经济的规模上也实现了有竞争力的性能表现。 全量更新

0.008元/千tokens

0.016元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens
Qwen2-VL-2B Qwen2-VL-2B支持图像、多图、视频的输入,在更经济的规模上也实现了有竞争力的性能表现。 全量更新

0.0055元/千tokens

0.011元/千tokens
LoRA

0.0035元/千tokens

0.007元/千tokens

偏好对齐

偏好对齐训练分为RFTKTOSimPODPORLHF五种训练模式。

RFT


DeepSeek DeepSeek是杭州深度求索人工智能基础技术研究有限公司研发的通用AI模型。在知识问答、代码生成、数学计算等方面具备优秀的能力。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
DeepSeek-R1-Distill-Qwen-14B DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-14B蒸馏得到的。 PPO全量更新

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens
GRPO全量更新

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens
DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-Distill-Qwen-7B是DeepSeek基于Qwen2.5-Math-7B蒸馏得到的。 PPO全量更新

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens
GRPO全量更新

0.075元/千tokens

0.075元/千tokens 0.15元/千tokens

Qwen Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
Qwen2.5-32B-Instruct 单条数据支持16k tokens。 PPO全量更新

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens
GRPO全量更新

0.075元/千tokens

0.015元/千tokens 0.3元/千tokens
Qwen2.5-14B-Instruct 单条数据支持32k tokens。 PPO全量更新

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens
GRPO全量更新

0.0375元/千tokens

0.075元/千tokens 0.15元/千tokens
Qwen2.5-7B-Instruct 单条数据支持32k tokens。 PPO全量更新

0.035元/千tokens

0.07元/千tokens 0.14元/千tokens
GRPO全量更新

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens
QwQ-32B 单条数据支持32k tokens。 PPO全量更新

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens
GRPO全量更新

0.075元/千tokens

0.15元/千tokens 0.3元/千tokens

KTO

ERNIE 3.5 ERNIE系列旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-3.5-8K 单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 全量更新

0.0175元/千tokens

0.035元/千tokens 0.07元/千tokens
LoRA

0.0125元/千tokens

0.025元/千tokens 0.05元/千tokens

ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Speed-8K 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
LoRA

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
ERNIE-Speed-Pro-128K 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。
基础模型版本 说明 训练方法 闲时调度价 非闲时(折后价) 原价
ERNIE-Lite-8K-0308 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
ERNIE-Lite-128K-0419 单条数据支持128k tokens。模型基于海量长文本数据训练,具有优秀的长文本创作能力。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens
LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Character-Fiction-8K 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 全量更新

0.0175元/千tokens

0.035元/千tokens 0.07元/千tokens
LoRA

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
ERNIE-Character-8K-0321 单条数据支持8192 tokens。2024年3月21日发布的初始版本。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Tiny-8K 单条数据支持8192 tokens。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
ERNIE-Tiny-128K-0929 单条数据支持128k tokens。 全量更新

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens

SimPO


ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Speed-8K 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
ERNIE-Speed-Pro-128K 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.0175元/千tokens

0.035元/千tokens 0.07元/千tokens
LoRA

0.0125元/千tokens

0.025元/千tokens 0.05元/千tokens

ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Lite-8K-0308 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens
ERNIE-Lite-128K-0722 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Character-Fiction-8K 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens

ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Tiny-8K 单条数据支持8192 tokens。 全量更新

0.0025元/千tokens

0.005元/千tokens 0.01元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
ERNIE-Tiny-128K-0929 单条数据支持128k tokens。 全量更新

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens

DPO


ERNIE 4.0 Turbo 百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-4.0-Turbo-8K 单条数据支持8k tokens。该模型在性能和效果上表现优异。 全量更新

0.1元/千tokens

0.2元/千tokens 0.4元/千tokens
ERNIE-4.0-Turbo-128K 单条数据支持32k tokens。该模型在性能和效果上表现优异。 全量更新

0.1元/千tokens

0.2元/千tokens 0.4元/千tokens

ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-3.5-8K 单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 全量更新

0.025元/千tokens

0.05元/千tokens 0.1元/千tokens
LoRA

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens
ERNIE-Speed-8K 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
ERNIE-Speed-Pro-128K 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 全量更新

0.0175元/千tokens

0.035元/千tokens 0.07元/千tokens
LoRA

0.0125元/千tokens

0.025元/千tokens 0.05元/千tokens

ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Lite-8K-0308 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens
ERNIE-Lite-128K-0722 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens
ERNIE-Lite-128K-0419 单条数据支持128k tokens。模型基于海量长文本数据训练,具有优秀的长文本创作能力。 全量更新

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Character-8K-250124 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
LoRA

0.00375元/千tokens

0.0075元/千tokens 0.015元/千tokens
ERNIE-Character-Fiction-8K 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 全量更新

0.015元/千tokens

0.03元/千tokens 0.06元/千tokens
ERNIE-Character-8K-0321 单条数据支持8192 tokens。2024年3月21日发布的初始版本。 全量更新

0.0075元/千tokens

0.015元/千tokens 0.03元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens

ERNIE Code ERNIE Code是百度自研的代码专精大模型,支持 600+ 种编程语言,在 Go、Java、Python、CPP 等头部语言上优势显著。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Code3-128K 单条数据支持128k tokens。支持代码续写、自然语言生成代码、单元测试生成、代码优化、注释生成、代码解释、动作预测等多项编程相关能力。 全量更新

0.00325元/千tokens

0.0065元/千tokens 0.013元/千tokens
LoRA

0.003元/千tokens

0.006元/千tokens 0.012元/千tokens

ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Tiny-8K 单条数据支持8192 tokens。 全量更新

0.0025元/千tokens

0.005元/千tokens 0.01元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
ERNIE-Tiny-128K-0929 单条数据支持128k tokens。 全量更新

0.002元/千tokens

0.004元/千tokens 0.008元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens

DeepSeek DeepSeek是杭州深度求索人工智能基础技术研究有限公司研发的通用AI模型。在知识问答、代码生成、数学计算等方面具备优秀的能力。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
DeepSeek-R1 单条数据支持8k tokens。DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
LoRA

0.3元/千tokens

0.6元/千tokens 1.2元/千tokens
DeepSeek-R1-Distill-Qwen-14B 单条数据支持32k tokens。DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-14B蒸馏得到的。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
LoRA

0.00375元/千tokens

0.0075元/千tokens 0.015元/千tokens

Qianfan  Qianfan是千帆大模型平台推出的大模型,在通用和垂类场景中进一步增强。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
Qianfan-Sug 单条数据支持8192 tokens。Qianfan-Sug是千帆大模型平台下的一款对话预测模型,能够基于对话上下文精准识别用户意图,并智能推测用户接下来的可能提问。 全量更新

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens
LoRA

0.00075元/千tokens

0.0015元/千tokens 0.003元/千tokens

Llama Meta AI推出的开源大语言模型。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
Meta-Llama-3.1-8B 单条数据支持8192tokens。Meta-Llama-3.1-8B是在15T+tokens上训练的80亿参数预训练大语言模型,推理效果整体优于同参数量级开源模型。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
LoRA

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens

Baichuan2 Baichuan2是百川智能推出的新一代开源大语言模型。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
Baichuan2-7B-Chat 单条数据支持4096 tokens。Baichuan2-7B-Chat 是在大约 1.2 万亿 tokens 上训练的 70 亿参数模型。 全量更新

0.0015元/千tokens

0.003元/千tokens 0.006元/千tokens
LoRA

0.001元/千tokens

0.002元/千tokens 0.004元/千tokens

Qwen  Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。 基础模型版本
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
Qwen2.5-32B-Instruct 单条数据支持8k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.075元/千tokens

0.15元/千tokens 0.3元/千tokens
LoRA

0.03元/千tokens

0.06元/千tokens 0.12元/千tokens
Qwen2.5-14B-Instruct 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.00325元/千tokens

0.0065元/千tokens 0.013元/千tokens
LoRA

0.00225元/千tokens

0.0045元/千tokens 0.009元/千tokens
Qwen2.5-1.5B-Instruct 单条数据支持8k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 全量更新

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens
LoRA

0.005元/千tokens

0.01元/千tokens 0.02元/千tokens

RLHF


ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Lite-8K-0308 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 奖励模型训练

0.0065元/千tokens

0.013元/千tokens 0.026元/千tokens
强化学习训练

0.05元/千tokens

0.1元/千tokens 0.2元/千tokens

ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。
基础模型版本 说明 训练方法 闲时调度价 非闲时价(折后价) 原价
ERNIE-Tiny-8K 单条数据支持8192 tokens。 奖励模型训练

0.00125元/千tokens

0.0025元/千tokens 0.005元/千tokens
强化学习训练

0.01元/千tokens

0.02元/千tokens 0.04元/千tokens

特别注意:强化学习计算公式为以下:
训练总价(最高) = (训练集tokens) x epoch(迭代轮次) x token单价

上一篇
模型服务计费
下一篇
模型蒸馏