资讯 文档
技术能力
语音技术
文字识别
人脸与人体
图像技术
语言与知识
视频技术

接口概览

千帆ModelBuilder提供了丰富的推理服务API能力。且平台提供了不同版本内容,供开发者使用。

对话Chat V2

为提升使用体验,平台新增支持V2版本模型服务API,完全兼容OpenAI标准(包含身份认证、接口协议)。V2版本接口调用文档可以查看对话Chat V2,支持以下模型。

模型名称 模型版本 介绍
ERNIE 4.0 ERNIE-4.0-8K 百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。 百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平。
ERNIE 4.0 ERNIE-4.0-8K-Preview 百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。
ERNIE 4.0 ERNIE-4.0-8K-Latest ERNIE-4.0-8K-Latest相比ERNIE-4.0-8K能力全面提升,其中角色扮演能力和指令遵循能力提升较大;相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效,支持5K tokens输入+2K tokens输出。
ERNIE 4.0 Turbo ERNIE-4.0-Turbo-8K ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K是模型的一个版本。
ERNIE 4.0 Turbo ERNIE-4.0-Turbo-8K-Preview ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K-Preview是模型的一个版本。
ERNIE 4.0 Turbo ERNIE-4.0-Turbo-8K-Latest ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K-Latest是模型的一个版本。
ERNIE 4.0 Turbo ERNIE-4.0-Turbo-128K ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-128K是模型的一个版本。
ERNIE 3.5 ERNIE-3.5-8K 百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。
ERNIE 3.5 ERNIE-3.5-8K-Preview 百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。此版本为ERNIE-3.5-8K模型的预览版本,指向最新版本模型。
ERNIE 3.5 ERNIE-3.5-128K ERNIE 3.5是百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。ERNIE-3.5-128K是模型的一个版本,2024年5月16日发布,提升上下文窗口长度至128K。
ERNIE Speed ERNIE-Speed-Pro-128K 百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。2024年8月30日发布的初始版本,支持128K上下文长度,效果比ERNIE-Speed-128K更优。
ERNIE Speed ERNIE-Speed-8K 百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。2024年2月5日发布的初始版本,支持8K上下文长度。
ERNIE Speed ERNIE-Speed-128K 百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。2024年3月14日发布版本,提升上下文窗口长度至128K。
ERNIE Character ERNIE-Character-8K 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。
ERNIE Character ERNIE-Character-Fiction-8K 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。
ERNIE Lite ERNIE-Lite-8K 百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。
ERNIE Lite ERNIE-Lite-Pro-128K 百度自研的轻量级大语言模型,效果比ERNIE Lite更优,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。该版本优化模型效果,支持128K上下文长度,效果比ERNIE-Lite-128K更优。
ERNIE Tiny ERNIE-Tiny-8K 百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。
ERNIE-Novel-8K ERNIE-Novel-8K 百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。2024年8月2日首次发布的版本,百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。
DeepSeek-V3 DeepSeek-V3 由杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,在百科知识、数学推理等多项任务上优势突出,评测成绩在主流榜单中位列开源模型榜首。
DeepSeek-R1 DeepSeek-R1 由杭州深度求索人工智能基础技术研究有限公司自研,在数学、代码、自然语言推理等任务上性能表现优异。
DeepSeek-R1-Distill DeepSeek-R1-Distill-Qwen-32B 基于 DeepSeek-R1 生成的样本数据对 Qwen2.5-32B 模型进行微调得到的新模型。
DeepSeek-R1-Distill DeepSeek-R1-Distill-Qwen-14B 基于 DeepSeek-R1 生成的样本数据对 Qwen2.5-14B 模型进行微调得到的新模型。
DeepSeek-R1-Distill DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-Distill-Qwen-7B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。
DeepSeek-R1-Distill DeepSeek-R1-Distill-Qwen-1.5B DeepSeek-R1-Distill-Qwen-1.5B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。
DeepSeek-R1-Distill DeepSeek-R1-Distill-Llama-70B DeepSeek-R1-Distill-Llama-70B是DeepSeek-R1基于Llama3.3-70B-Instruct的蒸馏模型。
DeepSeek-R1-Distill DeepSeek-R1-Distill-Llama-8B DeepSeek-R1-Distill-Llama-8B是DeepSeek-R1基于Llama3.1-8B-Base的蒸馏模型。
DeepSeek-R1-Distill DeepSeek-R1-Distill-Qianfan-Llama-70B 本模型是由千帆大模型研发团队以 Llama3_70B为base模型(Built with Meta Llama)蒸馏所得,蒸馏数据中也同步添加了千帆的语料。
DeepSeek-R1-Distill DeepSeek-R1-Distill-Qianfan-Llama-8B 本模型是由千帆大模型研发团队以 Llama3_8B为base模型(Built with Meta Llama)蒸馏所得,蒸馏数据中也同步添加了千帆的语料。

向量Embeddings V2

V2版本接口调用文档可以查看向量Embeddings V2,支持以下模型。

大模型 介绍
tao-8k 是由Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。
Embedding-V1 Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。
bge-large-zh 由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
bge-large-en 由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。

重排序Reranker V2

V2版本接口调用文档可以查看重排序Reranker V2,支持以下模型。

大模型 介绍
bce-reranker-base_v1 由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。

图像Images

V2版本接口调用文档可以查看图像Images文档,支持以下模型。

大模型 介绍
iRAG-1.0 百度自研的iRAG(image based RAG),检索增强的文生图技术,将百度搜索的亿级图片资源跟强大的基础模型能力相结合,就可以生成各种超真实的图片,整体效果远远超过文生图原生系统,去掉了AI味儿,而且成本很低。iRAG具备无幻觉、超真实、立等可取等特点。

图像理解

V2版本接口调用文档请查看图像理解文档,支持以下模型。

大模型 介绍
DeepSeek-VL2 DeepSeek-VL2是基于 DeepSeekMoE-27B 构建,总激活参数为 45 亿,序列长度为 4096。
DeepSeek-VL2-Small DeepSeek-VL2-Small是基于 DeepSeekMoE-16B 构建,总激活参数为 28 亿,序列长度为 4096。

阅读助手插件

API名称 介绍
阅读助手插件 主要进行文档分析、网页解析,支持长传文档、网页,对其内容做摘要、分析、整理等任务。常见场景有论文综述、问题分析、论文精读、数据整理、会议纪要整理、文档总结、网页新闻精度等。

上一篇
名词解释
下一篇
通用说明