资讯 社区 文档
技术能力
语音技术
文字识别
人脸与人体
图像技术
语言与知识
视频技术

模型广场操作及模型列表

平台预置了多款大模型供您使用,包括文心一言及业内知名的开源大模型。

登录到本平台,在左侧功能列中选择模型广场,查看平台预置模型和预置服务的列表。

模型检索

通过模型广场的标签区可检索您所需的模型列表,支持标签多选和清空筛选条件。

其中,可以针对模型类别、供应商、上下文长度、语言以及扩展能力进行筛选。

同时,在模型列表上方支持综合排序、按模型更新时间、按模型名称进行排序。搜索框内可输入模型名称、描述、模型ID、版本ID进行检索。

image.png

模型操作

点击模型卡片,进入模型详情页。

image.png

  • 模型介绍: 基本信息包含模型名称、模型类型、模型描述等基本信息。
  • 版本列表: 点击模型版本名称或查看版本详情;同时支持部分模型创建精调任务、查看API文档、在线体验和部署。
  • 评估报告: 支持查看预置模型评估报告,包括综合评价、任务完成能力对比和对话指令违背比例等信息。
  • 任务列表: 任务列表下展示预置模型各类任务的记录,如模型评估、模型压缩和删除版本等。

进一步精调

支持对模型广场部分预置模型、用户精调的部分模型进行进一步精调,可将光标移至“使用此模型”,点击“进一步精调”直接创建精调任务。详情支持范围请参考模型精调相关内容。

评估模型效果

支持对模型广场部分预置模型、用户精调的部分模型进行评估,可将光标移至“使用此模型”,点击“评估模型效果”直接发起评估任务。详情支持范围请参考模型评估相关内容。

部署模型推理

预置模型支持通过特定资源池部署为预测服务,可将光标移至“使用此模型”,点击“部署模型推理”跳转至在线服务进行模型部署,详情操作参考在线服务相关内容。

以下为模型广场接入的全部模型及版本,由于模型版本较多,MAC可使用“command + F键”;Windows可使用“Ctrl + F键”组合,在本页搜索关键字,迅速检索模型。如您不确定模型名称可参考模型检索内容。

ERNIE 4.0

文本生成 中文 英文 联网搜索 人设增强 记忆机制

百度自研的旗舰级超大规模大语言模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。

  • 无商用限制,网信备案✓
  • 按量后付费,输入:0.03元/千tokens,输出:0.09元/千tokens,其部分版本支持量包和TPM付费,价格明细可查看计费说明,部分版本评估费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-4.0-8K-Latest 此版本是2024年6月更新发布的版本,在模型效果上进一步提升 5K tokens/20000字符 + 2K tokens API文档 体验
ERNIE-4.0-8K-Preview 此版本为ERNIE-4.0-8K模型的预览版本,指向最新版本模型 5K tokens/20000字符 + 2K tokens API文档 体验
ERNIE-4.0-8K-0613主线版本 百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平 5K tokens/20000字符 + 2K tokens API文档 评估 体验
ERNIE-4.0-8k-0104 此版本是2024年1月4号更新发布的版本,在模型效果上进一步提升 5K tokens/20000字符 + 2K tokens API文档

千帆ModelBuilder为新用户提供免费试用额度,ERNIE-4.0-8K为每位用户提供50万tokens的免费额度,有效期为一个月。

ERNIE 4.0 Turbo

文本生成 中文 英文 联网搜索 人设增强 记忆机制

百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。

  • 无商用限制,网信备案✓
  • 按量后付费,输入:0.02元/千tokens,输出:0.06元/千tokens
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-4.0-Turbo-128K 长文档整体效果优于ERNIE-3.5-128K,时延劣于ERNIE-3.5-128K。 124K tokens + 4K tokens API文档 体验
ERNIE-4.0-Turbo-8K-0628 2024年6月28日首次发布的版本,百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀 6K tokens/20000字符 + 2K tokens API文档 体验
ERNIE-4.0-Turbo-8K-Preview 2024年7月3日发布的预览版本,百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀 7K tokens/20000字符 + 1K tokens API文档 体验
ERNIE-4.0-Turbo-8K 2024年6月28日首次发布的版本,百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀 6K tokens/20000字符 + 2K tokens API文档 体验

千帆ModelBuilder为新用户提供免费试用额度,ERNIE-4.0-Turbo-8K为每位用户提供50万tokens的免费额度,有效期为一个月。

ERNIE-Novel-8K

文本生成 中文 英文 联网搜索 人设增强

百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。

  • 无商用限制,网信备案✓
  • 按量后付费,输入:0.04元/千tokens,输出:0.12元/千tokens
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-Novel-8K 2024年8月2日首次发布的版本,百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。 6K tokens + 2K tokens API文档 体验

ERNIE 3.5

文本生成 中文 人设增强 记忆机制

百度自研的旗舰级大规模大语言模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。

  • 无商用限制,网信备案✓
  • 按量后付费,输入:0.0008元/千tokens,输出:0.0002元/千tokens,其部分版本支持量包和TPM付费,价格明细可查看计费说明,部分版本评估费用可查看计费明细
  • ERNIE-3.5-128k 输入:0.0008元/千tokens,输出:0.002元/千tokens
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-3.5-128K-Preview 此版本为ERNIE-3.5-128K模型的预览版本,指向最新版本模型。 124K tokens + 4K tokens 体验 API文档
ERNIE-3.5-8K-0701主线版本 2024年7月1日发布版本,能力全面升级,尤其数学计算、逻辑推理能力提升显著。 5K tokens/20000字符 + 2K tokens API文档 评估 体验
ERNIE-3.5-8K-0613 2024年6月13日发布版本,该模型版本在信息处理、代码能力、知识问答、多轮会话等均有提升。 6K tokens/20000字符 + 2K tokens API文档 体验
ERNIE-3.5-8K-Preview 此版本为ERNIE-3.5-8K模型的预览版本,指向最新版本模型 5K tokens/20000字符 + 2K tokens API文档 体验
ERNIE-3.5-128K-0516 2024年5月16日发布版本,提升上下文窗口长度至128K 124K tokens + 4K tokens API文档 体验
ERNIE-3.5-8K-0205 2024年2月5日发布版本,逻辑推理能力显著提升,可更好处理复杂指令,支持8K上下文长度 5K tokens/20000字符 + 2K tokens API文档
ERNIE-3.5-4K-0205 2024年2月5日发布版本,逻辑推理能力显著提升,可更好处理复杂指令,支持4K上下文长度 2K tokens/8000字符 + 2K tokens -
ERNIE-3.5-8K-1222 2023年12月22日发布版本,提升上下文窗口长度至8K 5K tokens/20000字符 + 2K tokens -

千帆ModelBuilder为新用户提供免费试用额度,ERNIE-3.5-8K和ERNIE-3.5-128K为每位用户提供50万tokens的免费额度,有效期为一个月。

ERNIE Speed Pro

文本生成 中文 人设增强

百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。

  • 无商用限制,网信备案 ✓
  • 按量后付费:输入:0.0004元/千tokens,输出:0.0008元/千tokens
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-Speed-Pro-128K 2024年8月30日发布的初始版本,支持128K上下文长度,效果比ERNIE-Speed-128K更优。 124K tokens + 4K tokens API文档 精调 体验

千帆ModelBuilder为新用户提供免费试用额度,ERNIE-Speed-Pro-128K为每位用户提供100万tokens的免费额度,有效期为一个月。

ERNIE Lite Pro

文本生成 中文 人设增强

百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。

  • 无商用限制,网信备案 ✓
  • 按量后付费:输入:0.00006元/千tokens,输出:0.00012元/千tokens
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-Lite-Pro-128K 2024年9月5日发布版本,优化模型效果,支持128K上下文长度,效果比ERNIE-Lite-128K更优。 124K tokens + 4K tokens API文档 体验

千帆ModelBuilder为新用户提供免费试用额度,ERNIE-Lite-Pro-128K为每位用户提供100万tokens的免费额度,有效期为一个月。

ERNIE Speed

文本生成 中文 人设增强 支持精调

百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。

  • 无商用限制,网信备案✓
  • 按量后付费,长期免费,其部分版本支持TPM付费,价格明细可查看计费说明,部分版本评估费用可查看计费明细,精调费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-Speed-128K 2024年3月14日发布版本,提升上下文窗口长度至128K 124K tokens + 4K tokens API文档 体验
ERNIE-Speed-8K 2024年2月5日发布的初始版本,支持8K上下文长度 7K tokens/11200字符 + 1K tokens API文档 精调 评估 体验

千帆ModelBuilder为新用户提供免费试用额度,ERNIE-Speed-8K和ERNIE-Speed-128K为每位用户提供100万tokens的免费额度,有效期为一个月。

ERNIE Lite

文本生成 英文 中文 支持精调 人设增强

百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。

  • 无商用限制,网信备案✓
  • 按量后付费,长期免费,其部分版本支持量包和TPM付费,价格明细可查看计费说明,部分版本评估费用可查看计费明细,精调费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-Lite-128K-0722 2024年7月22日发布版本,支持128K上下文长度 124K tokens + 4K tokens 精调 API文档
ERNIE-Lite-128K-0419 2024年4月19日发布版本,优化模型效果,支持128K上下文长度 124K tokens + 4K tokens API文档 精调 评估
ERNIE-Lite-8K-0308主线版本 2024年3月8日发布版本,优化模型效果,支持8K上下文长度 6K tokens/24000字符 + 2K tokens API文档 精调 评估 体验

千帆ModelBuilder为新用户提供免费试用额度,ERNIE-Lite-8K为每位用户提供100万tokens的免费额度,有效期为一个月。

ERNIE Tiny

文本生成 中文 支持精调 人设增强

百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。

  • 无商用限制,网信备案✓
  • 长期调用免费,部分版本评估费用可查看计费明细,精调费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-Tiny-8K 2024年3月8日发布的初始版本,支持8K上下文长度 6K tokens/24000字符 + 2K tokens API文档 精调 评估 体验
ERNIE-Tiny-128K 2024年9月29日发布的版本,支持128K上下文长度 124K tokens + 4K tokens API文档 精调 评估

千帆ModelBuilder为新用户提供免费试用额度,ERNIE-Tiny-8K为每位用户提供100万tokens的免费额度,有效期为一个月。

ERNIE Character

文本生成 支持精调 记忆机制

百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。

  • 无商用限制,网信备案✓
  • 按量后付费,输入:0.004元/千tokens,输出:0.008元/千tokens,部分版本评估费用可查看计费明细,精调费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-Character-Fiction-8K 2024年5月23日发布的版本,支持8K上下文长度,在情节演绎和规则化文本等场景下指令遵循能力更强 5K tokens/20000字符 + 2K tokens API文档 体验
ERNIE-Character-8K-0321 2024年3月21日发布的初始版本,支持8K上下文长度 6K tokens/24000字符 + 2K tokens API文档 精调 评估 体验

ERNIE Functions

文本生成

百度自研的垂直场景大语言模型,适合对话问答中的外部工具使用和业务函数调用场景,结构化回答合成能力更强、输出格式更稳定,推理性能更优。

  • 无商用限制,网信备案✓
  • 按量后付费,输入:0.004/千tokens,输出:0.008/千tokens,评估费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 操作
ERNIE-Functions-8K-0321 2024年3月21日发布的初始版本,支持8K上下文长度 6K tokens/24000字符 + 2K tokens API文档 评估 体验

Stable-Diffusion-XL

图像生成 英文 中文 支持精调

业内知名的跨模态大模型,由Stability AI研发并开源,有着业内领先的图像生成能力。

  • 有限制商用,当前模型仅限研究目的使用。请持续关注模型厂商主页公告
  • 按量后付费0.02元/秒,具体计算逻辑,参考下表。
图片尺寸 单图定价
768x768、576x1024、1024x576 3秒/张 * ¥0.02元/秒=¥0.06元/张
768x1024、1024x768、1024x1024 4秒/张 * ¥0.02元/秒=¥0.08元/张
1536x1536、1152x2048、2048x1152 6秒/张 * ¥0.02元/秒=¥0.12元/张
1536x2048、2048x1536、2048x2048 8秒/张 * ¥0.02元/秒=¥0.16元/张

模型版本 版本描述 上下文长度 是否开源 开源协议 操作
stable-diffusion-xl-base-1.0 Stability AI 7月27日发布的版本,推理性能与图片质量较此前版本有显著提升。 1K字符 CreativeML Open RAIL++-M License API文档 精调 体验 部署

Fuyu-8B

图像理解

Fuyu-8B是由Adept AI训练的多模态图像理解模型,可以支持任意的图像分辨率,回答图形图表有关问题。模型在视觉问答和图像描述等任务上表现良好。

  • 有限制商用,当前模型仅限研究目的使用。请持续关注模型厂商主页公告
  • 长期调用免费,每个账号每天包含500次调用额度(按调用总次数统计,包括但不限于调用成功的次数)。如需扩容,请使用私有资源池发布该模型,或提交工单说明应用场景、预计月调用量,申请扩充额度。部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
fuyu-8b 初始预训练版本 8000字符 + 768 tokens CC-BY-NC-4.0 API文档 体验 部署

Gemma-2B

文本生成 英文 中文

Gemma 是 Google 开发的一系列轻量级、尖端的开源文本生成模型,采用与 Gemini 模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。

  • 无限制商用
  • 需购买资源池来发布使用,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
gemma-2b-it 该版本为20亿参数的指令微调版本。 11200字符 + 1K tokens Gemma Terms of Use API文档 部署

Gemma-7B

文本生成 英文 中文

Gemma 是 Google 开发的一系列轻量级、尖端的开源文本生成模型,采用与 Gemini 模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。

  • 无限制商用
  • 按量后付费0.004元/千tokens,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
gemma-7b-it 该版本为70亿参数的指令微调版本。 11200字符 + 1K tokens Gemma Terms of Use API文档 体验 部署

Yi-34B

文本生成 中文

Yi-34B是由零一万物开发并开源的双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现。

  • 有限制商用,如您需对外商用此模型,需单独向模型厂商(零一万物)发出商用申请 网信备案✓
  • 长期调用免费,每个账号每天包含500次调用额度(按调用总次数统计,包括但不限于调用成功的次数)。如需扩容,请使用私有资源池发布该模型,或提交工单说明应用场景、预计月调用量,申请扩充额度。部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Yi-34B-Chat 支持对话的chat版本 8000字符 + 768 tokens - API文档 评估 体验 部署
Yi-34B 初始预训练版本 8000字符 + 768 tokens Yi Series Models License Agreement API文档 评估 部署

Mixtral-8x7B

文本生成 英文 小语种 中文 支持精调

由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。

模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Mixtral-8x7B-Instruct-v0.1 该版本为支持对话的微调版本。 11200字符 + 500 tokens Apache 2.0 API文档 精调 评估 体验 部署

Mistral-7B

文本生成 英文 中文

由Mistral AI研发并开源的7B参数大语言模型,具备强大的推理性能和效果,对硬件需求更少、在各项评测基准中超越同规模模型。

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Mistral-7B-Instruct-v0.1 在预训练模型Mistral-7B-v0.1基础上的微调版本。 11200字符 + 1K tokens Apache 2.0 API文档 评估 部署

Meta-Llama-3-8B

文本生成 英文

Meta AI于2024年4月18日发布的Meta Llama 3系列8B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。

模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Meta-Llama-3-8B-Instruct Meta-Llama-3-8B-Instruct是8B参数的指令微调版本,适用于对话场景,在常见行业基准上优于许多可用的开源聊天模型。 7K tokens + 1K tokens META LLAMA 3 COMMUNITY LICENSE AGREEMENT API文档 精调 评估 体验 部署

Meta-Llama-3.1-8B

文本生成 中文 英文 支持精调

Meta AI于2024年7月23日发布的Meta Llama 3.1系列8B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。

  • 暂不支持调用预置服务,精调费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Meta-Llama-3.1-8B-Instruct Meta-Llama-3.1-8B-Instruct是8B参数的指令微调版本,适用于对话场景,在常见行业基准上优于许多可用的开源聊天模型。 7K tokens + 1K tokens META LLAMA 3.1 COMMUNITY LICENSE AGREEMENT 精调

Meta-Llama-3-70B

文本生成 英文

Meta AI于2024年4月18日发布的Meta Llama 3系列70B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。

模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Meta-Llama-3-70B-Instruct Meta-Llama-3-70B-Instruct是70B参数的指令微调版本,适用于对话场景,在理解语言细节、上下文和执行复杂任务上表现更佳。 7K tokens + 1K tokens META LLAMA 3 COMMUNITY LICENSE AGREEMENT API文档 评估 体验 部署

Qianfan-Chinese-Llama-2-1.3B

文本生成 中文 支持精调

Qianfan-Chinese-Llama-2-1.3B是由千帆ModelBuilder团队基于Llama2架构开发的13亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语,上下文窗口长度为4K。推理效果整体优于同参数量级开源模型。

模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Qianfan-Chinese-Llama-2-1.3B 千帆ModelBuilder团队2024年首次发布的版本 8K tokens + 1K tokens Meta license(基础模型) API文档 精调 评估 部署

Qianfan Agent

文本生成 中文 4K-16K

千帆自研Agent专用版模型,针对企业级大模型应用进行了专门的指令调优,在问答场景、智能体相关场景可以获得同等规模模型下更好的效果。具体费用请参考计费文档。

模型版本 版本描述 上下文长度 是否开源 操作
Qianfan-Agent-Speed-8K 2024年11月21日发布的版本,支持8K上下文长度。 7k tokens+1k tokens API文档 体验
Qianfan-Agent-Speed-32K 2024年1月2号发布的版本,支持32K上下文长度。 28K tokens + 4K tokens API文档 体验
Qianfan-Agent-Lite-8K 2024年11月21日发布的版本,支持8K上下文长度。 7k tokens+1k tokens API文档 体验

Llama-2-7B

文本生成 英文 中文 支持精调 千帆中文增强

由Meta AI研发并开源的7B参数大语言模型,在编码、推理及知识应用等场景表现优秀。

  • 宽松限制商用,APP在7亿月活以下可无限制商用
  • 按量后付费0.004元/千tokens,部分版本评估费用可查看计费明细,精调费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Qianfan-Chinese-Llama-2-7B-32K 千帆ModelBuilder团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文 32500字符 + 1K tokens Meta license(基础模型) API文档 精调 评估 部署
Qianfan-Chinese-Llama-2-7B 千帆ModelBuilder团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异 8000字符 + 1K tokens Meta license(基础模型) API文档 精调 评估 体验 部署
Linly-Chinese-LLaMA-2-7B 由深圳大学CV研究所Linly项目进行中文增强训练的7b参数版本。 8000字符 + 1K tokens Apache 2.0 API文档 评估 部署
Llama-2-7b-chat Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。 8000字符 + 1K tokens Meta license API文档 评估 体验 部署

Llama-2-13B

文本生成 英文 中文 支持精调 千帆中文增强

由Meta AI研发并开源的13B参数大语言模型,在编码、推理及知识应用等场景表现优秀。

  • 宽松限制商用,APP在7亿月活以下可无限制商用
  • 按量后付费0.006元/千tokens,部分版本评估费用可查看计费明细,精调费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Qianfan-Chinese-Llama-2-13B-v2 千帆ModelBuilder团队基于Llama2架构开发的130亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语,上下文窗口长度为4K。推理效果整体优于同参数量级开源模型。 8000字符 + 1K tokens Meta license(基础模型) API文档 精调 评估 部署
Qianfan-Chinese-Llama-2-13B-v1 千帆ModelBuilder团队在Llama-2-13b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异 8000字符 + 1K tokens Meta license(基础模型) API文档 精调 评估 体验 部署
Linly-Chinese-LLaMA-2-13B 由深圳大学CV研究所Linly项目进行中文增强训练的13b参数版本。 8000字符 + 1K tokens Apache 2.0 API文档 评估 部署
Llama-2-13b-chat Llama-2-13b-chat是性能与效果均衡的原生开源版本,适用于对话场景。 8000字符 + 1K tokens Meta license API文档 评估 体验 部署

Llama-2-70B

文本生成 英文 中文 千帆中文增强

由Meta AI研发并开源的70B参数大语言模型,在编码、推理及知识应用等场景表现优秀。

  • 宽松限制商用,APP在7亿月活以下可无限制商用
  • 按量后付费0.035元/千tokens,部分版本评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Qianfan-Chinese-Llama-2-70B 千帆ModelBuilder团队在Llama-2-70b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异 28K tokens + 4K tokens Meta license(基础模型) API文档 评估 体验 部署
Qianfan-Llama-2-70B-compressed Qianfan-Llama-2-70B-compressed是千帆ModelBuilder团队在Llama-2-70B基础上的压缩版本,融合量化、稀疏化、算子优化等压缩加速技术,大幅降低模型推理资源占用。 8000字符 + 1K tokens Meta license(基础模型) API文档 评估 部署
Llama-2-70b-chat Llama-2-70b-chat是高精度效果的原生开源版本。 8000字符 + 500 tokens Meta license API文档 评估 体验 部署

ChatGLM3-6B

文本生成 中文

智谱AI与清华KEG实验室发布的中英双语对话模型,相比前两代,具备更强大的基础模型,同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。

  • 有限制商用,如您需对外商用此模型,需单独向模型厂商(智谱AI)发出商用申请:service@zhipuai.cn 网信备案✓
  • 需购买资源池来发布使用,部分版本评估费用可查看计费明细,精调费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
chatglm3-6b-32k 在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 32500字符 + 1K tokens Apache 2.0 API文档 评估 部署
chatglm3-6b 初始版本。 8000字符 + 1K tokens Apache 2.0Model License API文档 精调 评估 部署

ChatGLM2-6B

文本生成 中文 支持精调

智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。

  • 有限制商用,如您需对外商用此模型,需单独向模型厂商(智谱AI)发出商用申请:service@zhipuai.cn 网信备案✓
  • 按量后付费0.004元/千tokens,部分版本评估费用可查看计费明细,精调费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
chatglm2-6b-32k 在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 32500字符 + 1K tokens Apache 2.0Model License API文档 精调 评估 体验 部署
chatglm2-6b-int4 在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。 8000字符 + 1K tokens Apache 2.0Model License API文档 评估 部署
chatglm2-6b 初始预训练版本。 8000字符 + 1K tokens Apache 2.0Model License API文档 精调 评估 部署

Baichuan2-7B

文本生成 中文 支持精调

Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。

  • 有限制商用,如您需对外商用此模型,需单独向模型厂商(百川智能)发出商用申请: opensource@baichuan-inc.com 网信备案✓
  • 需购买资源池来发布使用,评估费用可查看计费明细,精调费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Baichuan2-7B-Chat 该版本为70亿参数规模的Chat版本。 8000字符 + 1K tokens Apache 2.0Community License for Baichuan2 Model API文档 精调 评估 部署

Baichuan2-13B

文本生成 中文 支持精调

Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。

  • 有限制商用,如您需对外商用此模型,需单独向模型厂商(百川智能)发出商用申请: opensource@baichuan-inc.com 网信备案✓
  • 需购买资源池来发布使用,评估费用可查看计费明细,精调费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Baichuan2-13B-Chat 该版本为130亿参数规模的Chat版本。 8000字符 + 1K tokens Apache 2.0Community License for Baichuan2 Model API文档 精调 评估 部署

XVERSE-13B

文本生成 中文

由深圳元象科技自主研发的支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。

  • 有限制商用,如您需对外商用此模型,需单独向模型厂商(元象)发出商用申请: opensource@xverse.cn
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
XVERSE-13B-Chat 该版本为130亿参数规模的Chat版本。 8000字符 + 1K tokens Apache 2.0Model License Agreement API文档 评估 部署

Aquila-7B

文本生成 中文

由智源研究院研发的中英双语语言模型,继承了GPT-3和LLaMA的架构优点,基于中英文高质量语料训练,实现了高效训练,获得了比其他开源模型更优的性能,并符合国内数据合规需要。

  • 宽松限制商用,您在对外分发和使用该模型时,需请按照模型协议要求说明模型来源、并提供模型协议副本
  • 按量后付费0.004元/千tokens,部分版本评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
AquilaChat-7B 基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。 8000字符 + 1K tokens Apache 2.0BAAI Aquila Model License Agreement API文档 评估 体验 部署
AquilaCode-multi 基于Aquila-7B训练的代码生成模型,使用经过高质量过滤且有合规开源许可的代码数据进行训练,数据量约为其他开源代码生成模型的10~40%。 8000字符 + 1K tokens Apache 2.0BAAI Aquila Model License Agreement API文档 部署

SQLCoder-7B

文本生成 英文 中文 支持精调

由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。

  • 宽松限制商用,您在对外分发和使用该模型时,需请按照模型协议要求对原作者进行署名、说明修改情况(若有)、随附Apache 2.0协议副本。若对模型权重进行了修改,则也需以CC BY-SA协议开源修改后的权重。
  • 按量后付费0.004元/千tokens,部分版本精调费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
sqlcoder-7b 由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。 8000字符 + 1K tokens Apache 2.0CC-BY-SA-4.0 API文档 精调 体验 部署

CodeLlama-7B

文本生成 英文 支持精调

Code Llama是由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。该模型参数规模为70亿。

  • 宽松限制商用,APP在7亿月活以下可无限制商用
  • 按量后付费0.004元/千tokens,部分版本精调费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
CodeLlama-7b-Instruct Code Llama是由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。该模型参数规模为70亿。 8000字符 + 1K tokens Meta license API文档 精调 体验 部署

StarCoder

文本生成 英文

由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。

  • 宽松限制商用,您在对外分发和使用该模型时,需请按照模型协议要求对原作者进行署名、说明修改情况(若有)、随附Apache 2.0协议副本。
  • 需购买资源池来发布使用,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
starcoder 由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。 8000字符 + 768 tokens OpenRAIL-M licenseApache 2.0 API文档 部署

XuanYuan-70B

行业大模型 英文 中文

由度小满开发,基于Llama2-70B模型进行中文增强的金融行业大模型,通用能力显著提升,在CMMLU/CEVAL等各项榜单中排名前列;金融域任务超越领先通用模型,支持金融知识问答、金融计算、金融分析等各项任务。

  • 宽松限制商用,APP在7亿月活以下可无限制商用
  • 按量后付费0.035元/千tokens,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
XuanYuan-70B-Chat-4bit XuanYuan-70B-Chat-4bit为4bit量化后的chat版本,显存占用显著降低。 11200字符 + 1K tokens Meta license(基础模型) API文档 评估 体验 部署

DISC-MedLLM

行业大模型 中文

DISC-MedLLM是一个专门针对医疗健康对话式场景而设计的医疗领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC)开发并开源。

  • 有限制商用,如您需对外商用此模型,需单独向模型厂商(百川智能)发出商用申请: opensource@baichuan-inc.com
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
DISC-MedLLM DISC-MedLLM是一个专门针对医疗健康对话式场景而设计的医疗领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC)开发并开源。 8000字符 + 768 tokens Apache 2.0 API文档 评估 部署

ChatLaw

行业大模型 中文

由壹万卷公司与北大深研院研发的法律行业大模型,在开源版本基础上进行了进一步架构升级,融入了法律意图识别、法律关键词提取、CoT推理增强等模块,实现了效果提升,以满足法律问答、法条检索等应用需求。

  • 无限制商用
  • 按量后付费0.008元/千tokens
模型版本 版本描述 上下文长度 是否开源 操作
ChatLaw-v2 ChatLaw闭源可商用模型,可应用于法律问答、法条检索等场景。 8000字符 + 768 tokens API文档 体验

BLOOMZ-7B

文本生成 中文 英文 小语种 支持精调

业内知名的大语言模型,由BigScience研发并开源,能够以46种语言和13种编程语言输出文本。

模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Qianfan-BLOOMZ-7B-compressed 千帆ModelBuilder团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上 8000字符 + 1K tokens BigScience RAIL License v1.0(基础模型) API文档 评估 体验 部署
BLOOMZ-7B 业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。 8000字符 + 1K tokens BigScience RAIL License v1.0 API文档 精调 评估 体验 部署

RWKV-7B

文本生成 英文 小语种 中文

由香港大学物理系校友彭博研发并开源的7B参数模型,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
rwkv-4-world 模型在100多种语言上进行训练,具备优秀的英语零样本与上下文学习能力。 8000字符 + 1K tokens Apache 2.0 API文档 评估 部署

RWKV-14B

文本生成 英文 中文 小语种

由香港大学物理系校友彭博研发并开源的14B参数模型,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
rwkv-4-pile-14b 在 Pile 数据集上训练的 L40-D5120 因果语言模型。 8000字符 + 768 tokens Apache 2.0 API文档 评估 部署
rwkv-raven-14b RWKV架构的Chat版本,在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调。 8000字符 + 768 tokens Apache 2.0 API文档 评估 部署

Falcon-7B

文本生成 英文 小语种

由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
falcon-7b-v5-fp16 由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。 8000字符 + 1K tokens Apache 2.0 API文档 评估 部署

Falcon-40B

文本生成 英文

由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
falcon-40b-instruct 由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。 8000字符 + 360 tokens Apache 2.0 API文档 评估 部署

OpenLLaMA-7B

文本生成 英文 小语种

在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
openllama-7b-v5-fp16 在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。 8000字符 + 1K tokens Apache 2.0 API文档 评估 部署

Dolly-12B

文本生成 英文

由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
dolly-v2-12b 由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。 8000字符 + 1K tokens MIT LicenseCC-BY-SA API文档 评估 部署

MPT-7B

文本生成 英文

MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
mpt-7b-instruct MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 8000字符 + 1K tokens CC-By-SA-3.0 API文档 评估 部署

MPT-30B

文本生成 英文

MPT-30B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
mpt-30b-instruct MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 8000字符 + 360 tokens CC-By-SA-3.0 API文档 评估 部署

Cerebras-GPT-13B

文本生成 英文

由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。

  • 无限制商用
  • 需购买资源池来发布使用,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
Cerebras-GPT-13B 由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。 8000字符 + 768 tokens Apache 2.0 API文档 部署

Pythia-12B

文本生成 英文

由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
pythia-12b 由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。 8000字符 + 768 tokens Apache 2.0 API文档 评估 部署
oasst-sft-4-pythia-12b-epoch-3.5 基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在[https://open-assistant.io/]收集的人类反馈的对话数据上进行微调。 8000字符 + 768 tokens Apache 2.0 API文档 评估 部署

GPT-J-6B

文本生成 英文

EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练

  • 无限制商用
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
gpt-j-6b EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练。 8000字符 + 1K tokens Apache 2.0 API文档 评估 部署
gpt4all-j 由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。 8000字符 + 1K tokens Apache 2.0 API文档 评估 部署

GPT-NeoX-20B

文本生成 英文

由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。

  • 无限制商用
  • 需购买资源池来发布使用,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
gpt-neox-20b 由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。 8000字符 + 512 tokens Apache 2.0 API文档 部署

StableLM-Alpha-7B

文本生成 英文

Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。

  • 无限制商用,您在对外分发和使用该模型时,需请按照模型协议要求对原作者进行署名,提供协议原始链接,并向用户说明对软件的修改(若有)。
  • 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
stablelm-base-alpha-7b Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。了解更多> 8000字符 + 1K tokens CC-BY-SA-4.0 API文档 评估 部署

Embedding-V1

文本表示 中文

Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。

  • 无限制商用
  • 按量后付费0.0005元/千tokens
模型版本 版本描述 上下文长度 是否开源 操作
Embedding-V1 Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。 384 tokens/1000字符 API文档

千帆ModelBuilder为新用户提供免费试用额度,Embedding-V1为每位用户提供100万tokens的免费额度,有效期为一个月。

tao-8k

文本表示 中文

tao-8k是由Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。

  • 无限制商用
  • 按量后付费0.0005元/千tokens
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
tao-8k 初始版本 8K tokens/28000字符 Apache 2.0 API文档

千帆ModelBuilder为新用户提供免费试用额度,tao-8k为每位用户提供100万tokens的免费额度,有效期为一个月。

bce-reranker-base

文本表示 英文 小语种 中文

由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。

  • 无限制商用
  • 按量后付费0.0005元/千tokens
模型版本 版本描述 上下文长度 是否开源 开源协议 操作
bce-reranker-base_v1 初始版本 query:400 tokens/1600字符
document:1K tokens/4K字符
Apache 2.0 API文档

千帆ModelBuilder为新用户提供免费试用额度,bce-reranker-base为每位用户提供100万tokens的免费额度,有效期为一个月。

bge-large-zh

文本表示 中文

由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。

  • 无限制商用
  • 按量后付费0.0005元/千tokens
模型版本 版本描述 上下文长度 是否开源 操作
bge-large-zh 由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。 512 tokens/2000字符 API文档

千帆ModelBuilder为新用户提供免费试用额度,bge-large-zh为每位用户提供100万tokens的免费额度,有效期为一个月。

bge-large-en

文本表示 英文

由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。

  • 无限制商用
  • 按量后付费0.0005元/千tokens
模型版本 版本描述 上下文长度 是否开源 操作
bge-large-en 由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。 512 tokens/2000字符 API文档

千帆ModelBuilder为新用户提供免费试用额度,bge-large-en为每位用户提供100万tokens的免费额度,有效期为一个月。

LLaVA

图像理解 英文

LLaVA是一个基于transformer架构的自回归多模态开源大模型,通过在多模态指令上微调LLM来训练而来,有关更多信息请查看相关论文或资源

模型版本 版本描述 是否开源 开源协议 操作
LLaVA-v1.6-13B LLaVa-NeXT(也称为 LLaVa-1.6)在 LLaVa-1.5 的基础上进行了改进,提高了输入图像分辨率并在改进的视觉指令调整数据集上进行训练,以改进 OCR 和常识推理。 Apache 2.0 精调

相关链接

  • 基于文心大模型开发的应用在应用商店/微信小程序上架可参考指南
  • 关于大模型的备案信息,可点击查询,您可于此网信办列表页面下载每批次的境内深度合成服务算法备案清单
上一篇
新手指南
下一篇
文心大模型能力汇总