快速开始
欢迎百度智能云千帆平台!无论您是经验丰富的开发者,还是刚刚开始探索人工智能的世界,本指南都将帮助您快速上手并开始构建智能应用。我们的API提供了强大的自然语言处理能力,能够帮助您实现文本生成、对话交互、内容分析等多种功能。
创建API密钥
首先登录控制台-安全认证-API Key。点击创建API Key。创建的API Key可用于千帆AppBuilder、ModelBuilder、AI开放能力
一个API Key支持同时调用千帆AppBuilder、ModelBuilder、AI开放能力 三方面的能力。您可以点击页面的『添加权限』,并在『服务』里选择计划用该API Key调用的能力范围,即可实现多方向调用。
使用API Key发送请求时,在请求的Header头域中的Authorization字段,需要包含API Key的鉴权信息。
注意:填入鉴权信息时,需要在API Key前面加上Bearer
,请求示例如下:
请求头域 | 参数示例 |
---|---|
Authorization | Bearer bce-v3/ALTAK-DaI**2UEDIWx1EF/1c518f0576wee39s49109qq8ciq37 |
发送大模型对话请求
拥有API Key之后,您就可以发送第一个API请求了。您可直接使用您选择的HTTP客户端REST API,也可以使用千帆官方SDK。同时接口协议兼容OPENAI的SDK。
HTTP 请求
参考模型列表选择入参的model。
curl --location 'https://qianfan.baidubce.com/v2/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer bce-v3/ALTAK-*********/614fb**********' \
--data '{
"model": "ernie-3.5-8k",
"messages": [
{
"role": "system",
"content": "平台助手"
},
{
"role": "user",
"content": "你好"
}
]
}'
SDK请求
from openai import OpenAI
client = OpenAI(
api_key="bce-v3/ALTAK-KZke********/f1d6ee*************", # 千帆bearer token
base_url="https://qianfan.baidubce.com/v2", # 千帆域名
default_headers={"appid": "app-xxxxxx"} # 用户在千帆上的appid,非必传
)
completion = client.chat.completions.create(
model="ernie-4.0-turbo-8k", # 预置服务请查看模型列表,定制服务请填入API地址
messages=[{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': 'Hello!'}]
)
print(completion.choices[0].message)
OpenAI接口兼容
千帆ModelBuilder提供了与OpenAI兼容的使用方式,用户只需调整api_key、base_url、model等参数,就可以通过OpenAI SDK调用千帆ModelBuilder推理服务。
base_url说明
base_url指模型服务的请求地址。通过该地址,可以请求服务提供的功能或数据。当使用OpenAI兼容接口调用千帆ModelBuilder模型服务时,需要配置base_url。
- 需要配置的base_url如下:https://qianfan.baidubce.com/v2
api_key说明
上文已经介绍如何获取api_key
appid说明
支持通过自定义header方式入参appid,通过appid区分调用量和账单,具体是否用方式参考:多应用管理。
SDK支持清单
参考 开发库 文档。
后续步骤
现在您已经发出了第一个API 请求,您可以继续探索以下内容:
-
模型能力
- 文本生成:通过大模型生成连贯、自然的文本内容,适用于写作、对话、摘要等场景。
- 图像理解:利用大模型分析图像内容,实现物体识别、场景理解、图像描述等功能
- 深度思考:基于逻辑和数据进行推理分析,适用于问答、决策支持、问题求解等任务。
- 图片生成:通过大模型生成高质量图像,支持创意设计、图像修复、风格迁移等应用。
- 向量模型:将文本、图像等数据转化为高维向量,用于语义搜索、聚类、推荐系统等任务。
- 重排序模型:通过对候选结果进行二次评分和排序,优化初始排序,提升结果的相关性和准确性。
- 原生多模态:原生多模态基础大模型通过多个模态联合建模实现协同优化,具备更精进的语言能力,理解、生成、逻辑、记忆能力全面提升,同时具备更强的图像理解能力。
-
功能特性
- Function calling:函数调用能力,描述使用场景及方法
- 结构化输出:大模型按照用户指定json_schema格式返回结果。
- 联网搜索:大模型开启联网搜索能力,获取实时信息并总结返回。
- 阅读助手插件:阅读助手插件,主要支持对长文档、网页内容做摘要、分析、整理等任务。
- 对话前缀续写:对话前缀续写场景中,用户提供 assistant 开头的消息,来让模型补全其余的消息。
- 对应用管理:通过自定义应用管理调用量和拆分项账单。
- 批量推理:批量推理可以⼀次性处理⼤量数据,并对这些数据进⾏统⼀推理预测,最后将结果输出到指定位置。
- 时延优化:针对大模型时延问题,提供几个推荐原则,应用这些原则来改善大模型请求中遇到的时延问题。
- prompt cache:prompt cache通过cache缓存降低大模型首token时延,提升推理性能
- 用量统计说明:通过API接口和控制台查看模型调用量统计信息。