在 LangChain 中使用
更新时间:2025-04-18
参考文档
https://python.langchain.com/docs/integrations/chat/openai/
OpenAI兼容性说明
千帆modelbuilder上的模型接口,已经支持与openai标准兼容,因此用户使用langchain可以直接按照openai的示例方式进行使用。
llm集成示例
- 安装langchain
%pip install -qU langchain-openai
- 自定义model和base_url
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
model="deepseek-v3", # 使用千帆modelbuilder上的deepseek-v3
temperature=0,
max_tokens=None,
timeout=None,
max_retries=2,
api_key="your-api-key", # 你的api-key,在这里创建:https://console.bce.baidu.com/iam/#/iam/apikey/list
base_url="https://qianfan.baidubce.com/v2/", # 千帆modelbuilder 的base_url
# organization="...",
# other params...
)
messages = [
(
"system",
"You are a helpful assistant that translates English to French. Translate the user sentence.",
),
("human", "I love programming."),
]
ai_msg = llm.invoke(messages)
ai_msg
- 返回结果
AIMessage(content = "J'adore la programmation.", additional_kwargs = {
'refusal': None
}, response_metadata = {
'token_usage': {
'completion_tokens': 7,
'prompt_tokens': 7,
'total_tokens': 14,
'completion_tokens_details': None,
'prompt_tokens_details': None
},
'model_name': 'deepseek-v3',
'system_fingerprint': None,
'id': 'as-ff1a168pdc',
'finish_reason': 'stop',
'logprobs': None
}, id = 'run-caad7ef1-b37d-422d-9934-18a5a3939871-0', usage_metadata = {
'input_tokens': 7,
'output_tokens': 7,
'total_tokens': 14,
'input_token_details': {},
'output_token_details': {}
})
其他使用场景
上面示例已经演示在LangChain当中如何使用千帆modelbuilder上的模型,你只需要替换model和base_url,就可以使用全量openai的案例。