HuggingFace模型下载、部署、调用实战
更新时间:2025-04-23
1. 模型下载
从HuggingFace获取模型
参考文档:将HuggingFace模型下载到BOS
示例模型:Qwen2.5-0.5B-Instruct
注意:请确保您有该模型的使用权限并遵守相关许可协议
2. 模型创建
操作路径
导航至:"模型管理" → "我的模型" → "创建模型"
关键配置参数
配置项 | 推荐值 | 说明 |
---|---|---|
模型类型 | 文本生成 | 根据模型实际功能选择 |
模型来源 | 对象存储BOS | 选择已上传模型的存储位置 |
Bucket | your-bucket-name | 替换为您实际的Bucket名称 |
文件夹路径 | Qwen/Qwen2.5-0.5B-Instruct | 指向模型文件所在目录 |
模型格式 | HuggingFace | 确保与下载的模型格式一致 |
输入输出模式 | 对话 | 适用于对话型模型 |
基础模型版本 | 其他 | 自定义模型选择此项 |
推理引擎及版本 | vLLM (>0.8.3) | 推荐使用vLLM高性能推理引擎 |
采样策略 | 多样式采样/贪心采样 | 根据需求选择(多样式生成结果更多样,贪心采样更稳定) |
Prompt拼接规范 | 自动拼接 | 系统自动处理对话历史 |
创建完成状态
3. 服务部署
创建服务
导航至:"模型服务" → "我的服务" → "创建服务"
重要参数说明:
-
API地址
:自动生成8位随机码_自定义后缀
格式(如a9b9vg06_qwen_demo
)- 该地址将作为API调用的
model
参数
- 该地址将作为API调用的
部署流程
- 选择目标模型
- 配置计算资源(根据模型大小选择合适规格)
- 启动部署
部署完成验证
4. 模型测试
4.1 控制台体验
- 访问体验中心
- 选择已部署的模型(如
qwen_demo
) - 输入测试Prompt进行验证
4.2 API调用
参考:文本生成API文档
请求示例
curl --location 'https://qianfan.gz.baidubce.com/v2/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer your-api-key' \
--data '{
"model": "a9b9vg06_qwen_demo",
"messages": [
{"role": "system", "content": "你是一个有帮助的助手"},
{"role": "user", "content": "写一首七言绝句"}
],
"temperature": 0.7,
"stream": false
}'
响应示例
{
"id": "as-me95pc754k",
"object": "chat.completion",
"created": 1745402102,
"model": "a9b9vg06_qwen_demo:amv-7vw125yqvsrs",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "秋风吹叶满长安,\n夜雨敲窗梦不成。\n独坐小楼思往事,\n月明如水照孤城。"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 12,
"completion_tokens": 28,
"total_tokens": 40
}
}