部署自定义模型,推理时出现问题
小疯柚子 发布于2020-09 浏览:1134 回复:2
0
收藏

请问在编译程序进行推理后,为什么不显示推理结果,请问是什么原因?

模型是通过paddle-detection训练所得,并通过API进行导出,分别得到model,params这两个文件

配置时以sample中的mobilenet-ssd配置文件的基础上进行修改得到所需的配置

不显示是因为模型和权重的问题吗,还是配置时的问题

收藏
点赞
0
个赞
共2条回复 最后由小疯柚子回复于2020-10
#3用户已被禁言回复于2020-10

好的,谢谢您

0
#2昨夜困回复于2020-09

您好,本demo仅支持一个输入的检测模型,如果是yolov3模型,可以从文档中下载yolov3的示例工程进行推理。

1
TOP
切换版块