Slim生成的模型不能被score.py读取?
davidiwu 发布于2019-08-10 09:21 浏览:989 回复:5
0
收藏
最后编辑于2020-01-19

用paddleslim生产的int8模型文件有2个二进制文件: model, weights 

但是score.py读取infer model是这样的:[infer_program, feeded_var_names, target_var] = fluid.io.load_inference_model(dirname=model_dir, executor=exe)

也就是它要求模型的文件名是 __model__, 参数文件不能放在一个文件里,这2点int8模型都不满足。

是我理解有问题还是score文件需要改下以支持paddleslim的压缩模型啊?或者哪里可以配置int8模型文件的生成方式?

收藏
点赞
0
个赞
共5条回复 最后由luckyToMe2回复于2020-01-19 14:13
#6luckyToMe2回复于2020-01-19 14:13:10

看看

0
#5xianlu199回复于2019-09-08 10:41:18

fluid.io.load_inference_model(dirname=path, executor=exe,model_filename="model",params_filename="weights")

这样就能加载了

0
#4xianlu199回复于2019-09-08 09:54:10

同问

0
#3davidiwu回复于2019-08-19 11:07:51

这个问题我琢磨下来结果是这样的:

  • 经过slim生成的模型中,int8模型好像现在还不能paddle读取,倒是float模型可以读取
  • 提交float模型也不能被score.py读取,原因还是上面说的文件名和生成方式和score要求的不一致
  • 在score没有改之前,看来不能用Compressor来压缩模型了,需要用它的底层来实现自己定义模型文件的生成方式
  • 另外自己模型的map结果0.20不到,在经过slim后又降低了0.02。在模型自己的精度不高之前,用slim来压缩模型感觉没什么意义啊
0
#2wangwei8638回复于2019-08-15 07:43:38

同问

0
TOP
切换版块