deeplabv3p_xception65_
KING汉武帝 发布于2020-12-19 13:56 浏览:211 回复:0
0
收藏
快速回复

问题:We don't support load_inference_model in imperative mode

在运行deeplabv3p_xception65_humanseg出现了上面的问题,请大佬出面解决一些吧,万分感谢。

收藏
点赞
0
个赞
TOP
切换版块