使用yml配置训练模型注意点
鹿鼎记肯定 发布于2020-12-06 19:31 浏览:832 回复:41
1
收藏

在用PaddleOCR做微调的时候,yml文件中有个参数 pretrain_weights 他的意思跟名字一样,即需要加载模型的参数

我在~/目录下有一个文件夹,暂且叫做 dir1,这个文件夹中有

best_accuracy.pdopt   

best_accuracy.pdmodel 

best_accuracy.pdparams

三个文件,既然要加载该模型,就需要指定路径。

开始我的参数设置成 pretrain_weights: /home/aistudio/dir1 他报错

后来把参数改成 pretrain_weights: /home/aistudio/dir1/best_accuracy  就能正常训练了

 

以前在写2.0动态图的时候也遇到这种情况,特地记录一下帮助有需要的人

收藏
点赞
1
个赞
共41条回复 最后由jikk613回复于2020-12-31 19:00
#42jikk613回复于2020-12-31 19:00:32
#22 鹿鼎记肯定回复
。。。记事本还能看啊。。。

能啊,txt形式打开

0
#41189******30回复于2020-12-31 16:19:35
#40 鹿鼎记肯定回复
是的,跟paddle2.0差不多时间

看来套件更新都很快啊

0
#40鹿鼎记肯定回复于2020-12-31 14:58:04
#37 189******30回复
paddleocr升到2.0了么?

是的,跟paddle2.0差不多时间

0
#39189******30回复于2020-12-29 10:04:37

我觉得会是这样~~

0
#38189******30回复于2020-12-29 10:03:42

如果用2.0api就应该没这个问题了。2.0存储一个文件一个名字,读取也是读fullname,包括后缀

0
#37189******30回复于2020-12-29 10:02:47

paddleocr升到2.0了么?

0
#36189******30回复于2020-12-29 10:00:57
#32 JavaRoom回复
难道看上工S银行还是啥宝了?

要是能耐大,就直接用ai玩金融吧。大奖章基金不是盖的,比巴菲特还牛,人还是正牌儿数学家,陈-西蒙斯那个西蒙斯。。。

当然得先捂好裤衩~~(狗头)

0
#35189******30回复于2020-12-29 09:56:54
#32 JavaRoom回复
难道看上工S银行还是啥宝了?

这个就不止是超纲了,这个叫越线,这个不发奖杯,发饭票~~

0
#34鹿鼎记肯定回复于2020-12-28 22:11:45
#33 周小鱼whoyou回复
超纲了,反正我就记住要选best_accuracy,就对了。这位炼丹施主功德无量。
展开

佛渡有缘人

0
#33周小鱼whoyou回复于2020-12-27 22:31:14

超纲了,反正我就记住要选best_accuracy,就对了。这位炼丹施主功德无量。

0
#32JavaRoom回复于2020-12-27 21:47:15
#31 鹿鼎记肯定回复
逐渐超纲

难道看上工S银行还是啥宝了?

0
#31鹿鼎记肯定回复于2020-12-25 19:49:58
#30 JavaRoom回复
不是用OD反编译么?

逐渐超纲

0
#30JavaRoom回复于2020-12-25 09:22:25

不是用OD反编译么?

0
#29189******30回复于2020-12-24 21:16:25
#28 鹿鼎记肯定回复
哈哈哈,那真是看了个寂寞~

是真滴,反编译啥的开始真这么搞,exe文件有固定结构~

0
#28鹿鼎记肯定回复于2020-12-23 12:25:30
#25 189******30回复
生看,不惧乱码啥都能看。exe文件都能看~~

哈哈哈,那真是看了个寂寞~

0
#27鹿鼎记肯定回复于2020-12-23 12:25:10
#24 189******30回复
比如 adagrad 优化器要累加过往模型的权重算出来的累加项的,以使每个参数以不同的速度更新。通俗的说就是多少个参数就有多少个“单独的学习率”。所以存优化器的文件体量甚至和模型权重差不多。
展开

懂了,以前看过有关代码可以选择累加的权重,原来是这么回事

0
#26189******30回复于2020-12-22 19:06:19
#22 鹿鼎记肯定回复
。。。记事本还能看啊。。。

记得有用记事本开始反编译的,haha

0
#25189******30回复于2020-12-22 19:05:35
#22 鹿鼎记肯定回复
。。。记事本还能看啊。。。

生看,不惧乱码啥都能看。exe文件都能看~~

0
#24189******30回复于2020-12-19 23:11:53
#21 鹿鼎记肯定回复
所以中间变量是写啥。。太抽象了

比如 adagrad 优化器要累加过往模型的权重算出来的累加项的,以使每个参数以不同的速度更新。通俗的说就是多少个参数就有多少个“单独的学习率”。所以存优化器的文件体量甚至和模型权重差不多。

0
#23鹿鼎记肯定回复于2020-12-13 22:12:23
#19 189******30回复
确实和优化器算法有很大关系,sdg这样的存的文件要小得多

优化器大点没事,不影响推理

0
TOP
切换版块