如题,一个比较难的数据集,结果训练集的精度比测试集的精度还低,是不是随机增强搞得太狠了
ok
是的
有没有可能样本差距过大
并不一定
用数据增强会这样?
我觉得还是数据分布的问题,也许测试集里面,数据分布刚好是训练比较好的那部分
这是有可能的,我遇到过
哈哈这个斜着一点就好了 不能太过分
这样啊
时间长是肯定的 那是不是只能说一般会收敛
当然还得符合逻辑,人脸识别还是不要上下颠倒~
有种说法叫模型会自己越过增强添加的噪声
需要更长时间训练,减慢收敛速度,但一般最后还是会收敛
好像也不是一定
随即增强过狠是不是也是不太好呀哥
数据增强只要不改变数据分布太厉害,都是能涨点的吧
用数据增强的话的确会降低收敛速度
过一段时间训练集就会开始过拟合了
刚开始,用数据增强的话是有这种情况
差不多的话 是没问题的 低太多应该就有问题了
ok
是的
有没有可能样本差距过大
并不一定
用数据增强会这样?
我觉得还是数据分布的问题,也许测试集里面,数据分布刚好是训练比较好的那部分
这是有可能的,我遇到过
哈哈这个斜着一点就好了 不能太过分
这样啊
时间长是肯定的 那是不是只能说一般会收敛
当然还得符合逻辑,人脸识别还是不要上下颠倒~
有种说法叫模型会自己越过增强添加的噪声
需要更长时间训练,减慢收敛速度,但一般最后还是会收敛
好像也不是一定
随即增强过狠是不是也是不太好呀哥
数据增强只要不改变数据分布太厉害,都是能涨点的吧
用数据增强的话的确会降低收敛速度
过一段时间训练集就会开始过拟合了
刚开始,用数据增强的话是有这种情况
差不多的话 是没问题的 低太多应该就有问题了