今天我已经把batch_size设成1了,还是报这个错。有没有同学跨过这道坎啊?请指教。
目前正在用修电脑的方法拆程序-----“只保留cpu,内存和显卡,看能不能点亮机器”
收藏
点赞
0
个赞
请登录后评论
TOP
切换版块
是不需要 但是读入的数据量太大,你就得考虑了
他都读不进来
如果gpu没问题的话我猜测可能是共享内存shm限制了你的训练,docker提供的共享内存只有64M,具体原理我不太明白(捂脸)
非常感谢。这个是训练脚本运行时,实时的查看的吧。我试试。
你试着运行时在终端输入“nvidia-smi”检查一下gpu运行情况
python这种高级脚本语言应该不用自己管理内存呀。把model作为参数传递需要考虑深浅拷贝占用内存的问题么?
跑的只是分类模型,而且batch_size设成不同的值,随机能跑或不能跑。设的小能跑的概率就大。
python32位之前遇到过memory error
只是图像分类。模型保存不到100M
是不是模型太大了,你跑什么模型