pytorch在加载模型时CUDA error: out of memory

在加载模型的时候出现了RuntimeError: CUDA error: out of memory,如图1所示,之后查到https://blog.csdn.net/weixin_43509263/article/details/103841657这里面是说这个错误代表的显存不够,但在这里我只是加载一个LeNet-5的模型,这么多显存应该完全是够的。后面发现因为之前的程序之前在另一个卡上运行,这样加载时会默认将数据加载至之前的卡,但之前的卡满了,所以报错。


图1:CUDA error
图2:显存剩余

解决方法:

如下图所示,在torch.load中加入map_location,使其将权重加载到cpu中,或者可以选择别的卡。

我也是在学习的过程中,如果有错误的话,欢迎各位指出!

你可能感兴趣的:(pytorch在加载模型时CUDA error: out of memory)