仅作为记录,大佬请跳过。
仅需减小batchsize
展示:
即可运行。
注
博主的这个程序减小batchsize就行了,可能不同的博友们的程序不一样,也有的大佬博主使用不计算梯度或释放内存的方式
不计算梯度
释放内存
不计算梯度——传送门
with torch.no_grad()
释放内存——传送门
if hasattr(torch.cuda, 'empty_cache'): torch.cuda.empty_cache()