.to(device)로만 올려놓고 cpu로 안바꿔 그런가 했는데
다른 코드보면 train loader에서 cpu로 안바꿔줘도 알아서 새로운 이미지를 gpu로 올려줌.
validation부분에서 dataloader를 이용한곳에서 gpu memory가 iteration 진행될떄마다 쌓여서 해결을 위해 del(net)등을 사용해봤으나 효과 없음.
시행착오 결과 with torch_no_grad()로 감싸니 해결.
혹시 Cuda Out of memory가 뜬다면 batch size나 device 말고도 torch_no_grad()도 확인해보자.