一、CUDA显存不足的底层机制 当PyTorch抛出”CUDA out of memory”错误时,本质是GPU显存资源无法满足当前计算需求。显存分配遵循”一次性分配,分块使用”原则,每个张量(Tensor)的创建都会在显存中开辟连续空间。例……