一、PyTorch显存管理机制基础 PyTorch的显存管理采用动态分配策略,其核心架构包含两级内存池: CUDA缓存分配器:作为底层接口,通过cudaMalloc和cudaFree与NVIDIA驱动交互。该层维护一个空闲块链表,按块大小排……