DeepSeek冻结部分参数微调的显存需求深度解析 一、技术背景与核心问题 在深度学习模型微调场景中,全参数微调往往面临显存瓶颈。以DeepSeek-R1-67B模型为例,若采用全参数微调,在FP16精度下需要约134GB显存(67B……