蒸馏损失权重:模型压缩中的关键调优参数 在深度学习模型压缩领域,知识蒸馏(Knowledge Distillation)作为一种高效的模型轻量化技术,通过将大型教师模型的知识迁移到小型学生模型中,实现模型性能与计算资源的……