引言:蒸馏学习与模型优化的新视角 蒸馏学习(Knowledge Distillation)作为深度学习领域的重要技术,通过将大型教师模型的知识迁移到轻量级学生模型,实现了模型压缩与性能提升的双重目标。然而,蒸馏过程中学生……