一、知识蒸馏的核心原理与实验目标 知识蒸馏(Knowledge Distillation)作为深度学习模型压缩的核心技术,其核心思想是通过”教师-学生”模型架构,将大型教师模型的知识迁移到轻量级学生模型中。实验目标通常聚焦于……