一、知识蒸馏的技术本质与演进脉络 知识蒸馏(Knowledge Distillation)作为模型压缩领域的里程碑技术,其核心思想源于2015年某研究团队提出的”教师-学生”框架。该技术通过让轻量级学生模型学习教师模型的软目标(……