一、知识蒸馏的技术本质与核心价值 知识蒸馏(Knowledge Distillation, KD)作为模型压缩领域的核心方法,其本质是通过”教师-学生”模型架构实现知识迁移。教师模型(通常为大型预训练模型)通过软目标(soft targe……