一、知识蒸馏的技术本质与挑战 知识蒸馏(Knowledge Distillation)作为模型压缩的核心技术,其本质是通过教师-学生模型架构实现知识迁移。传统方法多聚焦于软标签(soft target)的传递,但DeepSeek R1报告指出,……