一、知识蒸馏技术背景与核心价值 知识蒸馏(Knowledge Distillation)作为模型压缩的核心技术,通过将大型教师模型(Teacher Model)的泛化能力迁移至轻量级学生模型(Student Model),在保持性能的同时显著降低……