一、知识蒸馏技术背景与核心价值 知识蒸馏(Knowledge Distillation)作为模型压缩的核心技术,通过构建”教师-学生”模型架构,将大型模型(教师)的泛化能力迁移至小型模型(学生)。其核心价值体现在三方面: 计……