自蒸馏回归:模型轻量化的新范式与落地实践 在深度学习模型部署的浪潮中,模型轻量化已成为提升推理效率、降低硬件成本的核心需求。传统知识蒸馏(Knowledge Distillation, KD)通过教师-学生架构实现模型压缩,但……