一、知识蒸馏技术概述 知识蒸馏(Knowledge Distillation)是一种模型压缩技术,通过将大型教师模型(Teacher Model)的“软标签”(Soft Target)知识迁移到小型学生模型(Student Model),实现模型轻量化与性能提……