一、技术背景:MoE架构与参数效率的突破 在人工智能模型规模持续扩张的背景下,如何平衡模型性能与计算资源消耗成为关键挑战。某开源社区近期推出的轻量级思考模型,通过混合专家(Mixture of Experts, MoE)架构……