一、MoE架构:从理论到300B参数的规模化落地 混合专家模型(Mixture of Experts, MoE)并非新概念,但其规模化应用始终面临两大挑战:专家间负载均衡与动态路由效率。ERNIE 4.5的300B参数模型通过三项关键设计解决……