一、技术架构:混合专家模型(MoE)的突破性实践 MiniMax-01系列采用混合专家模型(Mixture of Experts, MoE)架构,通过动态路由机制将输入数据分配至不同专家子网络处理。相较于传统稠密模型,MoE架构在保持参数……