深度解析:AI大模型中Transformer与MoE架构的技术演进 一、Transformer架构:从自注意力到高效计算的基石 1.1 自注意力机制的核心突破 Transformer架构的核心创新在于自注意力机制(Self-Attention),其通过动态……