一、Transformer架构:大模型的核心引擎 Transformer架构自2017年提出以来,已成为大模型的基础支撑。其核心创新点在于自注意力机制(Self-Attention),通过动态计算输入序列中各位置的关联权重,突破了传统RNN的……