一、Transformer架构:LLMs的基石与瓶颈 1.1 原始Transformer的核心设计 2017年提出的Transformer架构通过自注意力机制(Self-Attention)和位置编码(Positional Encoding)实现了对序列数据的并行处理,其核心组……