一、LLM技术演进:从理论到实践的跨越 1.1 Transformer架构:LLM的基石 Transformer架构由Vaswani等人于2017年提出,其核心创新在于自注意力机制(Self-Attention),彻底改变了序列建模的范式。传统RNN/LSTM模型……