Transformer背景介绍及架构深度解析 一、Transformer的起源背景:从RNN/CNN的局限到自注意力机制 1.1 传统序列模型的痛点 在Transformer出现之前,自然语言处理(NLP)任务主要依赖循环神经网络(RNN)及其变体(……