Transformer架构革新:自修正注意力机制的前沿探索 一、传统注意力机制的”结构性缺陷” Transformer架构自2017年提出以来,其核心的注意力机制通过计算查询(Q)、键(K)、值(V)三者的点积相似度,实现了对序列中长距……