返回文章列表 Paper 2023年12月15日 Attention Is All You Need 精读笔记 论文关键结构与实验结果整理 #Attention #Transformer #NLP 主要贡献 提出多头自注意力 放弃 RNN 与 CNN 结构 Scaled Dot-Product Attention 分享这篇文章 分享 返回首页