微信视频讲解(1) (推荐)
微信视频讲解(2) (推荐)
李宏毅哔哩哔哩视频讲解
RNN LSTM、Seq2Seq、Attention、Self-attention (哔哩哔哩视频1)
Self-Attention与Transformer
Vision Transformer 超详细解读 (原理分析+代码解读) (目录)
详解Transformer
transformer源代码解读