Self-Attention(自己注意機構) 入力シーケンス内の要素間の関係性を動的に重み付けして学習する革新的メカニズム。Transformerの中核技術として、長距離依存関係の効果的な学習を実現 #人工知能 #AI基礎 #Self-Attention #自己注意機構 #Transformer 詳しく見る