LLM·§ · Transformer 架构·32

Attention 机制深度解析

Self-Attention、Cross-Attention、Multi-Query、Group-Query、Sparse Attention——Attention 家族完整解析。

#Attention 面试#Self-Attention#MQA#GQA#Sparse Attention
§3.1

核心组件

7
§3.2

位置编码

8
§3.3

架构变体

8
§3.4

Attention 优化

9
相关主题

本主题 32 道题,第 1 章免费阅读