LLM·§ · Transformer 架构·32

Transformer 架构面试全攻略

从 Self-Attention 推导到 RoPE 旋转位置编码,从 Multi-Query Attention 到 FlashAttention——Transformer 架构是所有 LLM 面试的底层考点。

#Transformer 面试#Self-Attention 推导#RoPE 位置编码#FlashAttention#Multi-Head Attention
§3.1

核心组件

7
§3.2

位置编码

8
§3.3

架构变体

8
§3.4

Attention 优化

9
相关主题

本主题 32 道题,第 1 章免费阅读