LLM / AI 大模型
面试准备指南
一份面向字节 / 阿里 / 腾讯 / Meta / DeepMind / OpenAI / Anthropic 的 AI 算法工程师 系统面试准备路径。覆盖基础数学到前沿论文的完整技术栈, 配合 960 篇深度解答、可运行的代码题、以及 AI 驱动的模拟面试——不是又一份过时的八股。
AI 面试到底考什么
和传统后端 / 前端面试不同,AI 算法工程师面试是多维度综合考察。 经过对 2024-2026 年上百份一线大厂面经的聚类分析,AI 面试可以归纳为四大维度:
不同段位(校招 vs 社招 P5 / P6 / P7)侧重不同,但四个维度都会被触及。 Mentra 的内容库围绕这四类构建——960 篇深度答案、真实可运行的 LeetCode 和 ML Coding 题、 AI 全流程模拟面试。
8 步从基础到前沿
这不是一张静态列表——每一步都链接到 Mentra 对应章节的深度内容,含完整公式推导、代码实现和面试考点。
- 01
- 02
- 03
Transformer 架构(必考)
Self-Attention、Multi-Head、RoPE、FlashAttention——这部分答不清楚就别想进场。
- 04
- 05
- 06
推理加速 & 部署
vLLM、SGLang、TensorRT-LLM、KV-Cache、量化——有硬件工程背景加分项。
- 07
RAG(~100 题专项)
RAG 已成独立赛道——向量数据库、Chunking、Reranker、GraphRAG、Agentic RAG。
- 08
大厂最常问的 20 题
从 §15.1 "面试高频综合题" 抽取。这些题在字节、阿里、腾讯、Meta、Google 2024-2026 年 AI 岗面试中反复出现。每题都有 Mentra 的完整解答。
- 01为什么 Transformer 要除以 √d_k?不除会发生什么?→
- 02Pre-Norm vs Post-Norm 的训练稳定性对比?→
- 03RoPE 相对 Sinusoidal、ALiBi 的优势?→
- 04MHA / MQA / GQA / MLA 如何选?→
- 05LoRA 为什么有效?秩如何决定?→
- 06推导 DPO 损失函数并说明与 PPO 的联系?→
- 07KV Cache 显存计算公式?给 LLaMA-7B @ 32k 算一遍。→
- 08INT4 量化为什么几乎无损?哪些层最敏感?→
- 09RAG 检索不准如何系统性优化(召回/排序/生成)?→
- 10幻觉根因与系统化缓解策略?→
- 11灾难性遗忘的成因与解法?→
- 12Scaling Law 对实际训练的指导意义?→
- 13MoE 负载均衡如何设计?→
- 14为什么现代 LLM 普遍是 Decoder-only?→
- 15从 0 设计一个企业级 RAG 系统(数据/索引/检索/生成/评估/监控)?→
- 16从 0 训练一个 7B 模型(数据/算力/并行/调参)?→
- 17Agent 落地的难点与工程化方案?→
- 18复现 o1 / R1 类 Reasoning 模型的完整路径?→
- 19高并发推理服务的 QPS / TTFT / 显存三角权衡?→
- 20如何评估一个新发布的开源模型(能力/安全/成本)?→
按技术方向深挖
FAQ
Q01AI 算法工程师面试一般考哪几类题?▾
Q020 基础转 AI,从哪里开始?▾
Q03准备多久能投大厂 AI 岗?▾
Q04Mentra 和牛客 / LeetCode 有什么不同?▾
Q05为什么要专门做一个 AI 面试网站?▾
Q06面试被问到最新论文怎么办?▾
Q07校招和社招准备思路有什么不同?▾
Q08我需要会写 CUDA 吗?▾
开始准备,从这里。
免费浏览所有第 1 章内容——真实的深度解答、完整的公式推导,不用注册也能看。