AI 技术演进

从 Transformer 到 Agent

面向 AI 工程师的技术演进全景 | 深入理解每一个技术细节

Transformer (2017) LLM (2018-2023) 对齐 (2022-) 提示工程 (2023-) RAG (2023-) Agent (2024-)
2017

Transformer 架构问世

"Attention is All You Need" 论文发布,彻底改变了 NLP 领域的发展方向。Self-attention 机制成为现代 AI 的基础。

2018-2019

BERT 和 GPT 时代

预训练语言模型的爆炸式发展。BERT、GPT-2 等模型展示了大规模预训练的强大能力。

2022-2023

LLM 规模爆炸与对齐

GPT-3、ChatGPT、Claude 等大规模模型问世。RLHF 成为关键的对齐技术,使模型能够更好地遵循人类指令。

2023-2024

提示工程、RAG 与 Agent

Prompt engineering、检索增强生成(RAG)和 AI Agent 框架迅速发展,拓展了 LLM 的应用场景和能力边界。

2024-

AI Agent 与智能系统

端到端的 AI Agent 系统成为焦点,集成了推理、规划、工具使用和反馈循环的完整能力。

核心技术路线图

⚙️
基础

Transformer

Self-Attention 机制、多头注意力、位置编码等核心概念。深入理解 Transformer 的数学原理和实现细节。

📚
核心

大语言模型

从 GPT 系列到 Claude、Llama 等。预训练、微调、扩展定律等关键概念。理解 LLM 的能力来源。

🎯
安全

对齐与RLHF

强化学习从人类反馈(RLHF)、DPO、PPO 等对齐方法。让 AI 系统能够安全地遵循人类意图。

💡
应用

提示工程

Few-shot learning、Chain-of-Thought、Prompt Injection 防护等。掌握与 LLM 有效交互的技巧。

🔍
扩展

RAG与工具

检索增强生成、向量数据库、工具调用。扩展 LLM 的知识和能力边界。

🤖
前沿

AI Agent

自主推理、规划与执行、多轮交互。构建能够独立完成复杂任务的智能系统。

🔬 专题深度解析

为 AI Engineer 面试准备的深度技术文档,包含完整数学推导与代码实现

🧠

Attention 机制演进

从 Bahdanau Attention 到 Flash Attention 3,覆盖 MHA、MQA/GQA、稀疏注意力

📏

上下文窗口演进

从 512 到 1M tokens,RoPE、YaRN、ALiBi、Ring Attention 完整技术路线

微调与分布式训练

LoRA、QLoRA、DoRA、FSDP/ZeRO、DeepSpeed、3D 并行完整指南

🚀

推理优化

KV Cache、量化 (GPTQ/AWQ)、投机解码、PagedAttention、vLLM

🎯

对齐算法数学推导

PPO、DPO、GRPO、ORPO/KTO/IPO 完整数学推导与代码实现

🤖

AI Agent 架构

ReAct、Reflexion、LATS、多智能体系统、MCP/A2A 协议详解

🎮

强化学习与 RLHF

从 MDP 到 GRPO,Policy Gradient、PPO、DPO、RLVR、推理模型训练完整技术路线

🔮

前沿技术 2025-2026

Context Engineering、Test-Time Compute、AI Coding Agents、Constrained Decoding、合成数据、模型合并、DiT、World Models

📝

AI Engineer 面试题库 — 200+ 道必考题

从 Transformer 基础到系统设计,覆盖全部 8 大主题。包含详细解答、公式推导、代码示例与面试加分点。