AI 技术概览:从入门到面试
返回本文是 「AI 技术」专栏 的入口,帮你快速建立 AI 技术知识框架,为后续深入学习 RAG、Agent、MCP 等热门技术打基础。
为什么需要学习 AI 技术?
2023 年开始,大语言模型(LLM)的爆发彻底改变了软件开发和产品设计的方式。不论你是前端、后端、还是全栈开发者,理解 AI 技术栈已经成为必备技能:
- 提升开发效率:用 AI 辅助编码、调试、写文档
- 打造智能产品:在应用中集成对话、搜索、推荐等 AI 能力
- 应对面试考点:AI 相关技术已成为大厂面试的热门话题
AI 技术知识地图
下面这张图是整个「AI 技术」专栏会覆盖的核心内容,你可以把它当成一份 学习路线 + 自查清单:
┌─────────────────────────────────────────────────────────────┐
│ AI 技术栈全景图 │
├─────────────────────────────────────────────────────────────┤
│ │
│ ┌──────────────┐ ┌──────────────┐ ┌──────────────┐ │
│ │ 基础概念 │ │ 核心技术 │ │ 应用架构 │ │
│ ├──────────────┤ ├──────────────┤ ├──────────────┤ │
│ │ • LLM 原理 │ │ • RAG │ │ • AI Agent │ │
│ │ • Prompt 工程 │ │ • MCP 协议 │ │ • Function │ │
│ │ • Token 机制 │ │ • Embedding │ │ Calling │ │
│ │ • 上下文窗口 │ │ • 向量数据库 │ │ • 工作流编排 │ │
│ └──────────────┘ └──────────────┘ └──────────────┘ │
│ │
└─────────────────────────────────────────────────────────────┘
1. 基础概念层(2026 年)
| 概念 | 一句话解释 | 面试高频度 | 最新进展 |
|---|---|---|---|
| LLM | 大语言模型,基于 Transformer 架构,能理解和生成自然语言 | ⭐⭐⭐⭐⭐ | GPT-4.5、Claude 4、Gemini 2.5 |
| Token | 模型处理文本的最小单位,中英文计数方式不同 | ⭐⭐⭐⭐ | 价格持续下降,DeepSeek 仅$0.02/1M |
| 上下文窗口 | 模型一次能处理的 max token 数量,决定”记忆力” | ⭐⭐⭐⭐ | Gemini 2.5 达 10M Tokens |
| Prompt 工程 | 设计高质量输入提示词,让模型输出更符合预期 | ⭐⭐⭐⭐ | 结构化 Prompt 成主流 |
| Temperature | 控制输出随机性,0=确定,1=创意 | ⭐⭐⭐ | 推理模型(o1/R1)引入思考过程 |
2. 核心技术层(2026 年)
| 技术 | 解决什么问题 | 面试高频度 | 最新进展 |
|---|---|---|---|
| RAG | 让模型能访问外部知识,解决”胡说八道”问题 | ⭐⭐⭐⭐⭐ | Graph RAG、Agentic RAG 兴起 |
| Embedding | 把文本变成向量,支持语义搜索和相似度计算 | ⭐⭐⭐⭐ | bge-m3 支持 8K 长度 |
| 向量数据库 | 专门存储和检索向量数据 | ⭐⭐⭐⭐ | Milvus 2.4.x、Qdrant 1.12.x |
| MCP | 标准化 AI 应用与数据源的连接协议 | ⭐⭐⭐⭐ | 50+ Server,Cursor/Dify 集成 |
3. 应用架构层(2026 年)
| 架构 | 典型场景 | 面试高频度 | 最新进展 |
|---|---|---|---|
| AI Agent | 自主规划、调用工具、完成复杂任务 | ⭐⭐⭐⭐⭐ | 多 Agent 协作、自主研究 |
| Function Calling | 让模型能调用外部 API 和函数 | ⭐⭐⭐⭐ | OpenAI tools 标准、结构化输出 |
| 工作流编排 | 多步骤任务串联,如 LangChain、Dify | ⭐⭐⭐ | LangGraph、Dify 1.0、Flowise 2.0 |
本专栏文章导航
基础概念(必读)
| 文章 | 难度 | 适合人群 |
|---|---|---|
| LLM 大语言模型详解 | ⭐⭐ | 所有人,理解 AI 原理 |
| Token 机制详解 | ⭐ | 开发者,控制成本 |
| 上下文窗口详解 | ⭐⭐ | 所有人,选择模型 |
| Prompt 工程 | ⭐⭐ | 所有人,提升效果 |
| Temperature 参数详解 | ⭐ | 开发者,调优输出 |
核心技术
| 文章 | 难度 | 适合人群 |
|---|---|---|
| RAG 技术详解 | ⭐⭐⭐ | 后端/全栈,想构建知识库 |
| MCP 协议解析 | ⭐⭐⭐ | 架构师/技术负责人 |
应用架构
| 文章 | 难度 | 适合人群 |
|---|---|---|
| AI Agent 技术 | ⭐⭐⭐⭐ | 高级开发,想构建智能体 |
怎么用这个专栏学习?
- 第一遍:先读本文建立整体认知,了解 AI 技术栈有哪些组成部分
- 第二遍:根据工作/面试需求,选择对应的技术文章深入阅读
- 第三遍:面试前用每篇的”面试回答版本”快速复习考点
🎯 面试回答版本
面试官问:“你了解哪些 AI 相关技术?”
参考回答框架(1-2 分钟版本):
我主要从三个层面来理解 AI 技术栈:
第一是基础概念层,包括 LLM 原理、Token 机制、上下文窗口、
Prompt 工程等。这些是和大模型打交道的必备知识。
第二是核心技术层,我最熟悉的是 RAG(检索增强生成),它通过
"检索 + 生成"的方式让模型能访问外部知识,有效解决了幻觉问题。
另外也了解 Embedding 向量化和向量数据库的使用。
第三是应用架构层,主要是 AI Agent 和 Function Calling。
Agent 让模型能自主规划任务、调用工具,Function Calling 则让
模型能安全地调用外部 API。
在实际项目中,我用 [具体技术栈] 实现过 [具体功能],
解决了 [具体问题]。如果有机会,我很想深入聊聊这块。
可能的追问及应对:
| 追问 | 应对思路 |
|---|---|
| ”RAG 具体怎么实现的?“ | 引导到 RAG 详解文章,讲清楚”索引→检索→生成”三步 |
| ”你和 LangChain 用过吗?“ | 如实回答,没用过可以说”了解原理,正在学习" |
| "AI Agent 和普通对话有什么区别?“ | 强调”自主规划”和”工具调用”两个关键差异 |
| ”MCP 是什么?“ | 说是”模型上下文协议”,标准化 AI 应用与数据源的连接 |
加分项:
- 能说出具体项目经验(哪怕是小 demo)
- 能对比不同技术方案的优劣
- 能提到成本、延迟、准确性等工程考量
下一步:根据你的兴趣方向,继续阅读:
- 想构建知识库?→ RAG 技术详解
- 想了解协议标准?→ MCP 协议解析
- 想构建智能体?→ AI Agent 技术