将面试题按考察维度分类,拆分后加入 learn-agent-interview 已有维度文章。当用户发来一组新面试题(如"新的面试问题"、"XX公司面试"、"分门别类整理"、"加入这些问题")时触发。不新建独立面经文章,而是分发到已有维度文档中。
将新面试题按考察维度分类,拆分后加入 learn-agent-interview 的已有维度文章。不新建独立面经实录文章。
| 编号 | 维度 | 目录 | 典型考察内容 |
|---|---|---|---|
| 01 | 架构选型 | 01-architecture-design/ | ReAct/Plan-Execute/ToT、Agent 组成、设计范式、规划器 |
| 02 | 工具管理 | 02-tool-management/ | 参数校验、工具路由、多工具调度、Mock 生成 |
| 03 | 容错与鲁棒性 | 03-fault-tolerance/ | 超时处理、误操作防范、幻觉治理、失败恢复 |
| 04 | 记忆与上下文 | 04-memory-context/ | 长对话、模糊需求、上下文污染、长短期记忆、to-do list |
| 05 | 评估与全局观 | 05-eval-and-vision/ | 量化评估、落地挑战、AI 工具价值/边界、行业认知 |
| 06 | 多智能体协作 | 06-multi-agent-collab/ |
| 角色分工、通信机制、冲突仲裁、记忆共享 |
| 07 | 工程化踩坑 | 07-engineering-pitfalls/ | 死循环、状态丢失、成本控制、AI Coding 实践、工具使用 |
| 08 | Prompt 工程 | 08-prompt-engineering/ | 模板构建、Skills 机制、好/差 Prompt 区别、框架创新 |
| 09 | RAG 与检索 | 09-rag-retrieval/ | chunk 设计、查询改写、召回精排、Embedding/ReRank 微调 |
| 10 | 训练与模型 | 10-training-and-data/ | 数据清洗、LoRA、PPO/DPO/GRPO、位置编码、归一化、量化部署、多模态 |
| 11 | AI 代码测试 | 11-ai-code-testing/ | 覆盖率插桩、前置分析、代码过滤 |
收到面试题后,逐题判断属于哪个维度:
输出分类结果表格供用户确认(如果题量大可直接执行)。
对每篇目标文章,先读取现有内容:
每道题用标准格式:
## Q:{面试题(通用化后的表述)}
> 来源:{公司/岗位}
**新手答**:"{浅层回答}"
**高手答**:
{深度回答,分层递进,带具体方案}
**差距在哪**:{分析差距,点出面试官考什么}
善用 Mermaid 流程图:当答案涉及多阶段流程、对比关系或架构拆分时,优先用 ```mermaid 流程图替代纯文本 ASCII 图。项目前端已支持 Mermaid 渲染,流程图比文字列表更直观。适合使用的场景:
不需要每道题都加图,只在图比文字更清晰时使用。
插入完成后,对所有修改过的文件运行:
python3 .claude/skills/chinese-quotes-fix/fix_quotes.py "learn-agent-interview/{目标目录}/index.md"
输出分发结果表格:
| 题目 | 分发到 |
|---|---|
| Q1: ... | 05-eval-and-vision (新增) |
| Q2: ... | 10-training-and-data (增强已有) |