CS领域(AI/ML/系统/数据库)科研Agent,提供完整的研究工作流支持。使用场景:(1) 论文深度阅读与分析 - 解读论文、追踪创新来源、总结方法论;(2) Idea生成与验证 - 基于八种创新范式生成研究想法并评估新颖性;(3) 选题与研究规划 - 评估问题重要性、制定研究计划、判断研究合理性;(4) 研究严谨性检查 - 实验设计、统计显著性、可重复性;(5) 失败模式识别 - 避免常见研究陷阱;(6) 研究品味培养 - 学术直觉和判断力;(7) 实验执行 - 调用AI-research-SKILLS进行模型训练、评估、推理等实验。当用户需要进行学术研究、阅读论文、寻找研究方向、评估idea可行性、检查研究质量、执行AI实验时触发此skill。
提供端到端的CS领域科研支持,从文献阅读到idea生成,确保研究的合理性、创新性和严谨性。
研究价值 = 问题重要性 × 方法创新性 × 实验严谨性 × 表达清晰度
任何一项为零,整体价值为零。本skill覆盖所有维度。
用户请求
├── 论文阅读/分析 → references/paper-analysis.md
├── 寻找研究方向/选题 → references/meta-research.md
├── 生成研究idea → references/idea-generation.md + references/innovation-paradigms.md
├── 评估idea新颖性 → references/novelty-assessment.md
├── 检查研究严谨性 → references/research-rigor.md
├── 识别潜在问题 → references/anti-patterns.md
├── 培养研究品味 → references/research-taste.md
├── 检索相关论文 → scripts/paper_search.py
└── 执行实验验证 → references/experiment-execution.md → AI-research-SKILLS
分析论文时,提取以下关键信息:
创新范式分为核心范式(52%)和补充范式(48%):
核心范式:
| 范式 | 占比 | 核心思想 |
|---|---|---|
| 重新定义问题 | 24% | 换角度重新定义问题 |
| 跨领域借鉴 | 18% | 把A领域方法搬到B领域 |
| 换表示方式 | 10% | 改变数据表示方式 |
补充范式:
| 范式 | 占比 | 核心思想 |
|---|---|---|
| 规模突破 | 15% | Scaling到新量级 |
| 简化统一 | 10% | 用简单方法统一复杂系统 |
| 新数据/新任务 | 8% | 发现新数据源或定义新任务 |
| 理论突破 | 5% | 新的理论理解 |
| 工程创新 | 10% | 系统级优化 |
确保研究质量的关键检查点:
避免常见研究陷阱:
培养研究直觉和判断力:
采用类似OpenNovelty的四阶段流程:
使用 scripts/paper_search.py 进行论文检索:
python scripts/paper_search.py "query" --limit 10
python scripts/paper_search.py "query" --year 2023 --citations
当研究idea需要实验验证时,调用 AI-research-SKILLS 库中的专业技能。该库包含76个覆盖AI研究完整生命周期的实验技能。
实验类型与技能映射:
| 实验类型 | 调用技能 |
|---|---|
| 模型训练 | 01-model-architecture, 03-fine-tuning, 08-distributed-training |
| RLHF/对齐 | 06-post-training, 07-safety-alignment |
| 模型评估 | 11-evaluation |
| 推理优化 | 12-inference-serving, 10-optimization |
| 可解释性 | 04-mechanistic-interpretability |
| 多模态 | 18-multimodal |
| RAG系统 | 15-rag |
调用语法:
请使用 AI-research-SKILLS 中的 [类别/技能名] 来 [具体任务]
例如:
- 请使用 AI-research-SKILLS 中的 03-fine-tuning/axolotl 来配置LoRA微调
- 请使用 AI-research-SKILLS 中的 11-evaluation/lm-evaluation-harness 来评估模型
用户:帮我分析这篇论文 [论文标题/链接]
执行步骤:
1. 提取论文核心信息(问题、方法、贡献)
2. 追踪创新来源(引用了哪些关键工作)
3. 识别使用的创新范式
4. 评估实验设计的严谨性(参考research-rigor.md)
5. 检查是否存在失败模式(参考anti-patterns.md)
6. 总结论文的优缺点和潜在改进方向
用户:我想在 [领域] 做研究,帮我找一些可能的方向
执行步骤:
1. 检索该领域近3年顶会论文
2. 分析领域发展轨迹和当前热点
3. 识别未解决的问题和limitation
4. 应用八种创新范式生成候选idea
5. 用anti-patterns检查每个idea是否有问题
6. 评估每个idea的新颖性和可行性
用户:我有一个idea [描述],帮我评估一下
执行步骤:
1. 提取idea的核心贡献点
2. 检索相关工作
3. 对比分析与现有工作的差异
4. 判断新颖性(can_refute/cannot_refute/unclear)
5. 检查是否存在失败模式
6. 评估问题重要性(Hamming测试)
7. 给出改进建议
用户:帮我检查这个实验设计是否严谨
执行步骤:
1. 检查baseline公平性
2. 检查数据集代表性
3. 检查评估指标合理性
4. 检查统计显著性
5. 检查可重复性
6. 识别潜在的失败模式
7. 给出改进建议
用户:我想用LoRA微调LLaMA模型来验证我的idea
执行步骤:
1. [vibe-research] 确认实验方案的合理性
2. [AI-research-SKILLS] 调用以下技能:
- 03-fine-tuning/peft:了解LoRA配置
- 03-fine-tuning/axolotl:使用Axolotl框架
- 13-mlops/wandb:实验追踪
3. 执行实验并记录结果
4. [vibe-research] 分析结果,决定下一步
用户:我想研究如何提升LLM的推理能力
执行步骤:
1. [vibe-research] 检索相关论文,分析现有方法
2. [vibe-research] 应用创新范式生成候选idea
3. [vibe-research] 评估idea新颖性和可行性
4. [AI-research-SKILLS] 执行实验:
- 03-fine-tuning/axolotl:微调模型
- 11-evaluation/lm-evaluation-harness:评估推理能力
5. [vibe-research] 分析结果,检查研究严谨性
6. 迭代改进直到达到目标