全球人文社科顶刊研究方法扫描与汇总工具。通过 OpenAlex API 抓取社会学、政治学、 心理学、传播学、管理学、经济学、人类学、教育学、历史学、语言学、地理学、方法论专刊、 AI-社科交叉期刊、数字人文期刊等 14 大类顶刊近 24 个月(可调)论文, 用启发式规则做大规模方法打标 + AI 识别(L1 家族标签,可处理万篇级), AI 相关方法单独成章并细分 AI-as-tool 与 AI-as-object, 输出 Excel 方法矩阵(4 Sheet)+ Markdown 趋势报告(含教学转化建议)。 面向课程策划人员、研究方法课程教师、研究生方法训练设计者。 触发条件:用户提到"调研顶刊方法""扫描顶刊研究方法""人文社科方法趋势" "最新研究方法汇总""课程方法更新""AI 研究方法扫描""global top journals methods" "scan top journals for methods",或说"帮我看看最近顶刊都用什么方法"、 "查一下过去两年顶刊的 AI 方法"、"为方法论课程准备最新素材"、 "全球顶刊最新研究方法调研"。即使用户只是模糊地说"整理最新研究方法"、 "方法前沿有什么",只要上下文是学术/教学,也应触发此 skill。
面向课程策划与方法教学的顶刊方法扫描工具。默认输入:什么都不说—— 本 skill 会自动用 14 大学科分区顶刊清单 + 近 24 个月 + AI 单独成章。
第一次试跑时低估了数据规模——14 个学科分区近 24 个月的顶刊发文约 10,000 篇(AHR/Q&Q 等刊发文量大是主因)。对 10k 篇做逐篇 LLM 深度编码既不经济也不必要。因此本 skill 的实际主路径是:
heuristic_classify.py)——对全库打 L1 家族标签 + AI 识别,覆盖快generate_outputs.py)——Excel 矩阵 + Markdown 自动统计章节methods_report_analysis.md)——用启发式统计做依据,写摘要、新兴方法、AI 专章、教学模块建议LLM 深度编码只用于特定子集(如用户聚焦某学科、或对某 50 篇做教学候选精选)。
pip install openpyxl
OpenAlex API 免费、无需 key;脚本已内置重试限速。
用简明清单向用户确认(不要开放问卷式追问):
用户回"默认"就直接下一步。
向用户坦诚成本:全学科 24 个月扫约 10k 篇,抓取 5-10 分钟、启发式编码 1 分钟、统计生成 10 秒、分析写作由主 agent 完成。总耗时约 15-20 分钟。
mkdir -p /tmp/methods_scout
python3 /Users/songyiping/.claude/skills/top-journals-methods-scout/scripts/fetch_journal_papers.py \
--journals-file /Users/songyiping/.claude/skills/top-journals-methods-scout/references/journals.json \
--months 24 \
--out /tmp/methods_scout/papers.json
只要某几个学科追加 --disciplines sociology ai_social_intersection ...。
脚本已内置指数退避重试(5 次),网络抖动不会中断。单次抓取 5-10 分钟。完成后报告总数与分学科分布。
python3 /Users/songyiping/.claude/skills/top-journals-methods-scout/scripts/heuristic_classify.py \
--papers /tmp/methods_scout/papers.json \
--out /tmp/methods_scout/classifications.json
内置规则(详见 scripts/heuristic_classify.py 里的 METHOD_RULES 与 AI_OBJECT_RULES):
notes 列)编码结果典型特征:
不需要 LLM 逐篇编码。如果用户后续要求对某子集做深度编码,再调 LLM(见 §补充路径)。
python3 /Users/songyiping/.claude/skills/top-journals-methods-scout/scripts/generate_outputs.py \
--papers /tmp/methods_scout/papers.json \
--classifications /tmp/methods_scout/classifications.json \
--journals-file /Users/songyiping/.claude/skills/top-journals-methods-scout/references/journals.json \
--out-dir /tmp/methods_scout/
产物:
methods_matrix_<timestamp>.xlsx —— 4 Sheet 矩阵(methods_matrix / ai_papers / by_discipline_summary / journals_meta)methods_report_<timestamp>.md —— 自动统计骨架(含 L1 频次、学科×方法、AI 子类分布、期刊覆盖、AI 论文完整附录)Excel 可独立使用,用 Sheet 筛选就能回答大多数"哪篇用什么方法"的问题。
这一步是主 agent 核心贡献——Python 输出的是骨架,读者要的是判断。
重要:不要直接编辑 Python 生成的 MD(它是可重生的统计产物)。
而是新建一份 /tmp/methods_scout/methods_report_analysis.md,独立承载分析叙事。
用一段 Python 快速捞几个 ai_subcategory 下的高被引论文(含标题/期刊/DOI/被引/摘要开头),这些将是报告引用的"骨头"。示例:
python3 << 'EOF'
import json
from collections import defaultdict
with open('/tmp/methods_scout/papers.json') as f:
papers = {p['openalex_id']: p for p in json.load(f)['papers']}
with open('/tmp/methods_scout/classifications.json') as f:
cs = {c['openalex_id']: c for c in json.load(f)['classifications']}
groups = defaultdict(list)
for oid, c in cs.items():
if c['ai_involved'] != 'yes':
continue
p = papers[oid]
groups[(c['ai_category'], c['ai_subcategory'])].append(
(p['cited_by_count'], p['title'], p['journal'], p['doi'])
)
for k, v in sorted(groups.items()):
v.sort(reverse=True)
print(f"\n{k} — {len(v)} 篇")
for cited, t, j, d in v[:4]:
print(f" [{cited}] {j}: {t[:100]}")
print(f" {d}")
EOF
同时看方法刊高被引(tier_map[journal]=='methods' and cited>=5)——这批论文往往就是"新兴方法"的代表。
报告结构(参考 /tmp/methods_scout/methods_report_analysis.md 已有实例):
约 300-500 行 Markdown(8,000-12,000 字中文)。太短说明没真吃数据;太长说明在堆砌。
给用户一个 5-行总结:
✓ 扫描完成:N 篇论文,M 本期刊,K 个学科
✓ Excel 方法矩阵:/tmp/methods_scout/methods_matrix_*.xlsx(4 Sheet)
✓ 统计骨架:/tmp/methods_scout/methods_report_*.md
✓ 分析报告:/tmp/methods_scout/methods_report_analysis.md ← 先看这份
- AI 相关 X 篇(tool: X1 / object: X2 / hybrid: X3)
- 识别 N 个新兴方法,拟 M 个可上线教学模块
然后提供后续可选动作:
academic-work-analyzer)如果用户明确要求对某子集做深度 LLM 编码(比如"把 50 篇教学候选论文全部写 L3 操作简述"),流程:
teaching_candidate=yes,或手动挑选)classifications.json,重跑 generate_outputs.py这一步没有脚本自动化——因为需要语境判断,适合主 agent 直接读 JSON 后输出增强版 classifications。
默认清单在 references/journals.json,含 14 大学科分区约 50 本顶刊的 ISSN。
如需增减期刊,直接编辑该 JSON。新增期刊时必须包含 ISSN(含 print 和 electronic
两种,OpenAlex 用 | 连接查询)。
已覆盖的层级(tier):
top — 各学科公认顶刊methods — 方法论专刊ai_intersect — AI 与社科交叉期刊dh — 数字人文期刊review — 综述期刊cnki-advanced-search skill 做 C 刊补充heuristic_classify.py 输出后按关键词过滤 papers.json 的 abstractperiod 字段tier=methods AND cited>=5 过滤获得高信号子集