Detect and humanize AI-generated Chinese text. 20+ detection categories, weighted 0-100 scoring with sentence-level analysis, 7 style transforms (casual/zhihu/xiaohongshu/wechat/academic/literary/weibo), sentence restructuring, context-aware replacement. Academic paper AIGC reduction for CNKI/VIP/Wanfang (知网/维普/万方 AIGC 检测降重), 10 academic detection dimensions, 120+ scholarly expression replacements, hedging language injection. Pure Python, no dependencies. v2.1.0 Use when user says: "去AI味", "降AIGC", "人性化文本", "humanize chinese", "AI检测", "AIGC降重", "去除AI痕迹", "文本改写", "论文降重", "知网检测", "维普检测", "AI写作检测", "让文字更自然", "detect AI text", "humanize text", "reduce AIGC score", "make text human-like", "去ai化", "改成人话", "去机器味", "降低AI率", "过AIGC检测"
检测和改写中文 AI 生成文本的完整工具链。可独立运行(CLI),也可作为 LLM prompt 指南使用。
所有脚本在 scripts/ 目录下,纯 Python,无依赖。
# 检测 AI 模式(20+ 维度,0-100 分)
python scripts/detect_cn.py text.txt
python scripts/detect_cn.py text.txt -v # 详细 + 最可疑句子
python scripts/detect_cn.py text.txt -s # 仅评分
python scripts/detect_cn.py text.txt -j # JSON 输出
# 改写
python scripts/humanize_cn.py text.txt -o clean.txt
python scripts/humanize_cn.py text.txt --scene social -a # 社交场景 + 激进模式
python scripts/humanize_cn.py text.txt --style xiaohongshu # 先改写再转风格
# 风格转换
python scripts/style_cn.py text.txt --style zhihu -o out.txt
# 前后对比
python scripts/compare_cn.py text.txt --scene tech -a
# 学术论文 AIGC 降重
python scripts/academic_cn.py paper.txt -o clean.txt --compare
python scripts/academic_cn.py paper.txt -o clean.txt -a --compare # 激进
| 分数 | 等级 | 含义 |
|---|---|---|
| 0-24 | LOW | 基本像人写的 |
| 25-49 |
| MEDIUM |
| 有些 AI 痕迹 |
| 50-74 | HIGH | 大概率 AI 生成 |
| 75-100 | VERY HIGH | 几乎确定是 AI |
| 参数 | 说明 |
|---|---|
-v | 详细模式,显示可疑句子 |
-s | 仅评分 |
-j | JSON 输出 |
-o | 输出文件 |
-a | 激进模式 |
--seed N | 固定随机种子 |
--scene | general / social / tech / formal / chat |
--style | casual / zhihu / xiaohongshu / wechat / academic / literary / weibo |
--compare | 前后对比 |
# 1. 检测
python scripts/detect_cn.py document.txt -v
# 2. 改写 + 对比
python scripts/compare_cn.py document.txt -a -o clean.txt
# 3. 验证
python scripts/detect_cn.py clean.txt -s
# 4. 可选:转风格
python scripts/style_cn.py clean.txt --style zhihu -o final.txt
当用户要求"去 AI 味"、"降 AIGC"、"人性化文本"、"改成人话"时,如果无法运行 CLI 工具,按以下流程手动处理。
扫描文本中的以下模式,按严重程度分类:
三段式套路:
机械连接词: 值得注意的是、综上所述、不难发现、总而言之、与此同时、由此可见、不仅如此、换句话说、更重要的是、不可否认、显而易见、不言而喻、归根结底
空洞宏大词: 赋能、闭环、数字化转型、协同增效、降本增效、深度融合、全方位、多维度、系统性、高质量发展、新质生产力
AI 高频词: 助力、彰显、凸显、底层逻辑、抓手、触达、沉淀、复盘、迭代、破圈、颠覆
填充废话: 值得一提的是、众所周知、毫无疑问、具体来说、简而言之
模板句式:
平衡论述套话: 虽然…但是…同时、既有…也有…更有
按以下顺序处理:
1. 砍掉三段式 把"首先…其次…最后"打散,用自然过渡代替。不是每个论点都要编号。
2. 替换 AI 套话
3. 句式重组
4. 减少重复用词 同一个词出现 3 次以上就换同义词。比如"进行"可以换成"做""搞""开展""着手"。
5. 注入人味
6. 段落节奏 打破每段差不多长的格局。有的段落 2 句话,有的 5 句话,像人写东西时自然的长短变化。
当文本是学术论文时,改写规则不同——不能口语化,要保持学术严谨性:
学术专用检测维度:
学术改写策略:
替换 AI 学术套话(保持学术性):
减少被动句:
注入学术犹豫语(hedging): 在过于绝对的判断前加"可能""在一定程度上""就目前而言""初步来看"
增强作者主体性:
补充局限性: 如果结论段没有提到局限,补一句"当然,本研究也存在一定局限…"
打破结构均匀度: 调整段落长度,避免每段都一样。合并过短的段落,拆分过长的。
改写完成后,用 CLI 工具验证效果:
python scripts/detect_cn.py output.txt -s
目标:通用文本降到 25 分以下,学术论文降到 30 分以下。
所有检测模式和替换规则在 scripts/patterns_cn.json,可自定义:
critical_patterns — 高权重检测(三段式、连接词、空洞词)
high_signal_patterns — 中权重检测(AI 高频词、模板句)
replacements — 替换词库(正则 + 纯文本)
academic_patterns — 学术专用检测与替换
scoring — 权重和阈值配置