会议纪要与会议播报生成技能。用于处理会议录音或转写文本,执行发言人区分、口语降噪、议题重构、双钻结构整理,并输出执行摘要、核心决议、Markdown待办表格、TTS播报稿和会议思维导图(HTML/SVG/XMind)。支持双向语音能力:录音转文本(ASR)与文本转录音(TTS)。用户提到“会议纪要”“录音转文字”“文字转语音”“action items”“会后总结”“决议整理”“语音简报/会议播客”“思维导图/脑图”时使用。
按以下流程处理输入,不要跳步。
默认自动执行,不要求用户手动输入命令行参数。
默认使用“被动触发交互”入口:若用户未给出明确会议内容,先提问:
有什么会议纪要需要我帮你整理?可以直接发录音或文字。
对外回复风格强约束(必须执行):
~/clawdhome_shared/public/<skill-slug>-data/(例如 ~/clawdhome_shared/public/meeting-notes-skill-data/)。public 不可写,再回退到 ~/clawdhome_shared/vault/<skill-slug>-data/。public 和 vault 都不可写,才允许回退到用户提供路径或 workspace/<skill-slug>-data/。output_dir=... 便于核对真实落盘位置。~/clawdhome_shared/public/ 根目录(quick_* 字段)。跨模型通用执行协议(强制):
执行摘要 + 核心决议 + Action Items表格 + 风险提示 + 导图结果 + 语音结果。mermaid mindmap 作为思维导图兜底首次交互强提醒(跨模型兼容,必须执行):
say(可直接用)edge-tts / openai-whisper / ffmpegbash scripts/doctor.sh --strictffmpeg,优先提示一键引导:bash scripts/bootstrap_macos.sh环境状态:已就绪项 / 缺失项安装命令:可直接复制执行的命令(按当前系统)首次使用前先运行环境自检:
bash scripts/doctor.sh --strict--auto-install(底层调用 scripts/bootstrap_macos.sh)。timestamp_starttimestamp_endspeaker_id (如 S1, S2)text_rawspeaker_id: Unknown,并在风险提示中说明。text_raw 执行去口语化处理:移除“嗯、啊、那个”等语气词及明显离题寒暄。严格使用 references/output-template.md 的版式。
Action Items 必须是 Markdown 表格,并包含:
Action Item,必须在“风险提示”中单列提醒。待指定待确认DRAFT_PENDING 并提示补全。html/svg/xmind(禁用 png/jpg/pdf 路径)。python3 scripts/generate_meeting_mindmap.py --minutes <minutes-file> --topic <meeting-topic> --formats html,xmindmermaid mindmap 文本,禁止省略导图结果。[停顿1s]、[加重]、[放慢])。
2.1 朗读前必须清洗文本:去除 Markdown、URL、表格分隔符、控制标记和特殊符号,避免把符号读出来。
2.2 必须额外生成独立口播稿文件(<prefix>.spoken.txt),TTS 只读取口播稿,不可直接朗读会议文档。
2.3 口播稿结构固定为:开场一句 -> 核心决议(最多3条)-> 待办(最多3条,含负责人和截止)-> 风险(最多2条)-> 收束一句。<prefix>.mp3(基于 .spoken.txt)<prefix>.full.mp3(基于 .full.txt)
5.3 音频格式强制为 mp3;若只能生成 m4a,必须转码为 mp3 后再交付。
5.4 原文全文音频必须“逐字朗读”:.full.txt 必须与用户输入文本一致,不允许清洗、改写、摘要或重排。mp3(若中间产物为 m4a,必须转码后交付)1-3 分钟<会议主题>-<YYYYMMDD-HHMMSS>.<ext>scripts/generate_tts_brief.sh 生成语音文件。scripts/audio_bridge.py:
provider=auto,优先已安装识别引擎(local whisper),再回退云端/系统内置。zh-CN-XiaoxiaoNeural,默认风格:warm。--provider auto。python3 -m pip install edge-ttsOPENAI_API_KEY。OPENAI_ASR_MODEL (默认 gpt-4o-mini-transcribe)OPENAI_TTS_MODEL (默认 gpt-4o-mini-tts)edge + zh-CN-XiaoxiaoNeural + warmMEETING_TTS_EDGE_VOICE=<voice-name><会议主题>-<YYYYMMDD-HHMMSS>.txt<会议主题>-<YYYYMMDD-HHMMSS>.m4a|mp3状态: SUCCESS 或 PARTIAL_SUCCESS(必须明确)依赖检查: 已安装 / 缺失列表会议纪要: 按模板完整输出思维导图: 输出 mermaid mindmap 代码块语音结果: 输出“未生成原因 + 安装命令 + 重试命令”python3 scripts/generate_meeting_bundle.py --input <minutes-text-file> --topic <meeting-topic>txt + spoken.txt + audio.mp3 + audio_full.mp3 + mindmap.html + mindmap.xmind。bash scripts/generate_tts_brief.sh <brief-text-file> <meeting-topic>audio_bridge.py 的 edge 神经语音链路(不再走本地 Tingting 默认路径)。bash scripts/generate_tts_brief.sh test-output/meeting-brief.txt 产品周会 test-outputpython3 scripts/audio_bridge.py tts --input <brief-text-file> --topic <meeting-topic>python3 scripts/audio_bridge.py asr --input <audio-file> --topic <meeting-topic> --provider auto --language zh--auto-installscripts/builtin_asr.swiftprovider=auto 默认路由:local -> openai -> builtin(优先安装引擎,不默认先走系统内置)。m4a/mp3/aac/mp4 压缩音频,内置 ASR 强制先走 ffmpeg 转码为 wav;缺少 ffmpeg 时直接提示安装(brew install ffmpeg)。bash scripts/bootstrap_macos.sh(自动检测并安装 ffmpeg)。edgezh-CN-XiaoxiaoNeuralexport MEETING_TTS_EDGE_VOICE=zh-CN-XiaoxiaoNeuralaudio_bridge.py tts 成功后自动执行后处理。bash scripts/postprocess_audio.sh <input-audio> [output-audio]low_confidence_segments,用于人工复核。python3 scripts/validate_action_items.py <minutes.md>python3 scripts/generate_meeting_mindmap.py --minutes <minutes-file> --topic <meeting-topic> --formats html,xmind.mindmap.json + .html + .xmind。输出前逐条检查 references/quality-gate-checklist.md。 若未通过,不要直接提交最终纪要,先补齐缺失字段或标记“待补信息”。
待指定,并在备注要求会后确认。待确认,并在风险提示说明“时效不可追踪”。