Use when the user asks to create or edit videos end-to-end (script→video, auto-cut/jumpcut, captions/subtitles, polishing for Shorts/Reels/TikTok). Current implemented backend: local FFmpeg (probe/render/jumpcut/burn-subtitles/polish). Planned/optional backends: Remotion (motion graphics templates), VectCutAPI (CapCut/剪映 timeline editing), and video-audio-mcp (MCP tool wrapper) when available. Produces a finished video artifact (MP4 by default) from assets + copy + a design/storyboard plan.
目标:把「素材(视频/音频/图片)+ 文案 + 编排/设计方案」自动变成可发布的成片,并在最后做一轮“打磨”(节奏、转场、字幕、音量、编码)。
本 skill 不绑定单一引擎,而是按可用性选择 backend:
在当前项目目录里执行:
python C:\Users\羽裳\.codex\skills\video-studio\scripts\video_studio.py probe
它会输出 JSON,说明:
ffmpeg/ffprobe 是否可用(没有则给出安装建议)node/npm/npx 是否可用(Remotion 需要)vectcut_base_url 是否可连(可选)outputs/video-studio/tmp/outputs/video-studio/final/你可以把素材放在:
assets/video/ assets/audio/ assets/images/ assets/fonts/写一个 spec(可参考本 skill 的 references/sample_spec.json)
运行:
python C:\Users\羽裳\.codex\skills\video-studio\scripts\video_studio.py render --spec C:\path\to\spec.json
python C:\Users\羽裳\.codex\skills\video-studio\scripts\video_studio.py polish --in .\outputs\video-studio\final\video.mp4 --out .\outputs\video-studio\final\video.polished.mp4
打磨会尽量做到:
适合“口播/访谈/课程录屏”这类有明显停顿的视频:自动检测静音区间并拼接,提高节奏流畅度。
python C:\Users\羽裳\.codex\skills\video-studio\scripts\video_studio.py jumpcut --in .\assets\video\talking.mp4 --out .\outputs\video-studio\final\talking.jumpcut.mp4
常用参数:
--silence-threshold-db:静音阈值(例如 -35)--min-silence:最短静音时长(例如 0.4)--pad:保留在静音边界的 padding(避免“咬字被切掉”)如果你已经有 captions.srt(来自转录或人工),可直接烧录:
python C:\Users\羽裳\.codex\skills\video-studio\scripts\video_studio.py burn-subtitles --in .\outputs\video-studio\final\video.mp4 --srt .\assets\captions.srt --out .\outputs\video-studio\final\video.subbed.mp4
这个 skill 优先复用既有 skill,避免重复造轮子:
$imagegen(需要 OPENAI_API_KEY)$speech(需要 OPENAI_API_KEY)$transcribe(需要 OPENAI_API_KEY)典型全自动流程:
render/polish 合成出片