🎬 并行分镜引擎 · v2.0

Logic Flow Video — 人人都能当导演

3-5× 提速,分镜级可视化,单点可修复。面向教学、科普、培训的 LLM + Manim 并行生成工作流,60s 视频 5-8 分钟搞定。

50-70%时间节省
3-5×生成速度
85-90%成功率
4-8自动分镜
一张图看懂

需求 → Prompt 改写 → 分镜划分 → 并行代码生成 → 并行渲染 → FFmpeg 合并 → WebSocket 实时反馈 → 下载/单镜重试。

⚡ 速度

60s 视频 5-8 分钟

🧠 智能

Prompt 自愈 + Thinking

🔁 可修复

单分镜重跑

👀 可视

实时 WebSocket

适用场景

📐 数理教学

二次函数、牛顿定律、微积分推导,动画演示公式与图像。

🏢 企业培训

流程 SOP、产品解说、数据可视化,快产可改。

🔬 科普短视频

概念讲解、实验演示、生活化对比,分镜复用与微调。

三步上手(Web 推荐)

1) ./start_web.sh → 自动建 venv、装依赖、检查 Manim/环境变量。
2) 浏览器打开 http://localhost:8000,填需求,勾选“并行分镜”“Thinking”。
3) 盯进度:分镜卡片实时出现代码/视频;失败点“修改分镜”重试;完成后下载合并视频/代码。

命令行可选:python main.py --prompt "讲解牛顿第二定律" --target-duration 60 --use-parallel --use-thinking

并行数据流

Prompt 改写

补足上下文与教学目标,可选 Thinking,降低 Prompt 门槛。

分镜划分

4-8 镜头,自动分配标题/描述/时长/转场/镜头/视觉元素。

并行代码生成

asyncio.gather 调 LLM,带前后文衔接与缓存。

并行渲染

ThreadPoolExecutor 跑 Manim,分镜独立失败隔离。

FFmpeg 合并

安全 concat,必要时重编码重试,输出 mp4。

实时可视

WebSocket 推送 scene_code / scene_video / scene_error / success。

技术框架(自上而下)

前端 UI

原生 HTML/CSS/JS,卡片式分镜预览,响应式布局。

Web 服务

FastAPI + WebSocket(web_app.py):任务/状态/分镜资源路由。

核心并行管线

main.py:Prompt 改写 → 分镜划分 → 并行代码生成 → 并行渲染 → FFmpeg 合并。

引擎

LLM(Claude Sonnet 4/3.5 via TAL API)、Manim、FFmpeg,edge-tts 旁白可选。

存储

outputs/ 存分镜与步骤,.cache/ 存缓存代码/视频/元数据。

接口速览

POST /api/generate/start · POST /api/refine_scene · GET /api/scene/{key}/{scene_id} · WebSocket /ws/{task_id}

性能与指标

加速

3-5×(50-70% 时间节省),随 CPU 核心与分镜数线性扩展。

成功率

60-70% → 85-90%,分镜更稳定、转场更平滑。

资源

并行峰值内存 ~3-5 GB,换取显著时间收益。

开箱即用配置

依赖

Python 3.8+、Manim CE、FFmpeg。

pip: fastapi · uvicorn · websockets · pydantic · requests · edge-tts(可选)

环境变量

TAL_MLOPS_APP_ID / TAL_MLOPS_APP_KEY(可选 TAL_MLOPS_BASE_URL)。

失败恢复与可观测性

分镜级重试

单分镜失败/不满意可独立重跑,其他分镜不受影响。

合并前校验

仅使用成功分镜进行合并,确保产物稳定。

状态透明

WebSocket 实时推送 scene_code / scene_video / scene_error / success,黑盒变白盒。

未来规划

语义分镜更智能

更精细的转场模板与分镜模板库。

并行度自适应

结合资源自动调度,支持 GPU 与分布式。

多版本与配乐

智能配乐、A/B 多版本生成、更激进缓存与增量更新。