3-5× 提速,分镜级可视化,单点可修复。面向教学、科普、培训的 LLM + Manim 并行生成工作流,60s 视频 5-8 分钟搞定。
需求 → Prompt 改写 → 分镜划分 → 并行代码生成 → 并行渲染 → FFmpeg 合并 → WebSocket 实时反馈 → 下载/单镜重试。
60s 视频 5-8 分钟
Prompt 自愈 + Thinking
单分镜重跑
实时 WebSocket
二次函数、牛顿定律、微积分推导,动画演示公式与图像。
流程 SOP、产品解说、数据可视化,快产可改。
概念讲解、实验演示、生活化对比,分镜复用与微调。
命令行可选:python main.py --prompt "讲解牛顿第二定律" --target-duration 60 --use-parallel --use-thinking
补足上下文与教学目标,可选 Thinking,降低 Prompt 门槛。
4-8 镜头,自动分配标题/描述/时长/转场/镜头/视觉元素。
asyncio.gather 调 LLM,带前后文衔接与缓存。
ThreadPoolExecutor 跑 Manim,分镜独立失败隔离。
安全 concat,必要时重编码重试,输出 mp4。
WebSocket 推送 scene_code / scene_video / scene_error / success。
原生 HTML/CSS/JS,卡片式分镜预览,响应式布局。
FastAPI + WebSocket(web_app.py):任务/状态/分镜资源路由。
main.py:Prompt 改写 → 分镜划分 → 并行代码生成 → 并行渲染 → FFmpeg 合并。
LLM(Claude Sonnet 4/3.5 via TAL API)、Manim、FFmpeg,edge-tts 旁白可选。
outputs/ 存分镜与步骤,.cache/ 存缓存代码/视频/元数据。
POST /api/generate/start · POST /api/refine_scene · GET /api/scene/{key}/{scene_id} · WebSocket /ws/{task_id}
3-5×(50-70% 时间节省),随 CPU 核心与分镜数线性扩展。
60-70% → 85-90%,分镜更稳定、转场更平滑。
并行峰值内存 ~3-5 GB,换取显著时间收益。
Python 3.8+、Manim CE、FFmpeg。
pip: fastapi · uvicorn · websockets · pydantic · requests · edge-tts(可选)
TAL_MLOPS_APP_ID / TAL_MLOPS_APP_KEY(可选 TAL_MLOPS_BASE_URL)。
单分镜失败/不满意可独立重跑,其他分镜不受影响。
仅使用成功分镜进行合并,确保产物稳定。
WebSocket 实时推送 scene_code / scene_video / scene_error / success,黑盒变白盒。
更精细的转场模板与分镜模板库。
结合资源自动调度,支持 GPU 与分布式。
智能配乐、A/B 多版本生成、更激进缓存与增量更新。