Movie — Starter Tool Stack для batch 01
Зафиксировать первый реальный tool stack проекта `movie` под `production test batch 01`, чтобы следующие шаги строились не вокруг абстрактного “надо что-то попробовать”, а вокруг конкретного набора инструментов для: - `TS-01 — Идеальная полка` - `NTE-01 — Магнитная перчатка` - `PPI-02 — Робошвабра` Этот документ нужен не для идеального “stack навсегда”, а для **первого production-ready набора**, который даст: - быстрый цикл тестов; - image-first consistency; - контроль над 2D-стилизацией; - понятный путь к `animatic / previz / first publishable short`.
Цель#
Зафиксировать первый реальный tool stack проекта movie под production test batch 01, чтобы следующие шаги строились не вокруг абстрактного “надо что-то попробовать”, а вокруг конкретного набора инструментов для:
TS-01 — Идеальная полкаNTE-01 — Магнитная перчаткаPPI-02 — Робошвабра
Этот документ нужен не для идеального “stack навсегда”, а для первого production-ready набора, который даст:
- быстрый цикл тестов;
- image-first consistency;
- контроль над 2D-стилизацией;
- понятный путь к
animatic / previz / first publishable short.
1) Ограничения текущего этапа#
Для текущего batch у нас жёсткие ограничения:
- ролики
45–75 секунд; - вертикальный формат
9:16; - минимум обязательного диалога;
- важнее consistency пары, чем “магия одной генерации”;
- важнее скорость итерации, чем киношная сложность;
- нужен не “весь пайплайн индустрии”, а первый рабочий набор.
Из этого следует главное решение:
для
movieна pilot-cycle мы идём не в direct text-to-video, а вimage-first / hybrid workflow.
То есть:
- script;
- character / prop / style frames;
- image-to-video или короткие text/image-to-video passes;
- монтаж, captions, SFX, export.
2) Рекомендуемый starter stack#
Core 1 — OpenAI gpt-image-1
Роль в пайплайне:
- character sheets;
- expression sheets;
- prop sheets;
- scene keyframes;
- локальные image edits и уточнения.
Почему берём:
- у OpenAI есть отдельный production API для image generation и image edits;
gpt-image-1подходит именно для iterative visual development, а не только для “одной красивой картинки”;- это хороший слой для building
лемур + ленивецbible и повторяемых prop-референсов.
Как используем в movie:
- делаем базовый visual pack для
PipиBrum; - отдельно делаем props для
магнитной перчатки,идеальной полки,робошвабры; - через edits держим один и тот же style direction, а не пересобираем персонажей с нуля.
Официальные источники:
Core 2 — Runway Gen-4 Turbo -> Gen-4 / Gen-4.5
Роль в пайплайне:
- primary image-to-video layer;
- короткие motion tests;
- character-consistent animation passes;
- быстрые vertical clips для Shorts.
Почему берём:
- Runway прямо рекомендует сначала тестировать идеи в
Gen-4 Turbo, а затем при необходимости переключаться наGen-4; Gen-4работает от input image, что хорошо совпадает с нашим image-first workflow;Gen-4иGen-4.5поддерживают9:16, короткие клипы и controllable motion;- у Runway есть
Referencesдля consistency иAct-Twoкак запасной слой для performance-driven анимации позже.
Как используем в movie:
- для каждого эпизода сначала делаем ключевые still frames;
- запускаем быстрые motion-итерации в
Gen-4 Turbo; - лучшие шоты пересобираем в
Gen-4илиGen-4.5; Act-Twoпока не делаем core-частью стека, но держим как Phase 2 option.
Официальные источники:
- Runway Creating with Gen-4 Video
- Runway Creating with Gen-4.5
- Runway Gen-4 References
- Runway Creating with Act-Two
Core 3 — Adobe Firefly
Роль в пайплайне:
- moodboards и boards;
- backup image/video generation;
- commercially-safer fallback;
- temp speech / soundtrack / sound effects;
- быстрая ideation-среда вокруг всего batch.
Почему берём:
- Firefly даёт
Boards, что полезно для pre-production и style alignment; - Firefly умеет
Text to VideoиImage to Video, что даёт backup к Runway; - Adobe прямо позиционирует Firefly Video Model как
commercially safeдля Adobe-модели; - внутри Firefly уже доступны partner models, включая OpenAI, Runway и другие, что снижает риск tool-sprawl.
Как используем в movie:
- собираем moodboard / visual direction под
Depot 17; - делаем backup tests на сложные шоты, если Runway уводит стиль;
- используем audio-features как временный слой для тестов, а не строим отдельный audio-stack слишком рано.
Официальные источники:
- Adobe Firefly
- Adobe Firefly Boards
- Adobe Firefly Generate Video
- Adobe Firefly Plans
- Adobe Firefly commercially safe video announcement
Core 4 — Adobe Premiere Pro
Роль в пайплайне:
- rough cut;
- pacing;
- captions;
- export;
- versioning для Shorts.
Почему берём:
- Premiere уже встроен в привычный production-class edit workflow;
- Speech to Text и captions закрывают practical layer без отдельного caption-tool;
- на этом этапе нам нужен один нормальный editor, а не зоопарк монтажных приложений.
Как используем в movie:
- собираем rough cut из коротких сгенерированных passes;
- ставим captions и правим timing;
- готовим
9:16export и safety margins; - держим одну монтажную точку истины.
Официальные источники:
3) Optional, но не core сейчас#
ElevenLabs Dubbing
Роль:
- multilingual rollout;
- dubbing;
- language expansion;
- later-stage localization.
Почему пока не core:
- текущие
pilot testsпочти безсловесные; - на первом batch нам важнее visual rhythm, чем voice infrastructure;
- дополнительная подписка сейчас даст меньше пользы, чем нормальный visual pipeline.
Когда подключать:
- когда появятся ролики с более явным narration;
- когда дойдём до multilingual distribution;
- когда будет нужен dubbing вместо просто captions.
Официальные источники:
4) Upgrade stack после first proof#
Когда batch 01 даст usable result, upgrade stack выглядит так:
OpenAI gpt-image-1остаётся visual-development coreRunway Gen-4 / 4.5становится основным keeper-shot layerAdobe Firefly + Premiereостаются control/edit layerElevenLabs Dubbingподключается для multilingual и voice expansion- появляется отдельный asset registry и structured prompt library
Это уже не “starter stack”, а первая scale-ready версия без ухода в лишний enterprise-sprawl.
5) Prompt library и asset governance#
Базовая структура prompt library
Минимальный pre-generation layout:
prompts/
characters/
props/
episodes/
boards/
motion/
assets/
characters/
props/
environments/
episodes/
Принцип:
- prompts не храним в чатах как единственный source of truth;
- approved prompts версионируем;
- episode prompts наследуют character/prop baseline, а не переписывают всё с нуля.
Character governance
PipиBrumимеют approved baseline refs- новые episodes не меняют species logic, proportions и silhouette language
- если prompt ломает duo readability, правим prompt, а не “принимаем красивую случайность”
Asset governance
- каждый prop должен иметь canonical label
- каждый approved still или motion clip должен иметь naming convention
- rejected outputs сохраняем отдельно, чтобы понимать failure modes
- provenance shot-а не теряем: должно быть понятно, чем он сделан
6) Что не покупаем сейчас#
На этом этапе я сознательно не рекомендую сразу покупать:
- отдельный
Midjourney / Leonardo / Ideogramслой; - отдельный
Pika / Luma / Klingслой; - отдельный caption-tool;
- отдельный music/SFX stack;
- отдельную dubbing-подписку для pilot-cycle.
Причина простая:
- больше инструментов сейчас не даст больше качества;
- он только увеличит хаос и стоимость одного usable short;
- нам сначала нужно подтвердить, что
TS-01,NTE-01,PPI-02вообще держатся на production-уровне.
7) Практическая схема по batch 01#
TS-01 — Идеальная полка
Пайплайн:
gpt-image-1для keyframes и pose-sheet пары;- Firefly Boards для ритма, окружения и layout;
- Runway
Gen-4 Turboдля первых падений и domino tests; - Runway
Gen-4 / 4.5для keeper shots; - Premiere для темпа, captions и сборки.
Почему:
- это самый дешёвый и character-heavy тест;
- здесь важнее acting и timing, чем дорогие эффекты.
NTE-01 — Магнитная перчатка
Пайплайн:
gpt-image-1для prop sheet и magnetic gag variations;- Runway как основной motion-layer;
- Firefly как backup на сложные “липнущие” сцены;
- Premiere для финальной сборки.
Почему:
- сильнейший object-hook;
- сразу проверяет, умеем ли мы держать один понятный physics-engine.
PPI-02 — Робошвабра
Пайплайн:
gpt-image-1для robomop design и expression states;- Runway для chase и movement passes;
- Firefly audio/video features для temp SFX и backup visual passes;
- Premiere для cut, captions, export.
Почему:
- это лучший тест на production rhythm;
- если этот эпизод собирается легко, значит у нас уже есть жизнеспособный slapstick pipeline.
8) Покупка и запуск без лишнего спауна#
Рекомендуемый порядок
- Уже существующий
Movie OSкак source of truth для scripts и docs. OpenAIдля image development.Runwayкак основной motion layer.Adobe Firefly + Premiereкак control / backup / edit layer.
Минимальный practical режим
Если хотим идти ещё осторожнее по деньгам:
- сначала можно работать через
OpenAI + Adobe Firefly + Premiere; - direct
Runwayподключать после первых visual tests, если Firefly-хаба будет мало по controllability.
Но мой рабочий recommendation всё равно такой:
OpenAI + Runway + Adobe
Это самый практичный баланс между controllability, speed и будущей automation-ready структурой.
9) Licensing и здравый смысл#
На текущем этапе важно не путать production test и global final pipeline.
Что фиксируем уже сейчас:
- для Adobe Firefly Adobe прямо указывает commercial-safe позиционирование именно для first-party Firefly Video Model;
- для partner models внутри Firefly могут действовать отдельные usage terms;
- для OpenAI и Runway нельзя опираться на бытовое “ну раз сервис платный, значит всё ок”;
- значит Firefly — наш safest fallback layer;
- а финальный publish gate всё равно должен проверять, чем именно сделан конкретный shot.
Practical rights matrix
| Tool | Роль | Рабочая позиция по правам | Операционное правило |
|---|---|---|---|
OpenAI gpt-image-1 | ref pack, edits, keyframes | допустим для pilot-production, но terms нужно перепроверять перед массовым release-cycle | хранить prompt group, source image и approved output |
Runway Gen-4 / 4.5 | motion passes | допустим для pilot-production, но каждый keeper-shot должен иметь сохранённую provenance | сохранять shot id, model tier и pass label |
Adobe Firefly first-party | boards, backup image/video | preferred commercially-safer fallback | использовать как rescue-layer для спорных shot-ов |
Adobe Firefly partner models | optional fallback | governed not only by Adobe shell, but also by partner model rules | не считать такие shot-ы автоматически “самыми безопасными” |
Adobe Premiere Pro | edit, captions, export | сам по себе не создаёт model-rights risk | хранить project file и export history |
Publish gate по правам
Перед любым external publish:
- у каждого approved shot должен быть указан tool origin;
- должно быть понятно, был ли shot first-party Firefly, OpenAI или Runway;
- если provenance потеряна, shot не идёт в final export;
- если есть сомнение по terms конкретного инструмента, shot идёт в
redo / replace, а не “авось пройдёт”.
Практический вывод:
- для pilot-cycle можно спокойно строить workflow вокруг
OpenAI + Runway + Adobe; - но для final release discipline нужно сохранять provenance shot-ов и не терять, каким инструментом что сделано.
10) Итог#
Для movie на этапе production test batch 01 фиксируется такой starter stack:
OpenAI gpt-image-1Runway Gen-4 Turbo -> Gen-4 / 4.5Adobe FireflyAdobe Premiere Pro
Optional later:
ElevenLabs Dubbing
Следующий практический шаг после этого документа:
- описать Movie — Production SOP на один short;
- разложить
TS-01,NTE-01,PPI-02по shot / asset / generation steps; - собрать первые
animatic / previztests.