Стек / Tools

Movie — Starter Tool Stack для batch 01

Зафиксировать первый реальный tool stack проекта `movie` под `production test batch 01`, чтобы следующие шаги строились не вокруг абстрактного “надо что-то попробовать”, а вокруг конкретного набора инструментов для: - `TS-01 — Идеальная полка` - `NTE-01 — Магнитная перчатка` - `PPI-02 — Робошвабра` Этот документ нужен не для идеального “stack навсегда”, а для **первого production-ready набора**, который даст: - быстрый цикл тестов; - image-first consistency; - контроль над 2D-стилизацией; - понятный путь к `animatic / previz / first publishable short`.

9 мин чтения1,790 слов0 пунктов checklist

Цель#

Зафиксировать первый реальный tool stack проекта movie под production test batch 01, чтобы следующие шаги строились не вокруг абстрактного “надо что-то попробовать”, а вокруг конкретного набора инструментов для:

  • TS-01 — Идеальная полка
  • NTE-01 — Магнитная перчатка
  • PPI-02 — Робошвабра

Этот документ нужен не для идеального “stack навсегда”, а для первого production-ready набора, который даст:

  • быстрый цикл тестов;
  • image-first consistency;
  • контроль над 2D-стилизацией;
  • понятный путь к animatic / previz / first publishable short.

1) Ограничения текущего этапа#

Для текущего batch у нас жёсткие ограничения:

  • ролики 45–75 секунд;
  • вертикальный формат 9:16;
  • минимум обязательного диалога;
  • важнее consistency пары, чем “магия одной генерации”;
  • важнее скорость итерации, чем киношная сложность;
  • нужен не “весь пайплайн индустрии”, а первый рабочий набор.

Из этого следует главное решение:

для movie на pilot-cycle мы идём не в direct text-to-video, а в image-first / hybrid workflow.

То есть:

  1. script;
  2. character / prop / style frames;
  3. image-to-video или короткие text/image-to-video passes;
  4. монтаж, captions, SFX, export.

2) Рекомендуемый starter stack#

Core 1 — OpenAI gpt-image-1

Роль в пайплайне:

  • character sheets;
  • expression sheets;
  • prop sheets;
  • scene keyframes;
  • локальные image edits и уточнения.

Почему берём:

  • у OpenAI есть отдельный production API для image generation и image edits;
  • gpt-image-1 подходит именно для iterative visual development, а не только для “одной красивой картинки”;
  • это хороший слой для building лемур + ленивец bible и повторяемых prop-референсов.

Как используем в movie:

  • делаем базовый visual pack для Pip и Brum;
  • отдельно делаем props для магнитной перчатки, идеальной полки, робошвабры;
  • через edits держим один и тот же style direction, а не пересобираем персонажей с нуля.

Официальные источники:

Core 2 — Runway Gen-4 Turbo -> Gen-4 / Gen-4.5

Роль в пайплайне:

  • primary image-to-video layer;
  • короткие motion tests;
  • character-consistent animation passes;
  • быстрые vertical clips для Shorts.

Почему берём:

  • Runway прямо рекомендует сначала тестировать идеи в Gen-4 Turbo, а затем при необходимости переключаться на Gen-4;
  • Gen-4 работает от input image, что хорошо совпадает с нашим image-first workflow;
  • Gen-4 и Gen-4.5 поддерживают 9:16, короткие клипы и controllable motion;
  • у Runway есть References для consistency и Act-Two как запасной слой для performance-driven анимации позже.

Как используем в movie:

  • для каждого эпизода сначала делаем ключевые still frames;
  • запускаем быстрые motion-итерации в Gen-4 Turbo;
  • лучшие шоты пересобираем в Gen-4 или Gen-4.5;
  • Act-Two пока не делаем core-частью стека, но держим как Phase 2 option.

Официальные источники:

Core 3 — Adobe Firefly

Роль в пайплайне:

  • moodboards и boards;
  • backup image/video generation;
  • commercially-safer fallback;
  • temp speech / soundtrack / sound effects;
  • быстрая ideation-среда вокруг всего batch.

Почему берём:

  • Firefly даёт Boards, что полезно для pre-production и style alignment;
  • Firefly умеет Text to Video и Image to Video, что даёт backup к Runway;
  • Adobe прямо позиционирует Firefly Video Model как commercially safe для Adobe-модели;
  • внутри Firefly уже доступны partner models, включая OpenAI, Runway и другие, что снижает риск tool-sprawl.

Как используем в movie:

  • собираем moodboard / visual direction под Depot 17;
  • делаем backup tests на сложные шоты, если Runway уводит стиль;
  • используем audio-features как временный слой для тестов, а не строим отдельный audio-stack слишком рано.

Официальные источники:

Core 4 — Adobe Premiere Pro

Роль в пайплайне:

  • rough cut;
  • pacing;
  • captions;
  • export;
  • versioning для Shorts.

Почему берём:

  • Premiere уже встроен в привычный production-class edit workflow;
  • Speech to Text и captions закрывают practical layer без отдельного caption-tool;
  • на этом этапе нам нужен один нормальный editor, а не зоопарк монтажных приложений.

Как используем в movie:

  • собираем rough cut из коротких сгенерированных passes;
  • ставим captions и правим timing;
  • готовим 9:16 export и safety margins;
  • держим одну монтажную точку истины.

Официальные источники:


3) Optional, но не core сейчас#

ElevenLabs Dubbing

Роль:

  • multilingual rollout;
  • dubbing;
  • language expansion;
  • later-stage localization.

Почему пока не core:

  • текущие pilot tests почти безсловесные;
  • на первом batch нам важнее visual rhythm, чем voice infrastructure;
  • дополнительная подписка сейчас даст меньше пользы, чем нормальный visual pipeline.

Когда подключать:

  • когда появятся ролики с более явным narration;
  • когда дойдём до multilingual distribution;
  • когда будет нужен dubbing вместо просто captions.

Официальные источники:


4) Upgrade stack после first proof#

Когда batch 01 даст usable result, upgrade stack выглядит так:

  • OpenAI gpt-image-1 остаётся visual-development core
  • Runway Gen-4 / 4.5 становится основным keeper-shot layer
  • Adobe Firefly + Premiere остаются control/edit layer
  • ElevenLabs Dubbing подключается для multilingual и voice expansion
  • появляется отдельный asset registry и structured prompt library

Это уже не “starter stack”, а первая scale-ready версия без ухода в лишний enterprise-sprawl.


5) Prompt library и asset governance#

Базовая структура prompt library

Минимальный pre-generation layout:

prompts/
  characters/
  props/
  episodes/
  boards/
  motion/
assets/
  characters/
  props/
  environments/
  episodes/

Принцип:

  • prompts не храним в чатах как единственный source of truth;
  • approved prompts версионируем;
  • episode prompts наследуют character/prop baseline, а не переписывают всё с нуля.

Character governance

  • Pip и Brum имеют approved baseline refs
  • новые episodes не меняют species logic, proportions и silhouette language
  • если prompt ломает duo readability, правим prompt, а не “принимаем красивую случайность”

Asset governance

  • каждый prop должен иметь canonical label
  • каждый approved still или motion clip должен иметь naming convention
  • rejected outputs сохраняем отдельно, чтобы понимать failure modes
  • provenance shot-а не теряем: должно быть понятно, чем он сделан

6) Что не покупаем сейчас#

На этом этапе я сознательно не рекомендую сразу покупать:

  • отдельный Midjourney / Leonardo / Ideogram слой;
  • отдельный Pika / Luma / Kling слой;
  • отдельный caption-tool;
  • отдельный music/SFX stack;
  • отдельную dubbing-подписку для pilot-cycle.

Причина простая:

  • больше инструментов сейчас не даст больше качества;
  • он только увеличит хаос и стоимость одного usable short;
  • нам сначала нужно подтвердить, что TS-01, NTE-01, PPI-02 вообще держатся на production-уровне.

7) Практическая схема по batch 01#

TS-01 — Идеальная полка

Пайплайн:

  1. gpt-image-1 для keyframes и pose-sheet пары;
  2. Firefly Boards для ритма, окружения и layout;
  3. Runway Gen-4 Turbo для первых падений и domino tests;
  4. Runway Gen-4 / 4.5 для keeper shots;
  5. Premiere для темпа, captions и сборки.

Почему:

  • это самый дешёвый и character-heavy тест;
  • здесь важнее acting и timing, чем дорогие эффекты.

NTE-01 — Магнитная перчатка

Пайплайн:

  1. gpt-image-1 для prop sheet и magnetic gag variations;
  2. Runway как основной motion-layer;
  3. Firefly как backup на сложные “липнущие” сцены;
  4. Premiere для финальной сборки.

Почему:

  • сильнейший object-hook;
  • сразу проверяет, умеем ли мы держать один понятный physics-engine.

PPI-02 — Робошвабра

Пайплайн:

  1. gpt-image-1 для robomop design и expression states;
  2. Runway для chase и movement passes;
  3. Firefly audio/video features для temp SFX и backup visual passes;
  4. Premiere для cut, captions, export.

Почему:

  • это лучший тест на production rhythm;
  • если этот эпизод собирается легко, значит у нас уже есть жизнеспособный slapstick pipeline.

8) Покупка и запуск без лишнего спауна#

Рекомендуемый порядок

  1. Уже существующий Movie OS как source of truth для scripts и docs.
  2. OpenAI для image development.
  3. Runway как основной motion layer.
  4. Adobe Firefly + Premiere как control / backup / edit layer.

Минимальный practical режим

Если хотим идти ещё осторожнее по деньгам:

  • сначала можно работать через OpenAI + Adobe Firefly + Premiere;
  • direct Runway подключать после первых visual tests, если Firefly-хаба будет мало по controllability.

Но мой рабочий recommendation всё равно такой:

OpenAI + Runway + Adobe

Это самый практичный баланс между controllability, speed и будущей automation-ready структурой.


9) Licensing и здравый смысл#

На текущем этапе важно не путать production test и global final pipeline.

Что фиксируем уже сейчас:

  • для Adobe Firefly Adobe прямо указывает commercial-safe позиционирование именно для first-party Firefly Video Model;
  • для partner models внутри Firefly могут действовать отдельные usage terms;
  • для OpenAI и Runway нельзя опираться на бытовое “ну раз сервис платный, значит всё ок”;
  • значит Firefly — наш safest fallback layer;
  • а финальный publish gate всё равно должен проверять, чем именно сделан конкретный shot.

Practical rights matrix

ToolРольРабочая позиция по правамОперационное правило
OpenAI gpt-image-1ref pack, edits, keyframesдопустим для pilot-production, но terms нужно перепроверять перед массовым release-cycleхранить prompt group, source image и approved output
Runway Gen-4 / 4.5motion passesдопустим для pilot-production, но каждый keeper-shot должен иметь сохранённую provenanceсохранять shot id, model tier и pass label
Adobe Firefly first-partyboards, backup image/videopreferred commercially-safer fallbackиспользовать как rescue-layer для спорных shot-ов
Adobe Firefly partner modelsoptional fallbackgoverned not only by Adobe shell, but also by partner model rulesне считать такие shot-ы автоматически “самыми безопасными”
Adobe Premiere Proedit, captions, exportсам по себе не создаёт model-rights riskхранить project file и export history

Publish gate по правам

Перед любым external publish:

  • у каждого approved shot должен быть указан tool origin;
  • должно быть понятно, был ли shot first-party Firefly, OpenAI или Runway;
  • если provenance потеряна, shot не идёт в final export;
  • если есть сомнение по terms конкретного инструмента, shot идёт в redo / replace, а не “авось пройдёт”.

Практический вывод:

  • для pilot-cycle можно спокойно строить workflow вокруг OpenAI + Runway + Adobe;
  • но для final release discipline нужно сохранять provenance shot-ов и не терять, каким инструментом что сделано.

10) Итог#

Для movie на этапе production test batch 01 фиксируется такой starter stack:

  • OpenAI gpt-image-1
  • Runway Gen-4 Turbo -> Gen-4 / 4.5
  • Adobe Firefly
  • Adobe Premiere Pro

Optional later:

  • ElevenLabs Dubbing

Следующий практический шаг после этого документа:

  1. описать Movie — Production SOP на один short;
  2. разложить TS-01, NTE-01, PPI-02 по shot / asset / generation steps;
  3. собрать первые animatic / previz tests.
НазадMovie — 10 Pilot Scripts для first batchДальшеMovie — Production SOP для batch 01