Рынок видео / Рынок

Movie — Video Generators Market Map

Зафиксировать актуальную карту video generators для проекта `movie`, чтобы не потерять рыночный контекст, не тратить бюджет вслепую и разделить: - что подходит для ручных тестов по подписке; - что подходит для дешёвой automation по API; - что не подходит под наш формат 2D character-driven shorts; - какие self-hosted video models есть и где проходит реальная граница качества/стоимости. Актуальность этого документа: - дата проверки: `2026-03-13` - принцип: только официальные или первичные источники

8 мин чтения1,542 слов0 пунктов checklist

Цель#

Зафиксировать актуальную карту video generators для проекта movie, чтобы не потерять рыночный контекст, не тратить бюджет вслепую и разделить:

  • что подходит для ручных тестов по подписке;
  • что подходит для дешёвой automation по API;
  • что не подходит под наш формат 2D character-driven shorts;
  • какие self-hosted video models есть и где проходит реальная граница качества/стоимости.

Актуальность этого документа:

  • дата проверки: 2026-03-13
  • принцип: только официальные или первичные источники

1) Главный вывод в одном абзаце#

Для movie нельзя больше мыслить как один сервис решит всё. Рынок уже распался на три слоя:

  1. manual subscription UI для дешёвых визуальных тестов;
  2. API pay-per-use для selective hero shots и automation;
  3. self-hosted open models для будущего снижения marginal cost, но с компромиссом по качеству и операционной сложности.

Если цель именно выгодно, то сейчас оптимум для нас выглядит не как генерировать весь мультфильм видео-моделью, а как:

  • image-heavy prep;
  • animatic first;
  • selective AI video only for best shots.

2) Рыночная карта: main video generators#

СервисBilling / access modelAPIИспользовать для movieВывод
Google FlowUI filmmaking tool. About page показывает free tier 100 credits + 50 daily, Pro = $19.99/mo, 1000 credits, Ultra = 25,000 credits; help page при этом говорит про Google AI Pro / Ultra / WorkspaceНет прямого Flow API; видео API идёт через Gemini / VeoДа для ручных creative testsОдин из лучших кандидатов для ручного теста качества. Но это не cheap automation layer
Google Veo APIPay-per-useДаДа, но только для hero shotsСильное качество, но дорого: Veo 3.1 Fast = $0.15/sec, Standard = $0.40/sec
PikaПодписка UI: Standard $8/mo, 700 credits; Pro $28/mo, 2300 creditsДа, есть API/partner APIДаЛучший кандидат по соотношению ручные тесты / простая анимация / цена
RunwayUI subscription + отдельные API creditsДаОсторожноСильный creative tool, но дорогой для нашего batch production
Luma Dream MachineUI subscription + отдельный API billingДаДа как API-кандидатОдин из самых интересных API по цене/качеству
LeonardoUI subscription, image-first workflow; selected relaxed video inside appДа, но отдельные API creditsДа как image-layer, нет как основной video-coreОчень полезен для refs, style exploration, visual design, но не выглядит лучшим ядром для серийного видео
FreepikUI subscription с AI credits и большим model buffetДа, отдельный API productДа для manual buffet, нет как основной API-coreХороший playground для ручных тестов, но текущая API-экономика для нас невыгодна
Seedance / BytePlus ModelArkToken-based API billing, enterprise/dev-orientedДаДа, но только после отдельного cost test`Сильный cinematic video candidate, но billing менее прозрачен для малого старта
MiniMax / Hailuo APIPackage-based API billingДаПока нетМожет быть дешёвым на масштабе, но стартовые пакеты слишком тяжёлые
KlingПо текущему официальному сайту pricing/API публично не подтвердил в этом проходеНе подтверждено официально в этом проходеНе использовать до ручной проверкиМодель интересная, но без надёжного official pricing decision принимать нельзя

Что важно про Flow

Flow не равен Gemini API.

  • Flow это UI-слой для режиссуры и сборки роликов вокруг Veo, Nano Banana, Gemini
  • Nano Banana внутри Google — это image, не video
  • Veo внутри Google — это video

Практический смысл:

  • Flow может оказаться лучшим UI для ручного креативного теста;
  • но если нам нужна automation, платить всё равно придётся через Gemini / Veo API.

Отдельная оговорка:

  • официальные страницы Google сейчас расходятся:
    • Flow about показывает free tier;
    • Flow help пишет про доступ через Google AI Pro / Ultra / Workspace
  • это очень похоже на rollout / region dependency

Значит:

  • проверять надо прямо в аккаунте перед покупкой;
  • но как стратегический manual tool Flow всё равно очень важен для наблюдения.

3) Adjacent tools: useful, but not our main fit#

СервисЧто этоПочему не core для movie
HeyGenAvatar / spokesperson / localization video platformСильный для talking heads, translation, interactive avatars; не под our cartoon slapstick IP
FlikiScript/article/blog-to-video platformБольше про assembled explainer/marketing video, чем про original animated shorts

Вывод:

  • HeyGen и Fliki полезны как соседний рынок;
  • но они не решают задачу оригинальный пересматриваемый мультфильм с recurring characters.

4) Что сейчас выглядит оптимальным по экономике#

Если нужен manual subscription first

  1. Pika Standard/Pro
  2. Google Flow Pro
  3. Leonardo как image-heavy prep layer

Почему:

  • Pika даёт более понятную кредитную математику;
  • Flow даёт потенциально самый сильный quality ceiling;
  • Leonardo хорош не как финальный video engine, а как image/design layer.

Если нужен cheap API first

  1. Pika via API / partner API
  2. Luma Ray Flash 2
  3. Google Veo 3.1 Fast только для selective premium shots

Почему:

  • Pika и Luma выглядят лучше по cost-per-shot;
  • Veo выглядит лучше по абсолютному quality ceiling, но не по бюджету.

Что не стоит делать

  • не строить пайплайн на Runway/Freepik API shot-by-shot;
  • не покупать дорогой API до появления validated animatic and style bible;
  • не путать same account login и same billing wallet.

5) Self-hosted video models: что реально можно поставить на сервер#

Главный честный вывод

Да, self-hosted video models уже есть. Но если цель не потерять качество, то сегодня это не магическое решение.

Реальность такая:

  • self-hosted = ниже marginal cost;
  • но выше infra complexity, дольше inference, хуже consistency/quality ceiling по сравнению с лучшими SaaS;
  • и почти всегда нужен серьёзный GPU.

Основные self-hosted кандидаты

МодельЧто даётПорог железаВывод для movie
Wan 2.2 TI2V-5B720P text+image-to-video, unified TI2Vофициальный README пишет, что 720P TI2V может идти на 24GB VRAM, а 14B задачи требуют 80GB VRAM; 5-second 720P under 9 min on single consumer GPUСамый интересный self-hosted кандидат для нас на 4090/5090 классе
HunyuanVideo-1.5Lightweight video generationофициальный README: minimum 14GB GPU memory with offloadingХороший порог входа, но не факт, что quality ceiling устроит для канала
LTX-Video / LTX-2 ecosystemСкорость, local workflows, ComfyUI adoptionofficial ComfyUI-LTX repo: 32GB+ VRAM for LTX-2 workflowsОчень интересен как fast previz / local experimentation слой
CogVideoXНаиболее доступный open video familyofficial docs/derived docs: от 4–10GB с optimizations для старых вариантов, 24–32GB для LoRA/fine-tuning новых high-res вариантовХорош для входа и R&D, но не выглядит лучшим финальным quality engine

Практический вывод по self-hosted

Если мы когда-нибудь пойдём в local video generation, то смотреть надо в таком порядке:

  1. Wan 2.2 TI2V-5B
  2. HunyuanVideo-1.5
  3. LTX-Video
  4. CogVideoX

Но:

  • это не шаг сейчас;
  • это шаг после того как у нас будет validated style, prompt library, character pack и shot grammar.

Иначе мы просто автоматизируем хаос на своём же железе.


6) Каноническое решение для movie на текущем этапе#

Phase A — прямо сейчас

  • image pipeline first
  • animatic first
  • manual subscription tests second
  • API only for very small number of hero shots

Phase B — после первых валидных пилотов

  • выбрать один manual subscription winner
  • выбрать один cheap API winner
  • держать provider abstraction в коде, чтобы легко переключать backend

Phase C — только потом

  • исследовать self-hosted stack
  • считать GPU economics against actual episode throughput

7) Рабочая рекомендация owner-level#

Если бы нужно было выбрать прямо сейчас один pragmatic stack:

  1. Nano Banana / Leonardo / similar strong image layer для refs, boards, fixes
  2. Pika или Flow для ручных video tests по подписке
  3. Pika API или Luma API для точечной automation
  4. Self-hosted Wan/Hunyuan/LTX не трогать до следующей фазы

8) Источники#

Google

Pika

Runway

Luma

Leonardo

Freepik

Seedance / BytePlus

MiniMax / Hailuo

HeyGen / Fliki

Self-hosted / open models

НазадMovie — Starter Tool Stack для batch 01ДальшеMovie — Video Stack Decision