Runway Gen-4.5 Занял #1: Как 100 Инженеров Обошли Google и OpenAI
Runway только что занял первое место в Video Arena с Gen-4.5, доказав, что небольшая команда может обойти триллионных гигантов в генерации видео с помощью ИИ.

Стартап из 100 человек только что отобрал корону у Google и OpenAI. Модель Gen-4.5 от Runway заняла позицию #1 в рейтинге Video Arena на этой неделе, и последствия серьезные.
Победа Аутсайдера, Которая Не Должна Была Случиться
Вот ситуация. С одной стороны: Google DeepMind с Veo 3, с массивными вычислительными ресурсами и одним из крупнейших датасетов видео на планете (YouTube). С другой: OpenAI с Sora 2, использующий импульс доминирования ChatGPT и миллиарды в финансировании. А где-то между ними: Runway, с основной командой примерно в 100 инженеров, работающих над Gen-4.5, и долей ресурсов.
Угадай, кто наверху?
CEO Runway Кристобаль Валенсуэла сказал прямо: "Мы смогли обойти компании стоимостью в триллион долларов командой из 100 человек." Это не маркетинг. Это говорит рейтинг Video Arena.
Что На Самом Деле Говорит Video Arena
Video Arena использует слепую оценку людей, где судьи сравнивают видео, не зная, какая модель их создала. Это самое близкое к объективному бенчмарку качества для генерации видео с помощью ИИ.
Рейтинг важен, потому что убирает маркетинг из уравнения. Никаких подобранных демо. Никаких тщательно отобранных примеров. Только анонимные результаты, рядом друг с другом, оцененные тысячами людей.
И Gen-4.5 на вершине.
Особенно интересно, где оказался Sora 2 Pro от OpenAI: 7-е место. Это модель от компании с ресурсами в 30 раз больше, упавшая на 7-е место. Разрыв между хайпом и производительностью никогда не был так очевиден.
Что На Самом Деле Приносит Gen-4.5
Вот что Runway выпустил с этим обновлением:
Улучшенное Следование Промптам
Модель лучше понимает сложные, многочастные инструкции, чем предыдущие версии. Укажи движение камеры, настроение освещения и действие персонажа в одном промпте, и он действительно выдаст все три.
Улучшенное Визуальное Качество
Четче детали, лучше временная последовательность, меньше артефактов. Обычные подозреваемые для любого крупного обновления, но улучшение заметно в реальном тестировании.
Более Быстрая Генерация
Время генерации значительно сократилось по сравнению с Gen-4. Для производственных процессов, где важна скорость итераций, это быстро накапливается.
- Топовое визуальное качество в слепых тестах
- Улучшенная физика и последовательность движения
- Лучшая обработка сложных сцен
- Сильная последовательность персонажей между кадрами
- Все еще нет нативного аудио (преимущество Sora 2)
- Максимальная длина клипа не изменилась
- Премиум-цены для активных пользователей
Разрыв в нативном аудио остается. Sora 2 генерирует синхронизированное аудио за один проход, в то время как пользователям Runway все еще нужны отдельные аудио-процессы. Для некоторых создателей это решающий фактор. Для других, работающих в постпродакшн-пайплайнах, преимущество в визуальном качестве важнее.
Почему Победила Маленькая Команда
Вот что вероятно произошло, с последствиями за пределами ИИ-видео.
Крупные организации оптимизируют другие вещи, чем маленькие. Google и OpenAI строят платформы, управляют массивной инфраструктурой, разбираются с внутренней политикой и выпускают одновременно десятки продуктовых линий. Runway строит одну вещь: лучшую модель генерации видео, которую они могут сделать.
Фокус побеждает ресурсы, когда проблема четко определена. Генерация видео с ИИ все еще сфокусированная техническая задача, а не разросшаяся экосистемная игра.
Runway также в этой конкретной игре дольше всех. Они выпустили Gen-1 до того, как Sora существовал. Это институциональное знание, это накопленное понимание того, что заставляет генерацию видео работать, накапливается со временем.
Реакция Рынка
Прогнозируется, что рынок генерации видео с ИИ вырастет с $716,8 миллионов в 2025 до $2,56 миллиардов к 2032, с годовым темпом роста 20%. Этот рост предполагает, что конкуренция продолжит стимулировать инновации.
Текущая Ситуация (Декабрь 2025):
- Runway Gen-4.5: #1 в Video Arena, сильный для коммерческой/творческой работы
- Sora 2: Преимущество нативного аудио, но визуальное качество на 7-м месте
- Veo 3: Лучшее движение человека, интегрирован с экосистемой Google
- Pika 2.5: Лучший вариант по цене, быстрый турбо-режим
- Kling AI: Сильный захват движения, встроенная генерация звука
Что изменилось даже за неделю, это ясность рейтинга. До Gen-4.5 можно было спорить, что любой из топ-3 был "лучшим" в зависимости от критериев. Теперь есть явный лидер бенчмарка, даже если у других есть функциональные преимущества.
Что Это Означает Для Создателей
Если ты выбираешь основной инструмент для ИИ-видео прямо сейчас, вот мое обновленное мнение:
- ✓Визуальное качество в приоритете? Runway Gen-4.5
- ✓Нужно интегрированное аудио? Sora 2 (пока)
- ✓Реалистичное движение человека? Veo 3
- ✓Ограничения бюджета? Pika 2.5 Turbo
"Лучший" инструмент все еще зависит от твоего конкретного процесса. Но если кто-то спросит меня, какая модель производит видео самого высокого качества прямо сейчас, ответ яснее, чем был месяц назад.
Более Широкая Картина
Конкуренция это хорошо. Когда компании стоимостью в триллион не могут почивать на своих ресурсах, все выигрывают от более быстрых инноваций.
Что меня воодушевляет в этом результате, это не просто победа Runway. Это доказательство того, что пространство ИИ-видео еще не консолидировалось. Маленькая, сфокусированная команда все еще может конкурировать на высшем уровне. Это означает, что мы вероятно увидим продолжающиеся агрессивные инновации от всех игроков, а не рынок, доминируемый тем, у кого больше всего GPU.
Следующие месяцы будут интересными. Google и OpenAI не примут 7-е место молча. Runway нужно будет продолжать давить. И где-то еще одна маленькая команда вероятно строит что-то, что удивит всех.
Мой Прогноз
К середине 2026 мы будем оглядываться на декабрь 2025 как на момент, когда генерация видео с ИИ стала действительно конкурентной. Не в смысле "три приличных варианта", а в смысле "несколько компаний, толкающих друг друга выпускать лучшие продукты быстрее".
Что придет:
- Нативное аудио от большего числа моделей
- Более длинные клипы
- Лучшая симуляция физики
- Генерация в реальном времени
Что не изменится:
- Конкуренция, стимулирующая инновации
- Маленькие команды, бьющие выше своего веса
- Важность специфики случая использования
Инструменты, выпущенные в конце 2026, заставят Gen-4.5 выглядеть примитивным. Но прямо сейчас, в этот момент декабря 2025, Runway держит корону. И это история, которую стоит рассказать: команда из 100 человек, которая обошла гигантов.
Если ты строишь с ИИ-видео, это лучшее время для экспериментов. Инструменты достаточно хороши, чтобы быть полезными, достаточно конкурентны, чтобы продолжать улучшаться, и достаточно доступны, чтобы ты мог попробовать их все. Выбери тот, что подходит твоему процессу, и начни создавать.
Будущее видео пишется прямо сейчас, по одной генерации за раз.
Была ли эта статья полезной?

Henry
Креативный технологКреативный технолог из Лозанны, исследующий точки соприкосновения ИИ и искусства. Экспериментирует с генеративными моделями между сессиями электронной музыки.
Похожие статьи
Продолжите изучение с этими статьями

Pika 2.5: Доступное AI-видео через скорость, цену и инструменты
Pika Labs выпускает версию 2.5 с быстрой генерацией, улучшенной физикой и инструментами вроде Pikaframes и Pikaffects для работы с видео.

Adobe и Runway объединились: что партнёрство Gen-4.5 значит для создателей видео
Adobe сделал Gen-4.5 от Runway основой AI-видео в Firefly. Это стратегическое соглашение меняет рабочие процессы для профессионалов, студий и брендов по всему миру.

Модели мира: следующий рубеж в генерации видео с помощью ИИ
Почему переход от генерации кадров к симуляции мира меняет AI-видео, и что релиз Runway GWM-1 говорит о том, куда движется технология.