Runway Gen-4.5 на прво место: Како 100 инженери ги надминаа Google и OpenAI
Runway токму го освои првото место на Video Arena со Gen-4.5, докажувајќи дека мал тим може да ги надмине трилионските гиганти во генерирање на AI видео.

Стартап од 100 луѓе токму ја зеде круната од Google и OpenAI. Runway моделот Gen-4.5 го освои првото место на табелата на Video Arena оваа недела, а импликациите се значителни.
Победата на аутсајдерот која не требаше да се случи
Дозволете ми да ја опишам ситуацијата. На едната страна: Google DeepMind со Veo 3, поддржан со масивни компјутерски ресурси и еден од најголемите видео датасети на планетата (YouTube). На другата: OpenAI со Sora 2, возејќи на моментумот на доминацијата на ChatGPT и милијарди во финансирање. И некаде помеѓу: Runway, со основен тим од околу 100 инженери кои работат на Gen-4.5 и со дел од ресурсите.
Погодете кој е на врвот?
Runway CEO Cristóbal Valenzuela тоа го рече директно: "Успеавме да конкурираме со трилионски компании со тим од 100 луѓе." Тоа не е PR приказна. Тоа е табелата на Video Arena која зборува.
Што всушност ни кажува Video Arena
Video Arena користи слепа човечка евалуација, каде судиите споредуваат видеа без да знаат кој модел ги направил. Тоа е најблиското што го имаме до објективен квалитетен бенчмарк за AI генерирање на видео.
Табелата е важна бидејќи го отстранува маркетингот од равенката. Нема избрани демоа. Нема внимателно подготвени примери. Само анонимни излези, еден до друг, оценети од илјадници луѓе.
И Gen-4.5 е на врвот.
Особено интересно е каде завршил OpenAI Sora 2 Pro: на 7-мо место. Тоа е модел од компанија со 30 пати повеќе ресурси, која паѓа на 7-мо место. Јазот помеѓу хајпот и перформансите никогаш не бил попојдовен.
Што всушност донесува Gen-4.5
Дозволете ми да разработам што испорача Runway со ова ажурирање:
Подобрено следење на команди
Моделот подобро разбира сложени, повеќе-делни инструкции од претходните верзии. Наведете движење на камерата, расположение на осветлувањето и акција на ликот во една команда, и тој навистина ги испорачува сите три.
Подобрен визуелен квалитет
Поостри детали, подобра временска конзистентност, помалку артефакти. Вообичаените осомничени за секое големо ажурирање, но подобрувањето е забележливо во реалното тестирање.
Побрзо генерирање
Времињата за генерирање значително паднаа во споредба со Gen-4. За продукциски работни текови каде брзината на итерација е важна, ова брзо се собира.
- Топ-рангиран визуелен квалитет во слепи тестови
- Подобрена физика и конзистентност на движење
- Подобро ракување со сложени сцени
- Силна конзистентност на ликот низ снимките
- Сè уште нема нативно аудио (предност на Sora 2)
- Максималното траење на клиповите непроменето
- Премиум цени за интензивни корисници
Јазот на нативното аудио останува. Sora 2 генерира синхронизирано аудио во еден чекор, додека корисниците на Runway сè уште имаат потреба од одделни работни текови за аудио. За некои креатори, тоа е пресудно. За други кои сè уште работат во пост-продукциски пајплајни, предноста на визуелниот квалитет е поважна.
Зошто малиот тим победи
Еве што веројатно се случи, со импликации надвор од AI видеото.
Големите организации оптимизираат за различни работи од малите. Google и OpenAI градат платформи, управуваат со масивна инфраструктура, се движат низ внатрешна политика и испорачуваат низ десетици производни линии истовремено. Runway гради едно нешто: најдобриот модел за генерирање на видео што може да го направи.
Фокусот ги победува ресурсите кога проблемот е добро дефиниран. AI генерирање на видео сè уште е фокусиран технички предизвик, а не широко распространета екосистемска игра.
Runway исто така е подолго во оваа специфична игра од било кој друг. Тие го објавија Gen-1 пред Sora да постои. Тоа институционално знаење, тоа акумулирано разбирање за тоа што прави генерирањето на видео да работи, се собира со текот на времето.
Одговорот на пазарот
Пазарот за AI генерирање на видео се проектира да расте од 716,8 милиони долари во 2025 на 2,56 милијарди долари до 2032, 20% сложена годишна стапка на раст. Тој раст претпоставува дека конкуренцијата продолжува да ја движи иновацијата.
Моментална состојба (декември 2025):
- Runway Gen-4.5: #1 на Video Arena, силен за комерцијална/креативна работа
- Sora 2: Предност на нативното аудио, но 7-мо место за визуелен квалитет
- Veo 3: Најдобро човечко движење, интегрирано со Google екосистемот
- Pika 2.5: Најдобра опција за вредност, брз турбо режим
- Kling AI: Силно снимање на движење, вградено генерирање на звук
Она што се промени од пред една недела е јасноста на рангирањето. Пред Gen-4.5, можевте да аргументирате дека било кој од првите три е "најдобар" во зависност од вашите критериуми. Сега има јасен бенчмарк лидер, дури и ако другите имаат предности во функциите.
Што тоа значи за креаторите
Ако бирате примарна AI видео алатка во моментов, еве мое ажурирано мислење:
- ✓Визуелниот квалитет е приоритет? Runway Gen-4.5
- ✓Потребно интегрирано аудио? Sora 2 (сè уште)
- ✓Реалистично човечко движење? Veo 3
- ✓Буџетски ограничувања? Pika 2.5 Turbo
"Најдобрата" алатка сè уште зависи од вашиот специфичен работен тек. Но ако некој ме праша кој модел произведува излез на видео со највисок квалитет сега, одговорот е појасен отколку што беше минатиот месец.
Поширока слика
Конкуренцијата е добра. Кога трилионските компании не можат да се потпрат на своите ресурси, сите имаат корист од побрза иновација.
Она што ме возбудува за овој резултат не е само победата на Runway. Тоа е доказ дека AI видео просторот сè уште не е консолидиран. Мал, фокусиран тим сè уште може да конкурира на највисоко ниво. Тоа значи дека веројатно ќе видиме продолжена агресивна иновација од сите играчи наместо пазар доминиран од оној кој има најмногу GPUs.
Следните неколку месеци ќе бидат интересни. Google и OpenAI нема да го прифатат 7-мото место тивко. Runway ќе треба да продолжи да притиска. И некаде, друг мал тим веројатно гради нешто што ќе ги изненади сите.
Мојата прогноза
До средината на 2026, ќе гледаме назад на декември 2025 како моментот кога AI генерирањето на видео навистина стана конкурентно. Не во смисла на "три пристојни опции", туку во смисла на "повеќе компании кои се турнуваат едни со други за да испорачуваат подобри производи побрзо".
Што доаѓа:
- Нативно аудио од повеќе модели
- Подолги времиња на клиповите
- Подобра симулација на физика
- Генерирање во реално време
Што нема да се промени:
- Конкуренција која ја движи иновацијата
- Мали тимови кои удираат над својата тежина
- Специфичноста на случаите на употреба е важна
Алатките кои испорачуваат крајот на 2026 ќе го направат Gen-4.5 да изгледа примитивно. Но сега, за овој момент во декември 2025, Runway ја држи круната. И тоа е приказна која вреди да се раскаже: тимот од 100 луѓе кои ги надминаа гигантите.
Ако градите со AI видео, ова е најдоброто време за експериментирање. Алатките се доволно добри за да бидат корисни, доволно конкурентни за да продолжат да се подобруваат и доволно достапни за да можете да ги пробате сите. Изберете ја онаа што одговара на вашиот работен тек и почнете да креирате.
Иднината на видеото се пишува токму сега, една генерација во исто време.
Дали оваа статија беше корисна?

Henry
Креативен технологКреативен технолог од Лозана кој истражува каде вештачката интелигенција се среќава со уметноста. Експериментира со генеративни модели помеѓу сесиите на електронска музика.
Поврзани статии
Продолжете со истражување со овие поврзани објави

Pika 2.5: Достапно AI видео преку брзина, цена и алатки
Pika Labs издава верзија 2.5 со побрзо генерирање, подобрена физика и алатки како Pikaframes и Pikaffects за работа со видео.

Adobe и Runway се здружуваат: што значи партнерството Gen-4.5 за создателите на видео
Adobe го направи Runway Gen-4.5 'рбетот на AI видеото во Firefly. Оваа стратешка алијанса ги преобликува креативните работни процеси за професионалците, студијата и брендовите ширум светот.

Модели на светот: следната граница во генерирањето на видео со вештачка интелигенција
Зошто преодот од генерирање на кадри кон симулација на светот го менува AI видеото, и што изданието на Runway GWM-1 зборува за тоа каде оди технологијата.