Runway Gen-4.5 на вяршыні: як 100 інжынераў абышлі Google і OpenAI
Runway толькі што заняла першае месца на Video Arena з Gen-4.5, даказваючы, што невялікая каманда можа перамагчы трыльённых гігантаў у генерацыі AI-відэа.

Стартап са 100 чалавек толькі што забраў карону ў Google і OpenAI. Мадэль Gen-4.5 ад Runway заняла першае месца ў табліцы лідараў Video Arena на гэтым тыдні, і наступствы неверагодныя.
Перамога аўтсайдара, якая не павінна была адбыцца
Дазвольце апісаць сітуацыю. З аднаго боку: Google DeepMind з Veo 3, падтрыманы магутнымі вылічальнымі рэсурсамі і адным з найбуйнейшых наборaў відэаданых на планеце (YouTube). З другога: OpenAI з Sora 2, які едзе на хвалі дамінавання ChatGPT і мільярдах фінансавання. А дзесьці пасярэдзіне: Runway, з асноўнай камандай каля 100 інжынераў, якія працуюць над Gen-4.5, і долькай рэсурсаў.
Здагадайцеся, хто на вяршыні?
CEO Runway Крыстобаль Валенсуэла сказаў прама: "Нам удалося перамагчы трыльённыя кампаніі камандай са 100 чалавек." Гэта не PR. Гэта кажа табліца лідараў Video Arena.
Што сапраўды паказвае Video Arena
Video Arena выкарыстоўвае сляпую ацэнку людзьмі, дзе суддзі параўноўваюць відэа без ведання, якая мадэль іх стварыла. Гэта найбольш аб'ектыўны эталон якасці для генерацыі AI-відэа.
Табліца лідараў важная, бо яна выдаляе маркетынг з раўнання. Ніякіх старанна падабраных дэма. Ніякіх дбайліва адабраных прыкладаў. Толькі ананімныя вынікі, бок аб бок, ацэненыя тысячамі людзей.
І Gen-4.5 сядзіць на вяршыні.
Асабліва цікава, дзе апынуўся Sora 2 Pro ад OpenAI: 7-е месца. Гэта мадэль ад кампаніі з 30-кратнымі рэсурсамі, якая апусцілася на 7-е месца. Разрыў паміж хайпам і прадукцыйнасцю ніколі не быў больш бачным.
Што сапраўды прыносіць Gen-4.5
Дазвольце расказаць, што Runway выпусціла з гэтым абнаўленнем:
Палепшанае выкананне падказак
Мадэль лепш разумее складаныя шматкампанентныя інструкцыі, чым папярэднія версіі. Пазначце рух камеры, настрой асвятлення і дзеянне персанажа ў адной падказцы, і яна сапраўды дастаўляе ўсе тры.
Палепшаная візуальная якасць
Больш выразныя дэталі, лепшая часавая паслядоўнасць, менш артэфактаў. Звычайныя паляпшэнні для любога буйнога абнаўлення, але паляпшэнне заўважна ў рэальных тэстах.
Хутчэйшая генерацыя
Час генерацыі значна скараціўся ў параўнанні з Gen-4. Для вытворчых працоўных працэсаў, дзе важная хуткасць ітэрацыі, гэта хутка назапашваецца.
- Найвышэйшая візуальная якасць у сляпых тэстах
- Палепшаная фізіка і паслядоўнасць руху
- Лепшая апрацоўка складаных сцэн
- Моцная паслядоўнасць персанажаў паміж кадрамі
- Усё яшчэ без натыўнага аўдыё (перавага Sora 2)
- Максімальная даўжыня кліпа не змянілася
- Прэміум-цэны для актыўных карыстальнікаў
Разрыў у натыўным аўдыё застаецца. Sora 2 генеруе сінхранізаванае аўдыё за адзін праход, у той час як карыстальнікам Runway па-ранейшаму патрэбны асобныя працоўныя працэсы для аўдыё. Для некаторых крэатараў гэта вырашальны фактар. Для іншых, хто працуе ў постпрадакшн-пайплайнах, перавага ў візуальнай якасці важнейшая.
Чаму перамагла маленькая каманда
Вось што, верагодна, адбылося, з наступствамі па-за AI-відэа.
Вялікія арганізацыі аптымізуюць іншыя рэчы, чым маленькія. Google і OpenAI будуюць платформы, кіруюць масіўнай інфраструктурай, лавіруюць ва ўнутранай палітыцы і выпускаюць прадукты па дзясятках напрамкаў адначасова. Runway будуе адну рэч: найлепшую мадэль генерацыі відэа, якую яны могуць зрабіць.
Фокус перамагае рэсурсы, калі праблема дакладна вызначана. Генерацыя AI-відэа па-ранейшаму застаецца сфакусаванай тэхнічнай задачай, а не шырокай гульнёй экасістэмы.
Runway таксама ў гэтай канкрэтнай гульні даўжэй за ўсіх. Яны выпусцілі Gen-1 да таго, як Sora існаваў. Гэтыя інстытуцыйныя веды, гэтае назапашанае разуменне таго, што робіць генерацыю відэа працуючай, кампануецца з часам.
Рэакцыя рынку
Прагназуецца, што рынак генерацыі AI-відэа вырасце з $716,8 мільёнаў у 2025 годзе да $2,56 мільярда да 2032 года, што складае 20% складаных гадавых тэмпаў росту. Гэты рост мяркуе, што канкурэнцыя працягне стымуляваць інавацыі.
Бягучы ландшафт (снежань 2025):
- Runway Gen-4.5: #1 на Video Arena, моцны для камерцыйнай/творчай працы
- Sora 2: Перавага натыўнага аўдыё, але 7-е месца па візуальнай якасці
- Veo 3: Найлепшы рух чалавека, інтэграваны з экасістэмай Google
- Pika 2.5: Найлепшае суадносіны кошту і якасці, хуткі турба-рэжым
- Kling AI: Моцны захоп руху, убудаваная генерацыя гуку
Што змянілася нават з тыдня таму, гэта яснасць рэйтынгу. Да Gen-4.5 можна было сцвярджаць, што любы з тройкі лідараў быў "лепшым" у залежнасці ад вашых крытэрыяў. Цяпер ёсць відавочны лідар па эталону, нават калі іншыя маюць перавагі па функцыях.
Што гэта значыць для крэатараў
Калі вы выбіраеце асноўны інструмент AI-відэа прама зараз, вось мая абноўленая думка:
- ✓Візуальная якасць у прыярытэце? Runway Gen-4.5
- ✓Патрэбна інтэграванае аўдыё? Sora 2 (усё яшчэ)
- ✓Рэалістычны рух чалавека? Veo 3
- ✓Бюджэтныя абмежаванні? Pika 2.5 Turbo
"Лепшы" інструмент па-ранейшаму залежыць ад вашага канкрэтнага працоўнага працэсу. Але калі хтосьці спытае мяне, якая мадэль вырабляе відэа найвышэйшай якасці прама зараз, адказ больш ясны, чым месяц таму.
Шырэйшая карціна
Канкурэнцыя - гэта добра. Калі трыльённыя кампаніі не могуць абапірацца на свае рэсурсы, усе выйграюць ад больш хуткіх інавацый.
Што мяне хвалюе ў гэтым выніку - гэта не толькі перамога Runway. Гэта доказ таго, што прастора AI-відэа яшчэ не кансалідавалася. Маленькая, сфакусаваная каманда ўсё яшчэ можа канкурыраваць на найвышэйшым узроўні. Гэта азначае, што мы, верагодна, убачым працягванне агрэсіўных інавацый ад усіх гульцоў, а не рынак, дзе дамінуе той, хто мае больш за ўсіх GPU.
Наступныя некалькі месяцаў будуць цікавымі. Google і OpenAI не прымуць 7-е месца ціха. Runway давядзецца працягваць штурхаць. І дзесьці іншая маленькая каманда, верагодна, будуе нешта, што здзівіць усіх.
Мой прагноз
Да сярэдзіны 2026 года мы будзем глядзець на снежань 2025 як на момант, калі генерацыя AI-відэа сапраўды стала канкурэнтнай. Не ў сэнсе "тры прыстойныя варыянты", а ў сэнсе "шматлікія кампаніі падштурхоўваюць адзін аднаго выпускаць лепшыя прадукты хутчэй".
Што наперадзе:
- Натыўнае аўдыё ад большай колькасці мадэляў
- Большая працягласць кліпаў
- Лепшая сімуляцыя фізікі
- Генерацыя ў рэальным часе
Што не зменіцца:
- Канкурэнцыя стымулюе інавацыі
- Маленькія каманды б'юць вышэй сваёй вагі
- Спецыфіка выпадкаў выкарыстання мае значэнне
Інструменты, якія выйдуць у канцы 2026 года, зробяць Gen-4.5 прымітыўным. Але прама зараз, у гэты момант снежня 2025 года, Runway трымае карону. І гэта гісторыя, якую варта расказаць: каманда са 100 чалавек, якая апярэдзіла гігантаў.
Калі вы будуеце з AI-відэа, гэта лепшы час для эксперыментаў. Інструменты дастаткова добрыя, каб быць карыснымі, дастаткова канкурэнтныя, каб працягваць удасканальвацца, і дастаткова даступныя, каб паспрабаваць усе. Выберыце той, які адпавядае вашаму працоўнаму працэсу, і пачніце тварыць.
Будучыня відэа пішацца прама зараз, адно пакаленне за раз.
Гэты артыкул быў карысны?

Henry
Творчы тэхнолагТворчы тэхнолаг з Лазаны, які даследуе сутыкненне ШІ і мастацтва. Эксперыментуе з генератыўнымі мадэлямі паміж сеансамі электроннай музыкі.
Звязаныя артыкулы
Працягвайце даследаванне з гэтымі звязанымі допісамі

Pika 2.5: Даступнае AI-відэа праз хуткасць, кошт і інструменты
Pika Labs выпускае версію 2.5 з хуткай генерацыяй, паляпшанай фізікай і інструментамі як Pikaframes і Pikaffects для працы з відэа.

Adobe і Runway аб'ядноўваюць сілы: Што азначае партнёрства Gen-4.5 для стваральнікаў відэа
Adobe толькі што зрабіла Gen-4.5 ад Runway асновай AI-відэа ў Firefly. Гэты стратэгічны саюз перабудоўвае творчыя працоўныя працэсы для прафесіяналаў, студый і брэндаў па ўсім свеце.

Мадэлі свету: наступны рубеж у генерацыі відэа з дапамогай ШІ
Чаму пераход ад генерацыі кадраў да сімуляцыі свету змяняе AI-відэа, і што рэліз Runway GWM-1 кажа пра тое, куды рухаецца тэхналогія.