Meta Pixel
HenryHenry
6 min read
1029 слоў

Runway Gen-4.5 на вяршыні: як 100 інжынераў абышлі Google і OpenAI

Runway толькі што заняла першае месца на Video Arena з Gen-4.5, даказваючы, што невялікая каманда можа перамагчы трыльённых гігантаў у генерацыі AI-відэа.

Runway Gen-4.5 на вяршыні: як 100 інжынераў абышлі Google і OpenAI

Стартап са 100 чалавек толькі што забраў карону ў Google і OpenAI. Мадэль Gen-4.5 ад Runway заняла першае месца ў табліцы лідараў Video Arena на гэтым тыдні, і наступствы неверагодныя.

Перамога аўтсайдара, якая не павінна была адбыцца

Дазвольце апісаць сітуацыю. З аднаго боку: Google DeepMind з Veo 3, падтрыманы магутнымі вылічальнымі рэсурсамі і адным з найбуйнейшых наборaў відэаданых на планеце (YouTube). З другога: OpenAI з Sora 2, які едзе на хвалі дамінавання ChatGPT і мільярдах фінансавання. А дзесьці пасярэдзіне: Runway, з асноўнай камандай каля 100 інжынераў, якія працуюць над Gen-4.5, і долькай рэсурсаў.

Здагадайцеся, хто на вяршыні?

#1
Рэйтынг Video Arena
~100
Каманда Gen-4.5
$1T+
Капіталізацыя канкурэнтаў

CEO Runway Крыстобаль Валенсуэла сказаў прама: "Нам удалося перамагчы трыльённыя кампаніі камандай са 100 чалавек." Гэта не PR. Гэта кажа табліца лідараў Video Arena.

Што сапраўды паказвае Video Arena

💡

Video Arena выкарыстоўвае сляпую ацэнку людзьмі, дзе суддзі параўноўваюць відэа без ведання, якая мадэль іх стварыла. Гэта найбольш аб'ектыўны эталон якасці для генерацыі AI-відэа.

Табліца лідараў важная, бо яна выдаляе маркетынг з раўнання. Ніякіх старанна падабраных дэма. Ніякіх дбайліва адабраных прыкладаў. Толькі ананімныя вынікі, бок аб бок, ацэненыя тысячамі людзей.

І Gen-4.5 сядзіць на вяршыні.

Асабліва цікава, дзе апынуўся Sora 2 Pro ад OpenAI: 7-е месца. Гэта мадэль ад кампаніі з 30-кратнымі рэсурсамі, якая апусцілася на 7-е месца. Разрыў паміж хайпам і прадукцыйнасцю ніколі не быў больш бачным.

Што сапраўды прыносіць Gen-4.5

Дазвольце расказаць, што Runway выпусціла з гэтым абнаўленнем:

🎯

Палепшанае выкананне падказак

Мадэль лепш разумее складаныя шматкампанентныя інструкцыі, чым папярэднія версіі. Пазначце рух камеры, настрой асвятлення і дзеянне персанажа ў адной падказцы, і яна сапраўды дастаўляе ўсе тры.

🎨

Палепшаная візуальная якасць

Больш выразныя дэталі, лепшая часавая паслядоўнасць, менш артэфактаў. Звычайныя паляпшэнні для любога буйнога абнаўлення, але паляпшэнне заўважна ў рэальных тэстах.

Хутчэйшая генерацыя

Час генерацыі значна скараціўся ў параўнанні з Gen-4. Для вытворчых працоўных працэсаў, дзе важная хуткасць ітэрацыі, гэта хутка назапашваецца.

Моцныя бакі Gen-4.5
  • Найвышэйшая візуальная якасць у сляпых тэстах
  • Палепшаная фізіка і паслядоўнасць руху
  • Лепшая апрацоўка складаных сцэн
  • Моцная паслядоўнасць персанажаў паміж кадрамі
Кампрамісы
  • Усё яшчэ без натыўнага аўдыё (перавага Sora 2)
  • Максімальная даўжыня кліпа не змянілася
  • Прэміум-цэны для актыўных карыстальнікаў

Разрыў у натыўным аўдыё застаецца. Sora 2 генеруе сінхранізаванае аўдыё за адзін праход, у той час як карыстальнікам Runway па-ранейшаму патрэбны асобныя працоўныя працэсы для аўдыё. Для некаторых крэатараў гэта вырашальны фактар. Для іншых, хто працуе ў постпрадакшн-пайплайнах, перавага ў візуальнай якасці важнейшая.

Чаму перамагла маленькая каманда

Вось што, верагодна, адбылося, з наступствамі па-за AI-відэа.

Вялікія арганізацыі аптымізуюць іншыя рэчы, чым маленькія. Google і OpenAI будуюць платформы, кіруюць масіўнай інфраструктурай, лавіруюць ва ўнутранай палітыцы і выпускаюць прадукты па дзясятках напрамкаў адначасова. Runway будуе адну рэч: найлепшую мадэль генерацыі відэа, якую яны могуць зрабіць.

💡

Фокус перамагае рэсурсы, калі праблема дакладна вызначана. Генерацыя AI-відэа па-ранейшаму застаецца сфакусаванай тэхнічнай задачай, а не шырокай гульнёй экасістэмы.

Runway таксама ў гэтай канкрэтнай гульні даўжэй за ўсіх. Яны выпусцілі Gen-1 да таго, як Sora існаваў. Гэтыя інстытуцыйныя веды, гэтае назапашанае разуменне таго, што робіць генерацыю відэа працуючай, кампануецца з часам.

Рэакцыя рынку

Прагназуецца, што рынак генерацыі AI-відэа вырасце з $716,8 мільёнаў у 2025 годзе да $2,56 мільярда да 2032 года, што складае 20% складаных гадавых тэмпаў росту. Гэты рост мяркуе, што канкурэнцыя працягне стымуляваць інавацыі.

Бягучы ландшафт (снежань 2025):

  • Runway Gen-4.5: #1 на Video Arena, моцны для камерцыйнай/творчай працы
  • Sora 2: Перавага натыўнага аўдыё, але 7-е месца па візуальнай якасці
  • Veo 3: Найлепшы рух чалавека, інтэграваны з экасістэмай Google
  • Pika 2.5: Найлепшае суадносіны кошту і якасці, хуткі турба-рэжым
  • Kling AI: Моцны захоп руху, убудаваная генерацыя гуку

Што змянілася нават з тыдня таму, гэта яснасць рэйтынгу. Да Gen-4.5 можна было сцвярджаць, што любы з тройкі лідараў быў "лепшым" у залежнасці ад вашых крытэрыяў. Цяпер ёсць відавочны лідар па эталону, нават калі іншыя маюць перавагі па функцыях.

Што гэта значыць для крэатараў

Калі вы выбіраеце асноўны інструмент AI-відэа прама зараз, вось мая абноўленая думка:

  • Візуальная якасць у прыярытэце? Runway Gen-4.5
  • Патрэбна інтэграванае аўдыё? Sora 2 (усё яшчэ)
  • Рэалістычны рух чалавека? Veo 3
  • Бюджэтныя абмежаванні? Pika 2.5 Turbo

"Лепшы" інструмент па-ранейшаму залежыць ад вашага канкрэтнага працоўнага працэсу. Але калі хтосьці спытае мяне, якая мадэль вырабляе відэа найвышэйшай якасці прама зараз, адказ больш ясны, чым месяц таму.

Шырэйшая карціна

⚠️

Канкурэнцыя - гэта добра. Калі трыльённыя кампаніі не могуць абапірацца на свае рэсурсы, усе выйграюць ад больш хуткіх інавацый.

Што мяне хвалюе ў гэтым выніку - гэта не толькі перамога Runway. Гэта доказ таго, што прастора AI-відэа яшчэ не кансалідавалася. Маленькая, сфакусаваная каманда ўсё яшчэ можа канкурыраваць на найвышэйшым узроўні. Гэта азначае, што мы, верагодна, убачым працягванне агрэсіўных інавацый ад усіх гульцоў, а не рынак, дзе дамінуе той, хто мае больш за ўсіх GPU.

Наступныя некалькі месяцаў будуць цікавымі. Google і OpenAI не прымуць 7-е месца ціха. Runway давядзецца працягваць штурхаць. І дзесьці іншая маленькая каманда, верагодна, будуе нешта, што здзівіць усіх.

Мой прагноз

Да сярэдзіны 2026 года мы будзем глядзець на снежань 2025 як на момант, калі генерацыя AI-відэа сапраўды стала канкурэнтнай. Не ў сэнсе "тры прыстойныя варыянты", а ў сэнсе "шматлікія кампаніі падштурхоўваюць адзін аднаго выпускаць лепшыя прадукты хутчэй".

Што наперадзе:

  • Натыўнае аўдыё ад большай колькасці мадэляў
  • Большая працягласць кліпаў
  • Лепшая сімуляцыя фізікі
  • Генерацыя ў рэальным часе

Што не зменіцца:

  • Канкурэнцыя стымулюе інавацыі
  • Маленькія каманды б'юць вышэй сваёй вагі
  • Спецыфіка выпадкаў выкарыстання мае значэнне

Інструменты, якія выйдуць у канцы 2026 года, зробяць Gen-4.5 прымітыўным. Але прама зараз, у гэты момант снежня 2025 года, Runway трымае карону. І гэта гісторыя, якую варта расказаць: каманда са 100 чалавек, якая апярэдзіла гігантаў.

Калі вы будуеце з AI-відэа, гэта лепшы час для эксперыментаў. Інструменты дастаткова добрыя, каб быць карыснымі, дастаткова канкурэнтныя, каб працягваць удасканальвацца, і дастаткова даступныя, каб паспрабаваць усе. Выберыце той, які адпавядае вашаму працоўнаму працэсу, і пачніце тварыць.

Будучыня відэа пішацца прама зараз, адно пакаленне за раз.

Гэты артыкул быў карысны?

Henry

Henry

Творчы тэхнолаг

Творчы тэхнолаг з Лазаны, які даследуе сутыкненне ШІ і мастацтва. Эксперыментуе з генератыўнымі мадэлямі паміж сеансамі электроннай музыкі.

Звязаныя артыкулы

Працягвайце даследаванне з гэтымі звязанымі допісамі

Спадабаўся гэты артыкул?

Адкрывайце больш ўзнасцаў і будзьце ў курсе нашага апошняга кантэнту

Runway Gen-4.5 на вяршыні: як 100 інжынераў абышлі Google і OpenAI