PixVerse R1: Сцяга адарытай эпохі відэо штучнага інтэлекту ў рэальным часе
Стартап PixVerse пры падтрымцы Alibaba прадставіў R1, першую сусветную мадэль, здольную генеруць відэа 1080p, якая миттэва адчуває дзеянні карыстальніка, адкрываючы дзверы да бесканечных гульняў і інтэрактыўнага кінематографа.

Што калі б відэа змогла адчуць вас прямо ў час сваей генерацыі? PixVerse имуў зрабіць гэта пытанне ўстарэлым, дадуўшы адказ.
13 студзеня 2026 года стартап PixVerse пры падтрымцы Alibaba прадставіў нешто, што выглядае не як абнаўленне прадукту, а як змена парадыгмы. R1 - гэта першая сусветная мадэль у рэальным часе, здольная генеруць відэа 1080p, якая миттэва адчуває дзеянні карыстальніка. Не пакетна. Не пасля прагрэс-бара. Прама зараз, пакуль вы глядзіце.
Генерацыя відэа ШІ ў рэальным часе азначае, што персанажы могуць плакаць, танцаваць, замёрзнуць або прыняць позу па каманде, са змяненнямі, якія відбываюцца миттэва, пакуль відэа прадолжае гратаць.
Ад пакетнай абработкі да бесканечных патокаў
Традыцыйная генерацыя відэа працуе так: вы пішаце запыт, чакаеце ад килька секунд да хвілін і атрымліваеце фіксаванны клік. Гэта паттэрн запыту-адказу, запазычаны з ранніх дзён генерацыі тэксту ў зображэнне. PixVerse R1 поўнасцю ламае гэту мадэль.
Сістэма пераўтворыць генерацыю відэа ў тое, што кампанія называе "бесканечным, бесперапынным і інтэрактыўным візуальным патокам". Нічога не чакаць. Няма заўпёрад вызначанай кінцавой кропкі. Вы кіруеце сцэнай падчас яе развіцця.
Тэхналагічная архітэктура за генерацыяй ў рэальным часе
Як зрабіць мадэлі дыфузіі дастаткова хуткімі для выкарыстання ў рэальным часе? PixVerse вырашыла гэту праблему праз тое, што яны называюць "часавым траектарным складаннем".
Стандартная выбарка дыфузіі патрабуе дзесяткаў ітэратыўных крокаў, кожны з якіх утачняе вывад ад шуму да сувязнага відэа. R1 сцягвае гэты працэс усяго да адна-чатырох крокаў праз прамое прадказанне. Вы жэртвуеце некаторай гнучкасцю генерацыі ради хуткасці, неабходнай для інтэрактыўнага выкарыстання.
Адказ ў рэальным часе дазваляе новыя прыложэнні, немажлівыя пры пакетнай генерацыі, такія як інтэрактыўныя наратывы і гульні са ШІ.
Прамое прадказанне дае менш кантролю над тонкай генерацыяй у параўнанні з поўнай выбаркай дыфузіі.
Базавая мадэль апісваецца PixVerse як "Усеахопная мультымадальная фундаментальная мадэль". Замест маршрутызацыі тэксту, зображэнняў, аўдыё і відэа праз адасобленыя этапы абработкі, R1 разглядае ўсе ўходныя даныя як адзіны паток токенаў. Гэты архітэктурны выбар ліквідуе затрымку перадачы, якая мучыць звычайныя мультымадальныя сістэмы.
Што гэта азначае для творцаў?
Вынікі выходзяць далёка за межы хутчэйшага рэндэрынга. Генерацыя ў рэальным часе дазваляе абсалютна новыя творчыя рабочыя працэсы.
Гульні на основе ШІ
Ўявіце гульні, дзе асяродданне і наратывы развіваюцца дынамічна ў адказ на дзеянні гравца, без папярэдне распрацаваных гісторый, без межаў контэнту.
Інтэрактыўны кінематограф
Мікрадрамы, дзе гледачы ўплывалі на развіццё гісторыі. Не "выбяры сваю прыгоду" з разгалінаванымі шляхамі, а бесперапынны нарыў, які перафармулюе сябе.
Жыва рэжысура
Рэжысёры могуць наладжваць сцэны ў рэальным часе, тэстуючы розныя эмацыянальныя рытмы, змены асвятлення ці дзеянні персанажаў без чакання пера рэндэрынга.
Кампэтытыўны ландшафт: дамінаванне Кітая ў ШІ відэа
PixVerse R1 ўсяляе тэндэнцыю, якая развівалася на працягу 2025 года: кітайскія каманды лідзяць у генерацыі відэа са ШІ. Па дадзеных фірмы Artificial Analysis, сем з восьмі лепшых мадэляў генерацыі відэа адходзяць ад кітайскіх кампаніяў. Толькі ізраільскі стартап Lightricks парушае гэты ряд.
Для глубшага поглёду на растучы ўплыў Кітая ў ШІ відэа глядзіце наш аналіз як кітайскія кампаніі пераформуляюць кампэтытыўны ландшафт.
"Sora яшчё вызначае стэлю якасці ў генерацыі відэа, але яна абмежавана часам генерацыі і вартасцю API," адзначае Вэй Сунь, галоўны аналітык у Counterpoint. PixVerse R1 атакуе менавіта гэтыя абмежаванні, прапаноўваючы іншую ценнасную прапозіцыю: не максімальную якасць, а максімальную рэактыўнасць.
| Метрыка | PixVerse R1 | Традыцыйныя мадэлі |
|---|---|---|
| Час адказу | Ў рэальным часе | Секунды да хвілін |
| Тривалість відэа | Бесканечны паток | Фіксаваныя кліпы (5-30с) |
| Узаемадзеянне карыстальніка | Бесперапынны | Запыт, потым чаканне |
| Роздзяльнасць | 1080p | Да 4K (пакет) |
Бізнэс відэа ў рэальным часе
PixVerse не проста ствараюць тэхналогію, яны ствараюць бізнэс. Кампанія паведаміла аб 40 мільёнах долараў у гадавым павторнаяцца даходзе ў кастрычніку 2025 года і выросла да 100 мільёнаў зарэгістраваных карыстальнікаў. Спаўзаснавальнік Джэйдэн Сай мае на мэце удвоіць гэту базу карыстальнікаў да 200 мільёнаў да сярэдзіны 2026 года.
Стартап залучыў больш за 60 мільёнаў долараў мінулай восьню ў раунде на чолі з Alibaba, за ўдзельніцтвам Antler. Гэты капітал раз вёртваецца агрэсіўна: чыслёнасць працаўнікаў можа амаль удвоіцца да 200 чалавек да канца года.
PixVerse заснавана
Кампанія запускаецца з акцэнтам на генерацыю відэа са ШІ.
100M карыстальнікаў
Платформа дасягае 100 мільёнаў зарэгістраваных карыстальнікаў.
Залучана $60M+
Раунд фінансавання на чолі з Alibaba пры $40M ARR.
Запуск R1
Першая сусветная мадэль ў рэальным часе запускаецца.
Спрабуйце самі
R1 даступна зараз на realtime.pixverse.ai, хаця доступ у данны момант толькі па запрошаннях, пакуль каманда масштабуе інфраструктуру. Калі вы назіралі за эвалюцыяй сусветных мадэляў ці эксперымэнтавалі з TurboDiffusion, R1 прадстаўляе логічны наступны крок: не проста хутчэйшая генерацыя, а прынцыпова іншая парадыгма узаемадзеяння.
Пытанне ўжо не ў тым, "як хутка ШІ можа генеруць відэа?" Пытанне звучыць так: "што становіцца магчымым, калі генерацыя відэа мае нулявую прыметную затрымку?" PixVerse імуў пачаць адказваць на гэта пытанне. Рэшта з нас наздаганяюць упушчанае.
Што дальш?
Генерацыя ў рэальным часе пры 1080p вражае, але траектарыя ясна: вышэй роздзяльнасць, дольшыя вокны кантэксту і глубшая мультымадальная інтэграцыя. Калі інфраструктура масштабуецца і тэхнікі, такія як часавое траектарнае складанне, улучшаюцца, мы можам убачыць генерацыю відэа ў рэальным часе 4K, якая стане звычайнай практыкай.
На на момант R1 - гэта доказ канцэпцыі, які таксама служыць выробничай сістэмай. Гэта паказвае, што лінія паміж "генерацыяй відэа" і "рэжысурай відэа" может размыцца да поўнага знікнення. Гэта не проста тэхналагічнае дасягненне. Гэта творчае.
Рэкамендаванае чытанне: Дзнайцеся, як трансфармацыя дыфузіі жывяць сучасную генерацыю відэа, ці вывучыце подход Runway да сусветных мадэляў для іншага погляду на інтэрактыўнае відэа.
Гэты артыкул быў карысны?

Henry
Творчы тэхнолагТворчы тэхнолаг з Лазаны, які даследуе сутыкненне ШІ і мастацтва. Эксперыментуе з генератыўнымі мадэлямі паміж сеансамі электроннай музыкі.
Звязаныя артыкулы
Працягвайце даследаванне з гэтымі звязанымі допісамі

Платформы AI Video Storytelling: як сэрыялізаваны кантэнт мяняе ўсё ў 2026
Ад асобных кліпаў да палнах серый, AI video эвалюцыёнуе ад інструменту генэрацыі ў мотар разказвання гісторый. Пазнаёміцца з платформамі, якія гэта ўцяляюць.

Сусветныя модэлі па-за відэа: чому гульні і робатэхніка - гэта сапраўдны полігон для AGI
Ад DeepMind Genie да AMI Labs, сусветныя модэлі становяцца асновай для ШІ, які сапраўды разумеюць фізіку. Рынак відэаігр вартасцю 500 млрд долараў можа стаць месцем іх першага даказаньня.

Veo 3.1 Ingredients to Video: Поўны дапаможнік для стварэння відэа з зображэнняў
Google інтэгруе функцыю Ingredients to Video непасрэдна ў YouTube Shorts і YouTube Create, дазваляючы аўтарам трансфармаваць да трох зображэнняў ў звязныя вертыкальныя відэа з падтрымкай масштабавання да 4K.