PixVerse R1: Zora videa AI v realnem času interaktivnega
Podjetje PixVerse s podporo Alibabe razkriva R1, prvi svetovni model sposoben generiranja videa 1080p, ki se takoj odziva na vhod uporabnika, odpirajoč vrata neskončnim igram in interaktivnemu kinu.

Kaj, če bi se video lahko odzval na tebe, medtem ko se je še vedno generiral? PixVerse je pravkar to vprašanje naredila nepotrebno z odgovorom nanj.
- januarja 2026 je startup s podporo Alibabe PixVerse predstavil nekaj, kar je videti kot sprememba paradigme bolj kot kot ažuriranje proizvoda. R1 je prvi svetni model v realnem času sposoben generiranja videa 1080p, ki se takoj odziva na vhod uporabnika. Ne v serijah. Ne potem, ko je vrstica napredka. Pravkar zdaj, medtem ko gledaš.
Generiranje videa AI v realnem času pomeni, da lahko liki na ukaz jočejo, plešejo, zmrzujejo ali zavzemajo pozo, s spremembami, ki se dogajajo takoj, medtem ko se video še vedno odvija.
Od obdelave serij do neskončnih tokov
Tradicionalno generiranje videa deluje takole: napišeš poziv, počakaš nekaj sekund do minut, nato pa dobiš fiksni klip. To je vzor zahtevek-odgovor, izposojen iz zgodnjih dni generiranja teksta v sliko. PixVerse R1 ta vzor popolnoma razrušuje.
Sistem pretvori generiranje videa v tisto, kar podjetje imenuje "neskončni, neprekinjen in interaktivni vizualni tok". Tu ni čakanja. Tu ni vnaprej določene končne točke. Režiraš prizor, medtem ko se odvija.
Tehnična arhitektura za generiranje v realnem času
Kako narediti modele difuzije dovolj hitre za uporabo v realnem času? PixVerse je to rešila s tem, kar imenuje "prepogib časovne trajektorije".
Standardno vzorčenje difuzije zahteva ducat iterativnih korakov, od katerih vsak izboljša izhod od hrupa k koherentnem videu. R1 to zmanjša na samo en do štiri koraki z neposrednim napovedovanjem. Žrtvuješ nekaj fleksibilnosti generiranja za hitrost, potrebno za interaktivno uporabo.
Odgovor v realnem času omogoča nove aplikacije, nemogoče s serijskim generiranjem, kot so interaktivne pripovedi in igre, domače za AI.
Neposredno napovedovanje ponuja manjši nadzor nad finim generiranjem v primerjavi s popolnim vzorčenjem difuzije.
Osnovni model je tisto, kar PixVerse opisuje kot "Omni Native Multimodal Foundation Model". Namesto usmerjanja besedila, slik, zvoka in videa skozi ločene faze obdelave, R1 obravnava vse vhode kot enotok enotnih žetonov. Ta arhitekturna izbira odpravi zakasnjevanje prenosov, ki muči konvencionalne multimodalne sisteme.
Kaj to pomeni za ustvarjalce?
Posledice presegajo samo hitrejše upodabljanje. Generiranje v realnem času omogoča popolnoma nove ustvarjalne delovne tokove.
Igre, domače za AI
Predstavljaj si igre, kjer se okolje in zgodbe razvijajo dinamično kot odziv na dejanja igralca, brez vnaprej zasnovan zgodbe, brez meja vsebine.
Interaktivni kino
Mikrodrame, kjer gledalci vplivajo na razvoj zgodbe. Ne izbira svoje lastne avanture z vejitimi potmi, temveč neprekinjena zgodba, ki se transformira.
Režija v neposrednem prenosu
Režiserji lahko prilagajajo prizore v realnem času, testirajo različne čustvene udarce, spremembe osvetlitve ali dejanja likov brez čakanja na upodabljanje.
Konkurenčni krajobraz: Kitajska prevlada v videu AI
PixVerse R1 krepi vzorec, ki se je gradil vse leto 2025: kitajske ekipe vodijo v generiranju videa AI. Glede na benchmarkingsko podjetje Artificial Analysis sedem od osmih najboljših modelov generiranja videa prihaja od kitajskih podjetij. Samo izraelski startup Lightricks prekine niz.
Za globji pogled na rastoči vpliv Kitajske na video AI si oglejte našo analizo kako kitajska podjetja preoblikujejo konkurenčni krajobraz.
"Sora še vedno definira strop kakovosti v generiranju videa, vendar je omejena s časom generiranja in stroški API-ja", opominja Wei Sun, glavni analitik v Counterpoint. PixVerse R1 napada točno ta omejena, pri čemer ponuja drugačno vrednostno ponudbo: ne maksimalno kakovost, temveč maksimalno odzivnost.
| Metrika | PixVerse R1 | Tradicionalni modeli |
|---|---|---|
| Čas odgovora | Realni čas | Sekunde do minut |
| Dolžina videa | Neskončni tok | Fiksni klipci (5-30s) |
| Interakcija uporabnika | Neprekinjena | Poziv, nato pa čakanje |
| Ločljivost | 1080p | Do 4K (serija) |
Poslovanje videa v realnem času
PixVerse ne samo gradi tehnologijo, gradi posodobitev. Podjetje je prijavilo 40 milijonov dolarjev letnih ponavljajočih se prihodkov v oktobru 2025 in je odraslo na 100 milijonov registriranih uporabnikov. Sodsovatelj Jaden Xie si prizadeva, da bi se to podlago uporabnikov podvojil na 200 milijonov do sredine leta 2026.
Startup je zbral več kot 60 milijonov dolarjev jeseni v kolu, ki ga vodi Alibaba, s sodelovanjem Antler. Ta kapital se agresivno nadbira: številka zaposlenih bi se lahko skoraj podvojila na 200 oseb do konca leta.
Ustanovitev PixVerse
Podjetje se zažene s fokusom na generiranje videa AI.
100M uporabnikov
Platforma doseže 100 milijonov registriranih uporabnikov.
Zbrali $60M+
Kolo financiranja, ki ga vodi Alibaba, na 40M ARR.
Proženje R1
Prvi svetni model v realnem času gre v proizvodnjo.
Poskusi sám
R1 je na voljo zdaj na realtime.pixverse.ai, čeprav je dostop trenutno samo na povabilo, medtem ko ekipa skalira infrastrukturo. Če si sledil razvoj svetovnih modelov ali eksperimentiral s TurboDiffusion, R1 predstavlja logičen naslednji korak: ne samo hitrejše generiranje, temveč temeljno drugačen paradigma interakcije.
Vprašanje ni več "kako hitro lahko AI generira video?" Vprašanje je "kaj postane mogoče, ko ima generiranje videa nič zaznavnega zakasnjevanja?" PixVerse je pravkar začel odgovarjati na to vprašanje. Ostali se trudimo ujeti na.
Kaj je naslednje?
Generiranje v realnem času v 1080p je imponujuče, vendar je trajektorija jasna: višja ločljivost, daljša okna konteksta in globlja multimodalna integracija. Ko infrastruktura skalira in tehnike, kot je prepogib časovne trajektorije, spoznevajo, lahko vidimo, kako 4K generiranje v realnem času postane rutinsko.
Za zdaj je R1 dokaz koncepta, ki se podvaja kot proizvodni sistem. Kaže, da se lahko meja med "generiranjem videa" in "režijo videa" zameglja, dokler popolnoma ne izgine. To ni samo tehnično dosežek. To je ustvarjalni dosežek.
Povezano branje: Preberite, kako difuzni transformatorji napajajo moderno generiranje videa, ali raziščite pristop Runway k svetovnim modelom za drugačen pogled na interaktivno video.
Vam je bil ta članek v pomoč?

Henry
Ustvarjalni TehnologUstvarjalni tehnolog iz Lausanne, ki raziskuje, kje se UI srečuje z umetnostjo. Eksperimentira z generativnimi modeli med sesjami elektronske glasbe.
Sorodni članki
Nadaljujte raziskovanje s temi sorodnimi objavami

Runway GWM-1: Splošni model sveta, ki simulira resničnost v realnem času
Runway-ev GWM-1 označuje prelomnico, prehod iz generiranja videoposnetkov v simulacijo svetov. Raziščite, kako ta avtoregresivni model ustvarja okolja, ki jih lahko raziskujete, fotorealistične avatarje in simulacije za treniranje robotov.

Yann LeCun zapušča Meto, da bi stavil 3,5 milijarde dolarjev na svetovne modele
Dobitnik Turingove nagrade ustanovi AMI Labs, nov startup, osredotočen na svetovne modele namesto LLM-jev, s ciljem robotike, zdravstva in razumevanja videa.

Simulacija fizike v AI videu: Kako so se modeli končno naučili spoštovati resničnost
Od teleportiranih košarkarskih žog do realističnih odbojev, AI video modeli zdaj razumejo gravitacijo, zagon in dinamiko materialov. Raziskujemo tehnične preboje, ki to omogočajo.