Runway Gen-4.5 al capdavant: Com 100 enginyers han superat Google i OpenAI
Runway acaba de reclamar el primer lloc a Video Arena amb Gen-4.5, demostrant que un petit equip pot superar gegants del trilió de dòlars en generació de vídeo amb IA.

Una startup de 100 persones acaba d'arrencar la corona a Google i OpenAI. El model Gen-4.5 de Runway ha reclamat la posició número 1 al rànquing de Video Arena aquesta setmana, i les implicacions són extraordinàries.
La victòria del desaventajat que no havia de passar
Deixeu-me plantejar l'escenari. D'una banda: Google DeepMind amb Veo 3, recolzat per recursos de computació massius i un dels conjunts de dades de vídeo més grans del planeta (YouTube). De l'altra: OpenAI amb Sora 2, aprofitant l'impuls del domini de ChatGPT i milers de milions en finançament. I en algun lloc entremig: Runway, amb un equip central d'uns 100 enginyers treballant en Gen-4.5 i una fracció dels recursos.
Endevineu qui està al capdavant?
El CEO de Runway, Cristóbal Valenzuela, ho va dir sense embuts: "Hem aconseguit superar empreses del trilió de dòlars amb un equip de 100 persones." Això no és màrqueting. Això és el que diu el rànquing de Video Arena.
Què ens diu realment Video Arena
Video Arena utilitza avaluació humana a cegues, on els jutges comparen vídeos sense saber quin model els ha creat. És el més proper que tenim a un referent de qualitat objectiu per a la generació de vídeo amb IA.
El rànquing importa perquè elimina el màrqueting de l'equació. Sense demos seleccionades curosament. Sense exemples triats amb cura. Només sortides anònimes, costat a costat, jutjades per milers d'humans.
I Gen-4.5 seu al capdamunt.
El que és particularment interessant és on ha acabat el Sora 2 Pro d'OpenAI: 7è lloc. Això és un model d'una empresa amb 30 vegades més recursos, caient al 7è lloc. La bretxa entre el bombo i el rendiment mai ha estat més visible.
Què aporta realment Gen-4.5
Permeteu-me detallar què ha llançat Runway amb aquesta actualització:
Seguiment de prompts millorat
El model entén instruccions complexes i multi-part millor que les versions anteriors. Especifica un moviment de càmera, un ambient d'il·luminació i una acció de personatge en un sol prompt, i realment lliura els tres.
Qualitat visual millorada
Detalls més nítids, millor consistència temporal, menys artefactes. Els sospitosos habituals per a qualsevol actualització important, però la millora és notable en proves del món real.
Generació més ràpida
Els temps de generació han caigut significativament en comparació amb Gen-4. Per a fluxos de treball de producció on la velocitat d'iteració importa, això s'acumula ràpidament.
- Qualitat visual al capdavant en proves a cegues
- Física i consistència de moviment millorades
- Millor gestió d'escenes complexes
- Forta consistència de personatges entre plans
- Encara sense àudio natiu (avantatge de Sora 2)
- Durada màxima del clip sense canvis
- Preus premium per a usuaris intensius
La bretxa d'àudio natiu roman. Sora 2 genera àudio sincronitzat en una sola passada, mentre que els usuaris de Runway encara necessiten fluxos de treball d'àudio separats. Per a alguns creadors, això és un factor decisiu. Per a altres que treballen en pipelines de postproducció, l'avantatge de qualitat visual importa més.
Per què ha guanyat el petit equip
Aquí teniu el que probablement ha passat, amb implicacions més enllà del vídeo amb IA.
Les grans organitzacions optimitzen coses diferents que les petites. Google i OpenAI estan construint plataformes, gestionant infraestructura massiva, navegant polítiques internes i llançant productes en desenes de línies simultàniament. Runway està construint una cosa: el millor model de generació de vídeo que puguin fer.
El focus supera els recursos quan el problema està ben definit. La generació de vídeo amb IA encara és un repte tècnic focalitzat, no una jugada d'ecosistema expansiu.
Runway també ha estat en aquest joc específic més temps que ningú altre. Van llançar Gen-1 abans que Sora existís. Aquest coneixement institucional, aquesta comprensió acumulada del que fa funcionar la generació de vídeo, es compon amb el temps.
La resposta del mercat
Es projecta que el mercat de generació de vídeo amb IA creixerà de 716,8 milions de dòlars el 2025 a 2,56 mil milions el 2032, una taxa de creixement anual compost del 20%. Aquest creixement assumeix que la competència continuarà impulsant la innovació.
Panorama actual (desembre 2025):
- Runway Gen-4.5: #1 a Video Arena, fort per a treball comercial/creatiu
- Sora 2: Avantatge d'àudio natiu, però 7è lloc en qualitat visual
- Veo 3: Millor moviment humà, integrat amb l'ecosistema de Google
- Pika 2.5: Millor opció de valor, mode turbo ràpid
- Kling AI: Fort en captura de moviment, generació de so integrada
El que ha canviat fins i tot des de fa una setmana és la claredat del rànquing. Abans de Gen-4.5, podies argumentar que qualsevol dels tres primers era el "millor" segons els teus criteris. Ara hi ha un líder de referència clar, encara que els altres tinguin avantatges en funcionalitats.
Què significa això per als creadors
Si estàs triant una eina de vídeo amb IA principal ara mateix, aquí tens la meva opinió actualitzada:
- ✓La qualitat visual és prioritat? Runway Gen-4.5
- ✓Necessites àudio integrat? Sora 2 (encara)
- ✓Moviment humà realista? Veo 3
- ✓Restriccions de pressupost? Pika 2.5 Turbo
La "millor" eina encara depèn del teu flux de treball específic. Però si algú em pregunta quin model produeix la sortida de vídeo de més alta qualitat ara mateix, la resposta és més clara que el mes passat.
El panorama general
La competència és bona. Quan les empreses del trilió de dòlars no poden descansar sobre els seus recursos, tothom es beneficia d'una innovació més ràpida.
El que m'emociona d'aquest resultat no és només que Runway hagi guanyat. És la prova que l'espai del vídeo amb IA encara no s'ha consolidat. Un equip petit i focalitzat encara pot competir al més alt nivell. Això significa que probablement veurem innovació agressiva continuada de tots els jugadors en lloc d'un mercat dominat per qui tingui més GPUs.
Els propers mesos seran interessants. Google i OpenAI no acceptaran el 7è lloc en silenci. Runway haurà de continuar empenyent. I en algun lloc, un altre equip petit probablement està construint alguna cosa que sorprendrà a tothom.
La meva predicció
A mitjan 2026, mirarem enrere al desembre de 2025 com el moment en què la generació de vídeo amb IA es va tornar veritablement competitiva. No en el sentit de "tres opcions decents", sinó en el sentit de "múltiples empreses empenyent-se mútuament per llançar millors productes més ràpidament".
Què ve:
- Àudio natiu de més models
- Durades de clip més llargues
- Millor simulació de física
- Generació en temps real
Què no canviarà:
- La competència impulsa la innovació
- Els petits equips superen el seu pes
- L'especificitat del cas d'ús importa
Les eines que es llancin a finals de 2026 faran que Gen-4.5 sembli primitiu. Però ara mateix, en aquest moment del desembre de 2025, Runway ostenta la corona. I aquesta és una història que val la pena explicar: l'equip de 100 persones que ha superat els gegants.
Si estàs construint amb vídeo IA, aquest és el millor moment per experimentar. Les eines són prou bones per ser útils, prou competitives per continuar millorant, i prou accessibles perquè les puguis provar totes. Tria la que s'adapti al teu flux de treball, i comença a crear.
El futur del vídeo s'està escrivint ara mateix, una generació cada vegada.
T'ha resultat útil aquest article?

Henry
Tecnòleg CreatiuTecnòleg creatiu de Lausana que explora on la IA es troba amb l'art. Experimenta amb models generatius entre sessions de música electrònica.
Articles relacionats
Continua explorant amb aquests articles relacionats

Pika 2.5: Democratitzant el vídeo amb IA a través de velocitat, preu i eines creatives
Pika Labs llança la versió 2.5, combinant generació més ràpida, física millorada i eines creatives com Pikaframes i Pikaffects per fer el vídeo amb IA accessible per a tothom.

Adobe i Runway uneixen forces: Què significa l'associació Gen-4.5 per als creadors de vídeo
Adobe acaba de convertir el Gen-4.5 de Runway en la columna vertebral del vídeo AI a Firefly. Aquesta aliança estratègica està redefinint els fluxos de treball creatius per a professionals, estudis i marques de tot el món.

Models del món: La propera frontera en generació de vídeo amb IA
Per què el canvi de generació de fotogrames a simulació de mons està remodelant el vídeo amb IA, i què ens diu el GWM-1 de Runway sobre on va aquesta tecnologia.