Runway Gen-4.5 raggiunge il primo posto: Come 100 ingegneri hanno superato Google e OpenAI
Runway ha appena conquistato la prima posizione su Video Arena con Gen-4.5, dimostrando che un team piccolo può competere con giganti da trilioni di dollari nella generazione video AI.

Una startup di 100 persone ha appena strappato la corona a Google e OpenAI. Il modello Gen-4.5 di Runway ha conquistato la posizione #1 nella classifica di Video Arena questa settimana, e le implicazioni sono straordinarie.
La vittoria dell'underdog che non sarebbe dovuta accadere
Lasciatemi descrivere la scena. Da una parte: Google DeepMind con Veo 3, supportato da enormi risorse di calcolo e uno dei più grandi dataset video del pianeta (YouTube). Dall'altra: OpenAI con Sora 2, che cavalca lo slancio del dominio di ChatGPT e miliardi di finanziamenti. E da qualche parte nel mezzo: Runway, con un team principale di circa 100 ingegneri che lavorano su Gen-4.5 e una frazione delle risorse.
Indovinate chi è in cima?
Il CEO di Runway, Cristóbal Valenzuela, lo ha detto senza mezzi termini: "Siamo riusciti a superare aziende da trilioni di dollari con un team di 100 persone." Non è propaganda. È la classifica di Video Arena che parla.
Cosa ci dice realmente Video Arena
Video Arena utilizza una valutazione umana in cieco, dove i giudici confrontano i video senza sapere quale modello li ha creati. È la cosa più vicina che abbiamo a un benchmark oggettivo di qualità per la generazione video AI.
La classifica è importante perché elimina il marketing dall'equazione. Nessuna demo selezionata. Nessun esempio accuratamente curato. Solo output anonimi, fianco a fianco, giudicati da migliaia di persone.
E Gen-4.5 è in cima.
Ciò che è particolarmente interessante è dove si è posizionato Sora 2 Pro di OpenAI: 7° posto. È un modello di un'azienda con 30 volte le risorse, sceso al 7° posto. Il divario tra hype e prestazioni non è mai stato così visibile.
Cosa porta realmente Gen-4.5
Lasciatemi spiegare cosa Runway ha rilasciato con questo aggiornamento:
Miglioramento nel seguire i prompt
Il modello comprende istruzioni complesse e multi-parte meglio delle versioni precedenti. Specificate un movimento della camera, un'atmosfera di illuminazione e un'azione del personaggio in un unico prompt, e il modello li esegue tutti e tre.
Qualità visiva migliorata
Dettagli più nitidi, migliore coerenza temporale, meno artefatti. I soliti sospetti per qualsiasi aggiornamento importante, ma il miglioramento è evidente nei test reali.
Generazione più veloce
I tempi di generazione sono diminuiti significativamente rispetto a Gen-4. Per i flussi di lavoro di produzione dove la velocità di iterazione conta, questo fa la differenza.
- Qualità visiva di primo livello nei test in cieco
- Miglioramento della fisica e della coerenza del movimento
- Migliore gestione di scene complesse
- Forte coerenza dei personaggi tra le inquadrature
- Ancora nessun audio nativo (vantaggio di Sora 2)
- Lunghezza massima del clip invariata
- Prezzi premium per gli utenti intensivi
Il divario dell'audio nativo rimane. Sora 2 genera audio sincronizzato in un'unica passata, mentre gli utenti di Runway necessitano ancora di flussi di lavoro audio separati. Per alcuni creatori, questo è un ostacolo insuperabile. Per altri che lavorano comunque in pipeline di post-produzione, il vantaggio della qualità visiva conta di più.
Perché il team piccolo ha vinto
Ecco cosa probabilmente è successo, con implicazioni oltre l'AI video.
Le grandi organizzazioni ottimizzano per cose diverse rispetto a quelle piccole. Google e OpenAI stanno costruendo piattaforme, gestendo infrastrutture enormi, navigando politiche interne e distribuendo su dozzine di linee di prodotto contemporaneamente. Runway sta costruendo una cosa: il miglior modello di generazione video che possono realizzare.
La concentrazione batte le risorse quando il problema è ben definito. La generazione video AI è ancora una sfida tecnica mirata, non un gioco di ecosistema espansivo.
Runway è anche in questo gioco specifico da più tempo di chiunque altro. Hanno rilasciato Gen-1 prima che Sora esistesse. Quella conoscenza istituzionale, quella comprensione accumulata di ciò che fa funzionare la generazione video, si accumula nel tempo.
La risposta del mercato
Il mercato della generazione video AI è previsto crescere da 716,8 milioni di dollari nel 2025 a 2,56 miliardi di dollari entro il 2032, un tasso di crescita annuale composto del 20%. Quella crescita presuppone che la competizione continui a guidare l'innovazione.
Panorama attuale (dicembre 2025):
- Runway Gen-4.5: #1 su Video Arena, forte per lavori commerciali/creativi
- Sora 2: Vantaggio dell'audio nativo, ma qualità visiva al 7° posto
- Veo 3: Miglior movimento umano, integrato con l'ecosistema Google
- Pika 2.5: Miglior rapporto qualità-prezzo, modalità turbo veloce
- Kling AI: Forte cattura del movimento, generazione audio integrata
Ciò che è cambiato rispetto a una settimana fa è la chiarezza della classifica. Prima di Gen-4.5, si poteva sostenere che uno qualsiasi dei primi tre fosse "il migliore" a seconda dei criteri. Ora c'è un leader di riferimento chiaro, anche se gli altri hanno vantaggi in termini di funzionalità.
Cosa significa questo per i creatori
Se state scegliendo uno strumento video AI principale in questo momento, ecco il mio parere aggiornato:
- ✓La qualità visiva è prioritaria? Runway Gen-4.5
- ✓Servono audio integrati? Sora 2 (ancora)
- ✓Movimento umano realistico? Veo 3
- ✓Vincoli di budget? Pika 2.5 Turbo
Lo strumento "migliore" dipende ancora dal vostro flusso di lavoro specifico. Ma se qualcuno mi chiede quale modello produce l'output video di qualità più alta in questo momento, la risposta è più chiara di quanto non fosse il mese scorso.
Il quadro generale
La competizione è positiva. Quando le aziende da trilioni di dollari non possono riposare sulle loro risorse, tutti beneficiano di un'innovazione più rapida.
Ciò che mi entusiasma di questo risultato non è solo la vittoria di Runway. È la prova che lo spazio video AI non si è ancora consolidato. Un team piccolo e concentrato può ancora competere al livello più alto. Ciò significa che probabilmente vedremo un'innovazione aggressiva continua da parte di tutti i player piuttosto che un mercato dominato da chi ha più GPU.
I prossimi mesi saranno interessanti. Google e OpenAI non accetteranno il 7° posto in silenzio. Runway dovrà continuare a spingere. E da qualche parte, un altro team piccolo sta probabilmente costruendo qualcosa che sorprenderà tutti.
La mia previsione
Entro metà 2026, guarderemo indietro a dicembre 2025 come al momento in cui la generazione video AI è diventata veramente competitiva. Non nel senso di "tre opzioni decenti", ma nel senso di "più aziende che si spingono a vicenda a fornire prodotti migliori più velocemente".
Cosa sta arrivando:
- Audio nativo da più modelli
- Durate dei clip più lunghe
- Migliore simulazione fisica
- Generazione in tempo reale
Cosa non cambierà:
- La competizione guida l'innovazione
- Team piccoli che superano il loro peso
- La specificità dei casi d'uso conta
Gli strumenti che verranno rilasciati alla fine del 2026 faranno sembrare primitivo Gen-4.5. Ma proprio ora, per questo momento di dicembre 2025, Runway detiene la corona. Ed è una storia che vale la pena raccontare: il team di 100 persone che ha superato i giganti.
Se state costruendo con video AI, questo è il momento migliore per sperimentare. Gli strumenti sono abbastanza buoni da essere utili, abbastanza competitivi da continuare a migliorare e abbastanza accessibili da permettervi di provarli tutti. Scegliete quello che si adatta al vostro flusso di lavoro e iniziate a creare.
Il futuro del video si sta scrivendo proprio ora, una generazione alla volta.
Questo articolo ti è stato utile?

Henry
Tecnologo CreativoTecnologo creativo di Losanna che esplora l'incontro tra IA e arte. Sperimenta con modelli generativi tra sessioni di musica elettronica.
Articoli correlati
Continua a esplorare con questi articoli correlati

Pika 2.5: Democratizzare il Video IA attraverso Velocità, Prezzo e Strumenti Creativi
Pika Labs rilascia la versione 2.5, combinando generazione più rapida, fisica migliorata e strumenti creativi come Pikaframes e Pikaffects per rendere il video IA accessibile a tutti.

Adobe e Runway uniscono le forze: cosa significa la partnership Gen-4.5 per i creatori video
Adobe ha appena reso Gen-4.5 di Runway il motore video IA in Firefly. Questa alleanza strategica ridefinisce i flussi di lavoro creativi per professionisti, studi e brand in tutto il mondo.

CraftStory Model 2.0: Come la Diffusione Bidirezionale Sblocca Video AI da 5 Minuti
Mentre Sora 2 si ferma a 25 secondi, CraftStory ha appena lanciato un sistema che genera video coerenti di 5 minuti. Il segreto? Eseguire più motori di diffusione in parallelo con vincoli bidirezionali.