Vídeo AI 2025: L'any que tot va canviar
De Sora 2 a l'àudio natiu, dels acords milionaris amb Disney als equips de 100 persones que van superar gegants trilionaris, 2025 va ser l'any que el vídeo AI va esdevenir real. Descobreix què va passar i què significa.

Fa tres anys, el vídeo AI era una curiositat. Fa dos anys, era una promesa. Aquest any, es va convertir en realitat. 2025 va ser el punt d'inflexió, l'any en què la generació de vídeo AI va passar de "demostració impressionant" a "utilitzo això a la feina". Deixa'm guiar-te pels moments més importants, els guanyadors, les sorpreses i què significa tot això per al 2026.
L'any en xifres
Aquestes xifres, provinents d'informes del sector per Zebracat i analistes de mercat, expliquen una història: la generació de vídeo AI va passar d'experimental a essencial. Però les xifres no capturen la textura. Deixa'm pintar la imatge completa.
1r trimestre: El moment Sora 2
L'any va començar amb força. OpenAI finalment va llançar Sora 2, i durant un moment, semblava que el joc havia acabat. Generació d'àudio natiu. Física que realment tenia sentit. Un model que comprenia causa i efecte de maneres que semblaven gairebé inquietants.
Sora 2 va ser el primer model a generar àudio i vídeo sincronitzats en una sola passada. Això sona tècnic, però l'experiència va ser transformadora: no més afegir so després, no més problemes de sincronització, només escenes audiovisuals completes a partir de text.
Internet es va tornar boig. "El moment GPT per al vídeo" es va convertir en el titular. Els estudis van començar revisions internes. Els creadors van començar experiments. Tothom esperava veure si la qualitat de la demostració es mantindria en producció.
En la seva majoria, sí que ho va fer.
2n trimestre: La competència s'encén
Llavors les coses es van posar interessants. Google va llançar Veo 3, després Veo 3.1 en Flow. Runway va llançar Gen-4, després Gen-4.5. Pika va continuar iterant. Luma va avançar cap a funcions de producció. Kling va sortir de la nada amb generació multimodal unificada.
Llançament públic de Sora 2
OpenAI porta l'àudio-vídeo natiu a les masses
Llançament de Veo 3
Google respon amb millor moviment humà
Aparició de Gen-4
Runway es centra en la qualitat cinematogràfica
Explosió de codi obert
LTX-Video, HunyuanVideo porten vídeo AI a GPU de consumidor
Consistència de personatges resolta
Diversos models aconsegueixen identitat fiable de personatges entre talls
Gen-4.5 pren el núm. 1
Un equip de 100 persones supera empreses trilionàries
A mitjans d'any, els articles de comparació eren a tot arreu. Quin model és el millor? Depenia del que necessitessis. Això en si mateix era notable: vam passar de "el vídeo AI existeix" a "quina eina de vídeo AI s'adapta al meu flux de treball" en mesos.
La sorpresa del codi obert
Potser el desenvolupament més inesperat: els models de codi obert van esdevenir genuïnament competitius.
LTX-Video
Pesos oberts, funciona en GPU de consumidor, qualitat competitiva. Lightricks va regalar el que altres cobraven.
HunyuanVideo
La contribució de Tencent. 14GB de VRAM, resultats capaços de producció.
ByteDance Vidi2
12 mil milions de paràmetres, capacitats de comprensió i edició, totalment obert.
Per primera vegada, podries generar vídeo AI de qualitat professional sense enviar les teves dades a un servei al núvol. Per a empreses amb requisits de privacitat, per a investigadors que necessiten transparència, per a creadors que volen control total, això ho va canviar tot.
L'acord amb Disney: La propietat intel·lectual es fa real
Llavors va passar Disney. Al desembre, Disney va anunciar una associació històrica amb OpenAI:
Disney llicenciant més de 200 personatges a Sora va ser el moment en què el vídeo AI va esdevenir un mitjà creatiu legítim per a la indústria de l'entreteniment. Mickey Mouse. Spider-Man. Baby Yoda. El titular de propietat intel·lectual més protector del planeta va dir: aquesta tecnologia està preparada.
Les implicacions encara s'estan desenvolupant. Però el senyal va ser clar. Els estudis ja no lluiten contra el vídeo AI. Estan averiguant com posseir una part d'això.
La història de David vs Goliat
La meva història preferida del 2025: Runway Gen-4.5 prenent el lloc núm. 1 al Video Arena. Un equip de 100 persones va superar Google i OpenAI. En vídeo. El 2025.
Gen-4.5 va reclamar la corona mitjançant avaluació humana cega al tauler de classificació de Video Arena, empenyent Sora 2 Pro al setè lloc. Setè. L'equip del CEO Cristobal Valenzuela va demostrar que la focalització supera els recursos quan el problema està ben definit.
Això és important més enllà del tauler de classificació. Significa que el vídeo AI no és un mercat on el guanyador s'ho emporta tot. Significa que la innovació pot venir de qualsevol lloc. Significa que les eines continuaran millorant perquè ningú es pot permetre descansar.
Àudio natiu: L'era del silenci s'acaba
Recordes quan el vídeo AI era silenciós? Quan havies de generar clips, després afegir so manualment, després arreglar problemes de sincronització?
2025 va acabar amb això. L'era silenciosa del vídeo AI ha acabat.
- Generar vídeo silenciós
- Exportar a editor d'àudio
- Trobar o generar efectes de so
- Sincronitzar àudio manualment
- Arreglar problemes de temps
- Tornar a renderitzar
- Descriure escena
- Generar audiovisual complet
- Fet
Sora 2, Veo 3.1, Kling O1 tots s'envien amb àudio natiu. Runway segueix sent l'excepció, però fins i tot ells es van associar amb Adobe per accedir a eines d'àudio de l'ecosistema.
Això no va ser una millora incremental. Va ser un canvi de categoria.
Les cadenes de producció es transformen
Els avenços tècnics es van traduir en revolució del flux de treball.
Què va canviar (segons investigació de Zebracat):
- El 62% dels professionals del màrqueting reporten més del 50% d'estalvi de temps en producció de vídeo
- El 68% de les PIME van adoptar eines de vídeo AI, citant l'accessibilitat
- El contingut sense rostre es va convertir en l'estratègia de creador amb més ROI
- La IA gestiona el 80-90% del treball d'edició inicial
L'adopció empresarial va accelerar-se. Les empreses van deixar d'executar pilots i van començar a integrar la IA en la producció principal. Els equips de màrqueting que van resistir el 2024 no van tenir elecció el 2025, mentre els competidors es movien més ràpid.
La pila tecnològica madura
Més enllà de la generació, l'ecosistema de suport va créixer:
- ✓Consistència de personatges resolta: La mateixa persona a través de múltiples talls
- ✓Extensió de vídeo: Expandir clips més enllà dels límits de generació
- ✓Millora de resolució: Resolució millorada per IA per a qualsevol font
- ✓Generació basada en referències: Bloquejar aparença del subjecte a través d'escenes
- ✓Control de fotogrames d'inici/fi: Definir límits, la IA omple el mig
Eines com Luma Ray3 Modify et permeten transformar imatges filmades mentre preserves les actuacions. L'extensió de vídeo i la millora de resolució es van convertir en funcions estàndard. La infraestructura va posar-se al dia amb la capacitat de generació.
Guanyadors i perdedors
Deixa'm dir-ho tal com ho veig:
Guanyadors:
- Runway (Gen-4.5, associació Adobe)
- Luma Labs (900M$ finançament, Ray3)
- Comunitat de codi obert (LTX, HunyuanVideo)
- Creadors independents (eines democratitzades)
- Estudis que adopten IA (Disney liderant)
Perdedors:
- Empreses tradicionals de vídeo d'arxiu
- Adoptants tardans (bretxa augmentant)
- Ecosistemes tancats (codi obert es va posar al dia)
- Qualsevol esperant la "perfecció" (prou bo va arribar)
Què vam entendre malament
Mirant enrere a les prediccions de principis de 2025:
Predicció: Sora 2 dominaria durant tot l'any. Realitat: Gen-4.5 va prendre la corona al desembre. La competència va ser més ferotge del previst.
Predicció: El codi obert es mantindria una generació endarrere. Realitat: Els models de GPU de consumidor van aconseguir qualitat de producció al 3r trimestre.
Predicció: Els estudis resistirien el vídeo AI. Realitat: Disney va invertir mil milions de dòlars al gener. La resistència es va esfondrar més ràpid del que qualsevol esperava.
Què té reservat el 2026
Basant-me en tot el que he vist aquest any:
Generació més llarga
Els clips de 10 segons són la norma ara. La generació contínua de 60 segons és la pròxima frontera. Diversos equips estan a prop.
Generació en temps real
La IA de jocs com NitroGen de NVIDIA suggereix el que està per venir. Generació de vídeo en temps real per a experiències interactives.
Més acords de propietat intel·lectual
Disney va obrir la porta. Warner Bros, Universal, Sony i altres seguiran. Les guerres de licitació comencen quan acabi l'exclusivitat de Disney.
Integració a tot arreu
Adobe-Runway va ser la plantilla. Espera vídeo AI incrustat en cada suite creativa, cada CMS, cada plataforma.
La bretxa de qualitat es tanca
Els millors models ja són difícils de distingir. La diferenciació es mourà cap a la velocitat, el control i la integració del flux de treball.
La imatge més gran
Què significa el 2025 històricament?
2025 va ser per al vídeo AI el que 2007 va ser per als telèfons intel·ligents. No la invenció, sinó el moment en què es va fer viable per a tothom. El moment iPhone, no el moment prototip.
Fa dotze mesos, dir "la IA va fer aquest vídeo" era un avís legal. Ara s'espera. La pregunta va passar de "pot la IA fer això?" a "quina eina d'IA hauria d'utilitzar?"
Aquest canvi passa una vegada per generació tecnològica. Va passar amb la fotografia digital. Amb el vídeo mòbil. Amb les xarxes socials. I el 2025, va passar amb la generació de vídeo AI.
Mirant endavant
Vaig començar el 2025 escèptic. Els vídeos de demostració són fàcils. Els fluxos de treball de producció són difícils. Esperava que l'expectació superés la realitat.
Em vaig equivocar.
Les eines funcionen. No perfectament. No per a tot. Però prou bé com que ignorar-les és un desavantatge competitiu. Prou bé com que els millors creadors ja les estan integrant. Prou bé com que la pregunta no és si sinó com.
Si has estat esperant a la línia de banda, esperant que la tecnologia maduri, 2025 va ser l'any que ho va fer. 2026 serà l'any d'implementació, no d'experimentació.
El futur del vídeo va arribar el 2025. Va ser més desordenat que les demos, més competitiu del previst i més accessible del que qualsevol va preveure. El que passa després depèn del que hi construïm.
Feliç any nou. Ens veiem al futur.
Fonts
- Acord Disney-OpenAI Sora (OpenAI)
- Victòria de Runway Gen-4.5 al Video Arena (CNBC)
- Tauler de classificació del Video Arena (Artificial Analysis)
- 2025 en vídeo AI per Jakob Nielsen
- Tendències de creació de vídeo AI 2025-2026
- Estat de la IA del consumidor 2025 (Andreessen Horowitz)
- Estadístiques de vídeo generat per IA 2025 (Zebracat)
- Anàlisi de tendències de vídeo AI (Yuzzit)
- Recapitulació i tendències de YouTube 2025 (Google Blog)
T'ha resultat útil aquest article?

Henry
Tecnòleg CreatiuTecnòleg creatiu de Lausana que explora on la IA es troba amb l'art. Experimenta amb models generatius entre sessions de música electrònica.
Articles relacionats
Continua explorant amb aquests articles relacionats

ByteDance Seedance 1.5 Pro: El model que genera àudio i vídeo junts
ByteDance llança Seedance 1.5 Pro amb generació audiovisual nativa, controls de càmera de qualitat cinematogràfica i sincronització labial multilingüe. Disponible gratuïtament a CapCut.

La guia completa d'enginyeria de prompts de vídeo AI el 2025
Domina l'art de crear prompts que produeixen vídeos generats per IA impressionants. Aprèn el marc de sis capes, terminologia cinematogràfica i tècniques específiques de plataforma.

Consistència de personatges en vídeo AI: Com els models estan aprenent a recordar cares
Una immersió tècnica profunda en les innovacions arquitectòniques que permeten als models de vídeo AI mantenir la identitat dels personatges a través dels talls, des de mecanismes d'atenció fins a incrustacions que preserven la identitat.