Meta Pixel
HenryHenry
10 min read
1896 paraules

Vídeo AI 2025: L'any que tot va canviar

De Sora 2 a l'àudio natiu, dels acords milionaris amb Disney als equips de 100 persones que van superar gegants trilionaris, 2025 va ser l'any que el vídeo AI va esdevenir real. Descobreix què va passar i què significa.

Vídeo AI 2025: L'any que tot va canviar

Fa tres anys, el vídeo AI era una curiositat. Fa dos anys, era una promesa. Aquest any, es va convertir en realitat. 2025 va ser el punt d'inflexió, l'any en què la generació de vídeo AI va passar de "demostració impressionant" a "utilitzo això a la feina". Deixa'm guiar-te pels moments més importants, els guanyadors, les sorpreses i què significa tot això per al 2026.

L'any en xifres

14,8B$
Mercat projectat el 2030
35%
Taxa de creixement anual
62%
Creadors que reporten +50% d'estalvi de temps

Aquestes xifres, provinents d'informes del sector per Zebracat i analistes de mercat, expliquen una història: la generació de vídeo AI va passar d'experimental a essencial. Però les xifres no capturen la textura. Deixa'm pintar la imatge completa.

1r trimestre: El moment Sora 2

L'any va començar amb força. OpenAI finalment va llançar Sora 2, i durant un moment, semblava que el joc havia acabat. Generació d'àudio natiu. Física que realment tenia sentit. Un model que comprenia causa i efecte de maneres que semblaven gairebé inquietants.

💡

Sora 2 va ser el primer model a generar àudio i vídeo sincronitzats en una sola passada. Això sona tècnic, però l'experiència va ser transformadora: no més afegir so després, no més problemes de sincronització, només escenes audiovisuals completes a partir de text.

Internet es va tornar boig. "El moment GPT per al vídeo" es va convertir en el titular. Els estudis van començar revisions internes. Els creadors van començar experiments. Tothom esperava veure si la qualitat de la demostració es mantindria en producció.

En la seva majoria, sí que ho va fer.

2n trimestre: La competència s'encén

Llavors les coses es van posar interessants. Google va llançar Veo 3, després Veo 3.1 en Flow. Runway va llançar Gen-4, després Gen-4.5. Pika va continuar iterant. Luma va avançar cap a funcions de producció. Kling va sortir de la nada amb generació multimodal unificada.

Febrer

Llançament públic de Sora 2

OpenAI porta l'àudio-vídeo natiu a les masses

Abril

Llançament de Veo 3

Google respon amb millor moviment humà

Juny

Aparició de Gen-4

Runway es centra en la qualitat cinematogràfica

Agost

Explosió de codi obert

LTX-Video, HunyuanVideo porten vídeo AI a GPU de consumidor

Octubre

Consistència de personatges resolta

Diversos models aconsegueixen identitat fiable de personatges entre talls

Desembre

Gen-4.5 pren el núm. 1

Un equip de 100 persones supera empreses trilionàries

A mitjans d'any, els articles de comparació eren a tot arreu. Quin model és el millor? Depenia del que necessitessis. Això en si mateix era notable: vam passar de "el vídeo AI existeix" a "quina eina de vídeo AI s'adapta al meu flux de treball" en mesos.

La sorpresa del codi obert

Potser el desenvolupament més inesperat: els models de codi obert van esdevenir genuïnament competitius.

1.

LTX-Video

Pesos oberts, funciona en GPU de consumidor, qualitat competitiva. Lightricks va regalar el que altres cobraven.

2.

HunyuanVideo

La contribució de Tencent. 14GB de VRAM, resultats capaços de producció.

3.

ByteDance Vidi2

12 mil milions de paràmetres, capacitats de comprensió i edició, totalment obert.

Per primera vegada, podries generar vídeo AI de qualitat professional sense enviar les teves dades a un servei al núvol. Per a empreses amb requisits de privacitat, per a investigadors que necessiten transparència, per a creadors que volen control total, això ho va canviar tot.

L'acord amb Disney: La propietat intel·lectual es fa real

Llavors va passar Disney. Al desembre, Disney va anunciar una associació històrica amb OpenAI:

1B$
Inversió de Disney en OpenAI
200+
Personatges llicenciats
3 anys
Durada de l'acord

Disney llicenciant més de 200 personatges a Sora va ser el moment en què el vídeo AI va esdevenir un mitjà creatiu legítim per a la indústria de l'entreteniment. Mickey Mouse. Spider-Man. Baby Yoda. El titular de propietat intel·lectual més protector del planeta va dir: aquesta tecnologia està preparada.

Les implicacions encara s'estan desenvolupant. Però el senyal va ser clar. Els estudis ja no lluiten contra el vídeo AI. Estan averiguant com posseir una part d'això.

La història de David vs Goliat

💡

La meva història preferida del 2025: Runway Gen-4.5 prenent el lloc núm. 1 al Video Arena. Un equip de 100 persones va superar Google i OpenAI. En vídeo. El 2025.

Gen-4.5 va reclamar la corona mitjançant avaluació humana cega al tauler de classificació de Video Arena, empenyent Sora 2 Pro al setè lloc. Setè. L'equip del CEO Cristobal Valenzuela va demostrar que la focalització supera els recursos quan el problema està ben definit.

Això és important més enllà del tauler de classificació. Significa que el vídeo AI no és un mercat on el guanyador s'ho emporta tot. Significa que la innovació pot venir de qualsevol lloc. Significa que les eines continuaran millorant perquè ningú es pot permetre descansar.

Àudio natiu: L'era del silenci s'acaba

Recordes quan el vídeo AI era silenciós? Quan havies de generar clips, després afegir so manualment, després arreglar problemes de sincronització?

2025 va acabar amb això. L'era silenciosa del vídeo AI ha acabat.

Flux de treball 2024
  • Generar vídeo silenciós
  • Exportar a editor d'àudio
  • Trobar o generar efectes de so
  • Sincronitzar àudio manualment
  • Arreglar problemes de temps
  • Tornar a renderitzar
Flux de treball 2025
  • Descriure escena
  • Generar audiovisual complet
  • Fet

Sora 2, Veo 3.1, Kling O1 tots s'envien amb àudio natiu. Runway segueix sent l'excepció, però fins i tot ells es van associar amb Adobe per accedir a eines d'àudio de l'ecosistema.

Això no va ser una millora incremental. Va ser un canvi de categoria.

Les cadenes de producció es transformen

Els avenços tècnics es van traduir en revolució del flux de treball.

Què va canviar (segons investigació de Zebracat):

  • El 62% dels professionals del màrqueting reporten més del 50% d'estalvi de temps en producció de vídeo
  • El 68% de les PIME van adoptar eines de vídeo AI, citant l'accessibilitat
  • El contingut sense rostre es va convertir en l'estratègia de creador amb més ROI
  • La IA gestiona el 80-90% del treball d'edició inicial

L'adopció empresarial va accelerar-se. Les empreses van deixar d'executar pilots i van començar a integrar la IA en la producció principal. Els equips de màrqueting que van resistir el 2024 no van tenir elecció el 2025, mentre els competidors es movien més ràpid.

La pila tecnològica madura

Més enllà de la generació, l'ecosistema de suport va créixer:

  • Consistència de personatges resolta: La mateixa persona a través de múltiples talls
  • Extensió de vídeo: Expandir clips més enllà dels límits de generació
  • Millora de resolució: Resolució millorada per IA per a qualsevol font
  • Generació basada en referències: Bloquejar aparença del subjecte a través d'escenes
  • Control de fotogrames d'inici/fi: Definir límits, la IA omple el mig

Eines com Luma Ray3 Modify et permeten transformar imatges filmades mentre preserves les actuacions. L'extensió de vídeo i la millora de resolució es van convertir en funcions estàndard. La infraestructura va posar-se al dia amb la capacitat de generació.

Guanyadors i perdedors

Deixa'm dir-ho tal com ho veig:

Guanyadors:

  • Runway (Gen-4.5, associació Adobe)
  • Luma Labs (900M$ finançament, Ray3)
  • Comunitat de codi obert (LTX, HunyuanVideo)
  • Creadors independents (eines democratitzades)
  • Estudis que adopten IA (Disney liderant)

Perdedors:

  • Empreses tradicionals de vídeo d'arxiu
  • Adoptants tardans (bretxa augmentant)
  • Ecosistemes tancats (codi obert es va posar al dia)
  • Qualsevol esperant la "perfecció" (prou bo va arribar)

Què vam entendre malament

Mirant enrere a les prediccions de principis de 2025:

⚠️

Predicció: Sora 2 dominaria durant tot l'any. Realitat: Gen-4.5 va prendre la corona al desembre. La competència va ser més ferotge del previst.

⚠️

Predicció: El codi obert es mantindria una generació endarrere. Realitat: Els models de GPU de consumidor van aconseguir qualitat de producció al 3r trimestre.

⚠️

Predicció: Els estudis resistirien el vídeo AI. Realitat: Disney va invertir mil milions de dòlars al gener. La resistència es va esfondrar més ràpid del que qualsevol esperava.

Què té reservat el 2026

Basant-me en tot el que he vist aquest any:

1.

Generació més llarga

Els clips de 10 segons són la norma ara. La generació contínua de 60 segons és la pròxima frontera. Diversos equips estan a prop.

2.

Generació en temps real

La IA de jocs com NitroGen de NVIDIA suggereix el que està per venir. Generació de vídeo en temps real per a experiències interactives.

3.

Més acords de propietat intel·lectual

Disney va obrir la porta. Warner Bros, Universal, Sony i altres seguiran. Les guerres de licitació comencen quan acabi l'exclusivitat de Disney.

4.

Integració a tot arreu

Adobe-Runway va ser la plantilla. Espera vídeo AI incrustat en cada suite creativa, cada CMS, cada plataforma.

5.

La bretxa de qualitat es tanca

Els millors models ja són difícils de distingir. La diferenciació es mourà cap a la velocitat, el control i la integració del flux de treball.

La imatge més gran

Què significa el 2025 històricament?

💡

2025 va ser per al vídeo AI el que 2007 va ser per als telèfons intel·ligents. No la invenció, sinó el moment en què es va fer viable per a tothom. El moment iPhone, no el moment prototip.

Fa dotze mesos, dir "la IA va fer aquest vídeo" era un avís legal. Ara s'espera. La pregunta va passar de "pot la IA fer això?" a "quina eina d'IA hauria d'utilitzar?"

Aquest canvi passa una vegada per generació tecnològica. Va passar amb la fotografia digital. Amb el vídeo mòbil. Amb les xarxes socials. I el 2025, va passar amb la generació de vídeo AI.

Mirant endavant

Vaig començar el 2025 escèptic. Els vídeos de demostració són fàcils. Els fluxos de treball de producció són difícils. Esperava que l'expectació superés la realitat.

Em vaig equivocar.

Les eines funcionen. No perfectament. No per a tot. Però prou bé com que ignorar-les és un desavantatge competitiu. Prou bé com que els millors creadors ja les estan integrant. Prou bé com que la pregunta no és si sinó com.

💡

Si has estat esperant a la línia de banda, esperant que la tecnologia maduri, 2025 va ser l'any que ho va fer. 2026 serà l'any d'implementació, no d'experimentació.

El futur del vídeo va arribar el 2025. Va ser més desordenat que les demos, més competitiu del previst i més accessible del que qualsevol va preveure. El que passa després depèn del que hi construïm.

Feliç any nou. Ens veiem al futur.


Fonts

T'ha resultat útil aquest article?

Henry

Henry

Tecnòleg Creatiu

Tecnòleg creatiu de Lausana que explora on la IA es troba amb l'art. Experimenta amb models generatius entre sessions de música electrònica.

Articles relacionats

Continua explorant amb aquests articles relacionats

T'ha agradat aquest article?

Descobreix més idees i mantén-te al dia amb el nostre contingut més recent.

Vídeo AI 2025: L'any que tot va canviar