Meta Pixel
HenryHenry
5 min read
992 Wörter

Runway Gen-4.5 auf NVIDIA Rubin: Die Zukunft von KI-Video ist da

Runway kooperiert mit NVIDIA, um Gen-4.5 auf der Rubin-Plattform der nächsten Generation auszuführen und setzt neue Maßstäbe für KI-Videoqualität, Geschwindigkeit und native Audiogenerierung.

Runway Gen-4.5 auf NVIDIA Rubin: Die Zukunft von KI-Video ist da

Ready to create your own AI videos?

Join thousands of creators using Bonega.ai

Runway hat gerade das Spiel verändert. Durch die Partnerschaft mit NVIDIA zur Ausführung von Gen-4.5 auf der Rubin NVL72-Plattform haben sie das erste KI-Videomodell erschaffen, das weniger wie ein Werkzeug und mehr wie ein Mitarbeiter wirkt.

Die Partnerschaft, die keiner kommen sah

Am 5. Januar 2026 kündigte Runway etwas Beispielloses an: ihr Flaggschiff-Modell Gen-4.5 würde der erste KI-Videogenerator sein, der nativ auf NVIDIAs Rubin-Plattform läuft. Nicht optimiert für. Nicht kompatibel mit. Nativ.

Was bedeutet das für Kreative? Alles.

Das Rubin NVL72 ist NVIDIAs Antwort auf den KI-Infrastruktur-Engpass. Während Konkurrenten versuchen, Leistung aus bestehender Hardware herauszuquetschen, hat Runway die gesamte Diskussion hinter sich gelassen. Gen-4.5 generiert nun einminütige Videos mit nativer Audio, Charakterkonsistenz über Aufnahmen hinweg und Physik-Simulation, die endlich der Schwerkraft Rechnung trägt.

1.247
Elo-Score (Video Arena)
60s
Maximale Videolänge
4K
Native Auflösung

Warum dies mehr bedeutet als nur ein weiterer Benchmark

Wir haben die Benchmark-Kriege erlebt. Alle paar Monate erhebt jemand Anspruch auf den Thron, nur um Wochen später verdrängt zu werden. Gen-4.5s Elo-Score von 1.247 auf Artificial Analysis zählt, zugegeben. Aber das Wie zählt mehr.

Runway erreichte dies, indem es drei Probleme gleichzeitig löste:

Was Gen-4.5 liefert

Native Audio-Video-Synthese, kein separater Workflow erforderlich. Multi-Shot-Szenen mit persistenter Charakteridentität. Physik, die sich so verhält, wie sie sich verhalten sollte.

Womit Konkurrenten noch kämpfen

Audio wird als Nachgedanke hinzugefügt. Charakterabweichungen zwischen Schnitten. Objekte, die schweben, durch Wände gehen oder teleportieren.

Native Audiogenerierung hebt sich ab. Frühere Modelle generierten stille Videos, was Kreative zwang, entweder lizenzfreie Musik hinzuzufügen oder separate Audio-Tools zu verwenden. Gen-4.5 generiert Dialog, Soundeffekte und Umgebungsaudio als Teil desselben Diffusionsprozesses. Die Lippensynchronisation funktioniert. Die Schritte passen. Der Regen klingt wie Regen.

Der NVIDIA Rubin-Faktor

Lassen Sie mich hier etwas technisch werden, denn die Hardware-Geschichte erklärt die Performance-Geschichte.

Das Rubin NVL72 ist nicht einfach nur "schneller". Es ist architektonisch anders. Die Plattform widmet spezifische Rechenpfade der zeitlichen Kohärenz, dem Grund, warum KI-Videos historisch wie Fieberwahn aussahen, wo sich Objekte zufällig transformierten. Indem Runway Gen-4.5 nativ auf Rubin laufen lässt, erhält es dedizierte Silizium-Chips für die exakten Operationen, die Videos gut aussehen lassen.

💡

Die NVIDIA-Partnerschaft erklärt auch die Preisgestaltung. Bei 25 Credits pro Sekunde ist Gen-4.5 nicht billig. Aber die Infrastrukturkosten für die Ausführung von Echtzeit-Physik-Simulationen auf Hardware der nächsten Generation sind auch nicht billig. Runway setzt darauf, dass Qualität die Prämie rechtfertigt.

Wie es sich gegen die Konkurrenz behauptet

Die KI-Video-Landschaft Anfang 2026 sieht völlig anders aus als 2025. Google hat Veo auf 3.1 mit nativem 4K und Hochkantvideos aktualisiert. OpenAI wandelte Sora in eine Social App um. Chinesische Konkurrenten wie Kling unterbieten alle beim Preis.

Aber Runway setzte auf eine andere Wette: Infrastruktur vor Iteration.

ModellMax. AuflösungNative AudioCharakterkonsistenzPhysik-Qualität
Runway Gen-4.54KVollständigAusgezeichnetAusgezeichnet
Google Veo 3.14KVollständigGutGut
OpenAI Sora 21080pTeilweiseGutGut
Kling 2.61080pVollständigGutBefriedigend

Die Auflösungs- und Audio-Parität mit Veo 3.1 macht dies zu einem Zwei-Pferde-Rennen in der Premium-Klasse. Aber schauen Sie sich die Physik- und Charakterkonsistenz-Spalten an. Hier zeigt die Rubin-Partnerschaft ihren Wert.

Die kreativen Auswirkungen

Ich verbrachte die letzte Woche damit, alles von Musikvideos bis zu Produktdemos mit Gen-4.5 zu generieren. Hier ist, was meinen Arbeitsablauf veränderte:

Multi-Shot-Kohärenz ist jetzt real. Ich kann einen Charakter in Aufnahme eins generieren, zu einem anderen Winkel in Aufnahme zwei wechseln, und die gleiche Person erscheint. Nicht eine ähnliche Person. Die gleiche Person. Das klingt offensichtlich, war aber vor sechs Monaten unmöglich.

Sound Design passiert automatisch. Wenn ich eine Szene von jemandem generiere, der durch eine Stadt geht, bekomme ich Schritte, Verkehrslärm, Menschengemurmel und Wind. Nicht perfekt gemischt, aber als Ausgangspunkt nutzbar. Ich verbrachte Stunden damit, Foley zu machen. Jetzt verbrachte ich Minuten damit, Anpassungen vorzunehmen.

Physik funktioniert einfach. Fallende Objekte fallen. Geworfene Objekte fliegen in Bogen. Wasser fließt bergab. KI-Video lebte bis jetzt in einem physik-optionalen Universum.

💡

Für Tutorials zum Maximieren des Prompt Engineering mit Gen-4.5, schauen Sie sich unseren vollständigen Leitfaden zu KI-Video-Prompts an. Die Prinzipien gelten immer noch, aber Gen-4.5 ist erheblich besser darin, komplexe Anweisungen zu interpretieren.

Die Marktverschiebung

Diese Partnerschaft signalisiert etwas Größeres als eine einfache Produktaktualisierung. NVIDIA ist nun direkt in die Performance von Videomodellen investiert. Das verändert die Wettbewerbsdynamik in der gesamten Branche.

5. Jan. 2026

Runway-NVIDIA-Partnerschaft

Partnerschaft angekündigt, Gen-4.5 wird erstes Modell auf Rubin-Plattform

13. Jan. 2026

Veo 3.1 Reaktion

Google beeilt sich, Veo mit 4K und Hochkantvideo zu aktualisieren

Jan. 2026

Preisdruck

Chinesische Konkurrenten senken Preise als Reaktion um 15 bis 20%

Die Welle der Enterprise-Adoption, die 2025 begann, wird sich beschleunigen. Wenn ein Team von 100 Personen Billionen-Dollar-Unternehmen in Video-Qualität überbieten kann, gelten die alten Regeln darüber, wer kreative Werkzeuge baut, nicht mehr.

Was kommt als Nächstes

Runway hat sich zu vierteljährlichen Updates auf der Rubin-Plattform verpflichtet. Die Roadmap deutet auf Echtzeit-Generierung hin, die derzeit selbst mit Hardware der nächsten Generation unmöglich ist. Aber das Fundament ist nun solid genug, um dies zu einer Frage von Wann zu machen, nicht von Ob.

Der breitere Trend ist klar. KI-Video teilt sich in zwei Märkte auf: Premium-Tools für professionelle Kreative, die Qualität und Kontrolle brauchen, und Budget-Tools für alle anderen. Runway setzt alles auf den Premium-Markt. Basierend auf Gen-4.5 sieht dieser Einsatz zunehmend klug aus.

Das Fazit: Runway Gen-4.5 auf NVIDIA Rubin ist das erste KI-Video-System, das so aussieht, als wäre es für ernsthafte kreative Arbeit entworfen. Native Audio, Physik-Simulation und Charakterkonsistenz entsprechen endlich, was professionelle Arbeitsabläufe erfordern. Bei 25 Credits pro Sekunde ist es nicht für Gelegenheitsnutzer. Aber für Kreative, die Ergebnisse brauchen, die wie Ergebnisse aussehen, ist dies die neue Benchmark.

Die stille Ära des KI-Videos ist eindeutig vorbei. Willkommen in der Tonfilm-Ära.

War dieser Artikel hilfreich?

Henry

Henry

Kreativtechnologe

Kreativtechnologe aus Lausanne, der erforscht, wo KI auf Kunst trifft. Experimentiert mit generativen Modellen zwischen seinen elektronischen Musiksessions.

Like what you read?

Turn your ideas into unlimited-length AI videos in minutes.

Verwandte Artikel

Entdecken Sie weitere verwandte Beiträge

Hat Ihnen dieser Artikel gefallen?

Entdecken Sie weitere Einblicke und bleiben Sie mit unseren neuesten Inhalten auf dem Laufenden.

Runway Gen-4.5 auf NVIDIA Rubin: Die Zukunft von KI-Video ist da