Runway Gen-4.5 em NVIDIA Rubin: O futuro do vídeo IA está aqui
Runway faz parceria com a NVIDIA para executar Gen-4.5 na plataforma Rubin de próxima geração, estabelecendo novos benchmarks para qualidade de vídeo IA, velocidade e geração de áudio nativo.

A parceria que ninguém viu chegando
Em 5 de janeiro de 2026, Runway anunciou algo sem precedentes: seu modelo insignia Gen-4.5 seria o primeiro gerador de vídeo IA funcionando nativamente na plataforma Rubin da NVIDIA. Não otimizado para. Não compatível com. Nativo.
O que isso significa para criadores? Tudo.
O Rubin NVL72 é a resposta da NVIDIA ao gargalo de infraestrutura de IA. Enquanto os concorrentes lutam para extrair desempenho do hardware existente, Runway ultrapassou toda a conversa. Gen-4.5 agora gera vídeos de um minuto com áudio nativo, consistência de personagens em todos os planos e simulação de física que finalmente respeita a gravidade.
Por que isto importa mais do que apenas outro benchmark
Vimos as guerras de benchmarks. A cada poucos meses, alguém reivindica o trono, apenas para ser destronado semanas depois. A pontuação Elo de 1.247 de Gen-4.5 na Artificial Analysis importa, claro. Mas o como importa mais.
Runway alcançou isto resolvendo três problemas simultaneamente:
Síntese áudio-vídeo nativa, sem necessidade de fluxo de trabalho separado. Cenas com múltiplos planos com identidade de personagem persistente. Física que se comporta como deveria se comportar.
Áudio adicionado como pensamento tardio. Deriva de personagens entre cortes. Objetos que flutuam, atravessam paredes ou se teleportam.
A geração de áudio nativo se destaca. Os modelos anteriores geravam vídeos silenciosos, deixando criadores adicionarem música de stock ou usar ferramentas de áudio separadas. Gen-4.5 gera diálogos, efeitos sonoros e áudio ambiente como parte do mesmo processo de difusão. A sincronização labial funciona. Os passos correspondem. A chuva soa como chuva.
O fator NVIDIA Rubin
Deixa eu ficar um pouco técnico aqui, porque a história do hardware explica a história do desempenho.
O Rubin NVL72 não é simplesmente "mais rápido". É arquitetonicamente diferente. A plataforma dedica caminhos de computação específicos para coerência temporal, a razão pela qual vídeos de IA historicamente pareciam alucinações febris onde objetos se transformam aleatoriamente. Ao construir Gen-4.5 para rodar nativamente em Rubin, Runway consegue silício dedicado para as operações exatas que fazem vídeo parecer bom.
A parceria com NVIDIA também explica o preço. A 25 créditos por segundo, Gen-4.5 não é barato. Mas o custo de infraestrutura para rodar simulação física em tempo real em hardware de próxima geração também não é barato. Runway aposta que qualidade justifica o prêmio.
Como se compara com a concorrência
O cenário de vídeo IA no início de 2026 não se parece com nada em 2025. Google atualizou Veo para 3.1 com 4K nativo e vídeo vertical. OpenAI transformou Sora em um aplicativo social. Concorrentes chineses como Kling estão subestimando todos em preço.
Mas Runway fez uma aposta diferente: infraestrutura sobre iteração.
| Modelo | Resolução Máxima | Áudio Nativo | Consistência de Personagem | Qualidade de Física |
|---|---|---|---|---|
| Runway Gen-4.5 | 4K | Completo | Excelente | Excelente |
| Google Veo 3.1 | 4K | Completo | Bom | Bom |
| OpenAI Sora 2 | 1080p | Parcial | Bom | Bom |
| Kling 2.6 | 1080p | Completo | Bom | Aceitável |
A paridade de resolução e áudio com Veo 3.1 torna isto uma corrida de dois competidores no nível premium. Mas olhe para as colunas de física e consistência de personagem. É aonde a parceria Rubin mostra seu valor.
As implicações criativas
Passei a semana passada gerando tudo, desde clipes de música até demonstrações de produtos com Gen-4.5. Aqui está o que mudou meu fluxo de trabalho:
Coerência multi-plano é real agora. Posso gerar um personagem no plano um, cortar para um ângulo diferente no plano dois, e a mesma pessoa aparece. Não uma pessoa similar. A mesma pessoa. Isto soa óbvio, mas era impossível seis meses atrás.
Design de som acontece automaticamente. Quando gero uma cena de alguém caminhando pela cidade, consigo passos, tráfego, murmúrio de multidão e vento. Não perfeitamente mixado, mas usável como ponto de partida. Eu costumava passar horas em foley. Agora passo minutos em ajustes.
Física simplesmente funciona. Objetos caem. Objetos lançados traçam uma trajetória. Água flui para baixo. Vídeo IA vinha vivendo em um universo onde física era opcional até agora.
Para tutoriais sobre como obter o máximo da engenharia de prompts com Gen-4.5, confira nosso guia completo de prompts de vídeo IA. Os princípios ainda se aplicam, mas Gen-4.5 é significativamente melhor em interpretar direções complexas.
A mudança de mercado
Esta parceria sinaliza algo maior do que apenas uma atualização de produto. NVIDIA agora está diretamente investida no desempenho do modelo de vídeo. Isso muda a dinâmica competitiva em toda a indústria.
Parceria Runway-NVIDIA
Parceria anunciada, Gen-4.5 se torna primeiro modelo na plataforma Rubin
Resposta Veo 3.1
Google se apressa para atualizar Veo com 4K e vídeo vertical
Pressão de preço
Concorrentes chineses reduzem preços entre 15 a 20% em resposta
A onda de adoção empresarial que começou em 2025 vai acelerar. Quando uma equipe de 100 pessoas consegue superar empresas de trilhões de dólares em qualidade de vídeo, as regras antigas sobre quem constrói ferramentas criativas deixam de se aplicar.
O que vem em seguida
Runway se comprometeu a atualizações trimestrais na plataforma Rubin. O mapa de estrada sugere geração em tempo real, atualmente impossível até mesmo com hardware de próxima geração. Mas a fundação agora é sólida o suficiente para tornar isto uma questão de quando, não se.
A tendência mais ampla é clara. Vídeo IA está se dividindo em dois mercados: ferramentas premium para criadores profissionais que precisam de qualidade e controle, e ferramentas orçamentárias para todos os outros. Runway está apostando tudo no mercado premium. Baseado em Gen-4.5, essa aposta parece cada vez mais inteligente.
A conclusão: Runway Gen-4.5 em NVIDIA Rubin é o primeiro sistema de vídeo IA que parece ter sido projetado para trabalho criativo sério. Áudio nativo, simulação de física e consistência de personagem finalmente correspondem ao que fluxos de trabalho profissionais exigem. A 25 créditos por segundo, não é para usuários ocasionais. Mas para criadores que precisam de resultados que pareçam resultados, este é o novo benchmark.
A era silenciosa de vídeo IA definitivamente acabou. Bem-vindo à era do falado.
Este artigo foi útil?

Henry
Tecnólogo CriativoTecnólogo criativo de Lausanne a explorar onde a IA encontra a arte. Experimenta com modelos generativos entre sessões de música eletrónica.
Artigos Relacionados
Continue a explorar com estes artigos relacionados

Adobe e Runway unem forças: o que a parceria Gen-4.5 significa para criadores de vídeo
A Adobe acabou de tornar o Gen-4.5 da Runway o motor de vídeo IA no Firefly. Esta aliança estratégica remodela os fluxos de trabalho criativos para profissionais, estúdios e marcas em todo o mundo.

Modelos de Mundo: A Nova Fronteira na Geração de Vídeos com IA
Por que a mudança da geração de frames para a simulação de mundos está reformulando o vídeo com IA, e o que o GWM-1 da Runway nos diz sobre o futuro desta tecnologia.

Sora 2 vs Runway Gen-4 vs Veo 3: A batalha pelo domínio do vídeo com IA
Comparamos os três principais geradores de vídeo com IA de 2025. Áudio nativo, qualidade visual, preços e casos de uso reais.