Meta Pixel
HenryHenry
11 min read
170 文字

PixVerse R1:リアルタイム対話型AI動画の夜明け

アリババが支援するPixVerseがR1を発表。これは1080p動画をリアルタイムで生成し、ユーザー入力に即座に対応する最初の世界モデルであり、無限のゲームとインタラクティブシネマへの扉を開きます。

PixVerse R1:リアルタイム対話型AI動画の夜明け

Ready to create your own AI videos?

Join thousands of creators using Bonega.ai

もし動画が生成されている間にあなたに応答できたらどうでしょう?PixVerseはその質問に答えることでそれを陳腐化させたばかりです。

2026年1月13日、アリババが支援するスタートアップPixVerseは、製品更新というより範式転換に見えるものを発表しました。R1は、1080p動画をリアルタイムで生成し、ユーザー入力に即座に対応できる最初の世界モデルです。バッチ処理ではありません。プログレスバーの後ではありません。今、この瞬間にあなたが見ている最中に。

💡

リアルタイムAI動画生成とは、キャラクターがコマンドに応じて泣いたり、踊ったり、凍結したり、ポーズを取ったりでき、動画が再生を続ける間に変化が即座に起こることを意味します。

バッチ処理から無限ストリームへ

従来の動画生成は次のように機能します。プロンプトを書き、数秒から数分待機し、固定長のクリップを受け取ります。これは初期のテキストから画像への時代から借用されたリクエスト応答パターンです。PixVerse R1はこの形式を完全に破壊します。

システムは動画生成を、同社が「無限、継続的、そしてインタラクティブな視覚ストリーム」と呼ぶものに変換します。待機はありません。所定の終点はありません。シーンが展開する際にあなたがそれを指導します。

1-4
拡散ステップ(数十から削減)
1080p
リアルタイム解像度
100M
登録ユーザー(2025年8月)

リアルタイム生成の背後にある技術アーキテクチャ

拡散モデルをリアルタイム使用に十分な速度にするにはどうするか?PixVerseは彼らが「時間軌跡折り畳み」と呼ぶものを通じてこれを解決しました。

標準的な拡散サンプリングには数十の反復ステップが必要で、各ステップはノイズから一貫した動画への出力を洗練します。R1は直接予測を通じてこのプロセスをわずか1、4ステップに折り畳みます。インタラクティブ使用に必要な速度で生成の柔軟性の一部を交換します。

速度の利点

リアルタイム応答は、バッチ生成では不可能な新しいアプリケーション、インタラクティブな物語とAIネイティブゲームを可能にします。

柔軟性のトレードオフ

直接予測は、完全な拡散サンプリングと比べて細粒度生成の制御が少なくなります。

基礎となるモデルは、PixVerseが「全能ネイティブ多模態基礎モデル」と説明するものです。テキスト、画像、オーディオ、ビデオを異なる処理段階を通じてルーティングするのではなく、R1はすべての入力を統一されたトークンストリームとして扱います。このアーキテクチャの選択により、従来の多模態システムを悩ませるハンドオフレイテンシが排除されます。

これはクリエイターにとって何を意味しますか?

影響は高速レンダリングを超えています。リアルタイム生成は完全に新しいクリエイティブワークフローを可能にします。

🎮

AIネイティブゲーミング

ゲーム環境とナレーティブがプレイヤーアクションに動的に応答し、事前設計されたストーリーラインも内容の境界もないゲームを想像してください。

🎬

インタラクティブシネマ

視聴者がストーリーの展開方法に影響を与えられるマイクロドラマ。分岐路を持つ自分自身の冒険を選択するのではなく、継続的に自身を再形成する物語。

🎭

ライブディレクション

ディレクターはシーンをリアルタイムで調整し、異なる感情的なビート、照明の変化、またはキャラクターアクションをテストでき、再レンダリングを待つ必要はありません。

競争環境:中国のAI動画支配

PixVerse R1は2025年を通じて構築されてきたパターンを強化します。中国のチームはAI動画生成でリードしています。AI ベンチマーク企業Artificial Analysisによると、トップ8つの動画生成モデルのうち7つは中国の企業からのものです。イスラエルのスタートアップLightricksだけがその連勝を打ち破ります。

💡

中国が如何にしてAI動画の競争環境を再形成しているかについてのより深い分析については、弊社の分析 中国企業がAI動画競争環境をどのように再形成しているか をご覧ください。

"Soraはまだ動画生成の品質の天井を定義していますが、生成時間とAPIコストに制約されています、"Counterpoint首席アナリストWei Sunは述べています。PixVerse R1はまさにこれらの制約に攻撃を仕掛け、異なる価値提案を提供しています。最大品質ではなく、最大応答性です。

メトリックPixVerse R1従来のモデル
応答時間リアルタイム秒から分単位
動画長無限ストリーム固定クリップ(5-30秒)
ユーザーインタラクション継続的プロンプト後の待機
解像度1080p最大4K(バッチ)

リアルタイム動画のビジネス

PixVerseはテクノロジーを構築しているだけでなく、ビジネスを構築しています。同社は2025年10月に4000万ドルの年間経常収益を報告し、1億の登録ユーザーまで成長しました。共同創設者Jaden Xieは、2026年半ばまでにユーザーベースを2億に倍増させることを目指しています。

スタートアップは昨年秋にアリババが率いるラウンドで6000万ドル以上を調達し、Antlerが参加しました。その資本は積極的に配置されています。年末までに従業員数は200人近くに倍増する可能性があります。

2023

PixVerse設立

AI動画生成に焦点を当てて会社が立ち上げられます。

2025年8月

1億ユーザー

プラットフォームが1億登録ユーザーに到達します。

2025年秋

6000万ドル以上調達

アリババが率いる融資ラウンド、ARRは4000万ドル。

2026年1月

R1ローンチ

最初のリアルタイム世界モデルがライブになります。

自分で試してください

R1は現在 realtime.pixverse.ai で利用可能ですが、チームがインフラストラクチャをスケーリングしている間、アクセスは現在招待限定です。 世界モデルの進化 を追跡するか TurboDiffusion を試験してきた場合、R1は論理的な次のステップを表しています。より高速な生成だけでなく、根本的に異なるインタラクションパラダイムです。

質問はもはや「AIはどのくらい速く動画を生成できるか?」ではありません。 質問は「動画生成に知覚可能な遅延がゼロの場合、何が可能になるか?」です。PixVerseはその質問に答え始めたばかりです。私たちの残りは追いついています。

次は何ですか?

リアルタイム1080p生成は印象的ですが、軌跡は明確です。より高い解像度、より長いコンテキストウィンドウ、より深い多模態統合。インフラストラクチャがスケールし、時間軌跡折り畳みのような技術が成熟するにつれて、リアルタイム4K生成が一般的になる可能性があります。

今のところ、R1は生産システムとしても機能する概念実証です。「動画生成」と「動画のディレクション」の間の線が完全に消えるまでぼやけることができることを示しています。これは単なる技術的成果ではありません。これはクリエイティブな成果です。

💡

関連読書: 拡散トランスフォーマー がどのように現代の動画生成を強化するのかを学ぶか、インタラクティブ動画に対する別のアプローチについて Runwayの世界モデルへのアプローチ を探索してください。

この記事は役に立ちましたか?

Henry

Henry

クリエイティブ・テクノロジスト

ローザンヌ出身のクリエイティブ・テクノロジストで、AIとアートが交わる場所を探求しています。エレクトロニック・ミュージックのセッションの合間に生成モデルで実験しています。

Like what you read?

Turn your ideas into unlimited-length AI videos in minutes.

関連記事

これらの関連投稿で探索を続けてください

この記事はお楽しみいただけましたか?

最新コンテンツで、さらに深いインサイトを発見してください。

PixVerse R1:リアルタイム対話型AI動画の夜明け