Meta Pixel
HenryHenry
5 min read
945 كلمات

Runway Gen-4.5 على NVIDIA Rubin: مستقبل فيديو الذكاء الاصطناعي هنا

تتعاون Runway مع NVIDIA لتشغيل Gen-4.5 على منصة Rubin من الجيل التالي، مما يحدد معايير جديدة لجودة فيديو الذكاء الاصطناعي والسرعة وتوليد الصوت الأصلي.

Runway Gen-4.5 على NVIDIA Rubin: مستقبل فيديو الذكاء الاصطناعي هنا

Ready to create your own AI videos?

Join thousands of creators using Bonega.ai

غيرت Runway اللعبة للتو. من خلال الشراكة مع NVIDIA لتشغيل Gen-4.5 على منصة Rubin NVL72، أنشأوا أول نموذج فيديو ذكاء اصطناعي يبدو أقل مثل أداة وأكثر مثل متعاون.

الشراكة التي لم يتوقعها أحد

في 5 يناير 2026، أعلنت Runway عن شيء غير مسبوق: سيكون نموذجهم الرئيسي Gen-4.5 أول مولد فيديو ذكاء اصطناعي يعمل بشكل أصلي على منصة Rubin من NVIDIA. ليس محسنا. ليس متوافقا. بل أصلي.

ماذا يعني هذا للمبدعين؟ كل شيء.

يعتبر Rubin NVL72 حل NVIDIA للاختناق في البنية التحتية للذكاء الاصطناعي. بينما يحاول المنافسون عصر الأداء من الأجهزة الموجودة، تخطت Runway كل المحادثة. يولد Gen-4.5 الآن مقاطع فيديو بمدة دقيقة واحدة مع صوت أصلي، وثبات الشخصية عبر اللقطات، ومحاكاة فيزيائية تحترم أخيرا الجاذبية.

1,247
درجة Elo (فيديو أرينا)
60s
الحد الأقصى لطول الفيديو
4K
الدقة الأصلية

لماذا هذا مهم أكثر من مجرد معيار

رأينا حروب المعايير. كل بضعة أشهر، يدعي شخص ما العرش، فقط ليتم عزله بعد أسابيع. تهم درجة Elo 1,247 من Gen-4.5 على Artificial Analysis، بالتأكيد. لكن الطريقة تهم أكثر.

حققت Runway هذا بحل ثلاث مشاكل في نفس الوقت:

ما يوفره Gen-4.5

تركيب صوت فيديو أصلي، بدون سير عمل منفصل. مشاهد متعددة اللقطات مع هوية شخصية مستمرة. فيزياء تتصرف كما يجب أن تتصرف.

ما يكافح به المنافسون حاليا

الصوت المضاف كتفكير لاحق. انجراف الشخصية بين التقطيعات. الأجسام التي تطفو أو تخترق الجدران أو تختفي.

يبرز توليد الصوت الأصلي. استخدمت النماذج السابقة لتوليد فيديو صامت، تاركة المبدعين إما لإضافة موسيقى مخزنة أو استخدام أدوات صوت منفصلة. يولد Gen-4.5 الحوار والمؤثرات الصوتية والصوت المحيط كجزء من عملية الانتشار نفسها. مزامنة الشفاه تعمل. الخطوات تتطابق. المطر يبدو وكأنه مطر.

عامل NVIDIA Rubin

دعني أصبح قليلا تقنيا هنا، لأن قصة الأجهزة توضح قصة الأداء.

Rubin NVL72 ليس فقط "أسرع". إنه مختلف معماريا. تكرس المنصة مسارات حساب محددة للتماسك الزمني، السبب الذي جعل مقاطع الفيديو الذكاء الاصطناعي تبدو تاريخيا مثل الأحلام الحمى حيث تتحول الأجسام بشكل عشوائي. ببناء Gen-4.5 للعمل بشكل أصلي على Rubin، تحصل Runway على سيليكون مخصص للعمليات الدقيقة التي تجعل الفيديو يبدو جيدا.

💡

توضح شراكة NVIDIA أيضا التسعير. بـ 25 رصيدا لكل ثانية، Gen-4.5 ليس رخيصا. لكن تكلفة البنية التحتية لتشغيل محاكاة فيزياء في الوقت الفعلي على أجهزة الجيل التالي ليست رخيصة أيضا. تراهن Runway على أن الجودة تبرر الإضافة الإضافية.

كيف يقارن بالمنافسة

منظر فيديو الذكاء الاصطناعي في أوائل 2026 لا يشبه الإطلاق عام 2025. ترقت Google Veo إلى 3.1 مع 4K والفيديو الرأسي الأصلي. حول OpenAI Sora إلى تطبيق اجتماعي. المنافسون الصينيون مثل Kling يخفضون السعر على الجميع.

لكن Runway قامت برهان مختلف: البنية التحتية على التكرار.

النموذجأقصى دقةصوت أصليثبات الشخصيةجودة الفيزياء
Runway Gen-4.54Kكاملممتازممتاز
Google Veo 3.14Kكاملجيدجيد
OpenAI Sora 21080pجزئيجيدجيد
Kling 2.61080pكاملجيدمتوسط

التكافؤ في الدقة والصوت مع Veo 3.1 يجعل هذا سباقا بين حصانين في المستوى الفاخر. لكن راقب تلك الأعمدة الفيزياء وثبات الشخصية. هنا حيث تظهر قيمة شراكة Rubin.

الآثار الإبداعية

قضيت الأسبوع الماضي في إنشاء كل شيء من مقاطع الموسيقى إلى عروض المنتجات باستخدام Gen-4.5. إليك ما تغير في سير عملي:

التماسك متعدد اللقطات حقيقي الآن. يمكنني إنشاء شخصية في اللقطة الأولى، والقطع إلى زاوية مختلفة في اللقطة الثانية، وتظهر نفس الشخصية. ليس شخصية مشابهة. نفس الشخصية. يبدو هذا واضحا، لكنه كان مستحيلا قبل ستة أشهر.

تصميم الصوت يحدث تلقائيا. عندما أنشئ مشهد شخص يمشي عبر المدينة، أحصل على خطوات، حركة المرور، همس الحشد، والرياح. ليس مزيجا مثاليا، لكنه صالح كنقطة انطلاق. اعتدت أن أقضي ساعات في foley. الآن أنفق دقائق على التعديل.

الفيزياء تعمل فقط. تسقط الأجسام المرمية. تحوم الأجسام المرمية. يتدفق الماء نحو الأسفل. كانت فيديو الذكاء الاصطناعي تعيش في كون اختياري الفيزياء حتى الآن.

💡

للحصول على دروس حول الاستفادة القصوى من هندسة الإشعارات مع Gen-4.5، راجع دليلنا الكامل لمحركات البحث عن فيديو ذكاء اصطناعي. لا تزال المبادئ قائمة، لكن Gen-4.5 أفضل بشكل كبير في تفسير الاتجاهات المعقدة.

تحول السوق

تشير هذه الشراكة إلى شيء أكبر من تحديث منتج واحد. أصبحت NVIDIA الآن مستثمرة بشكل مباشر في أداء نموذج الفيديو. هذا يغير ديناميات المنافسة في جميع أنحاء الصناعة.

5 يناير 2026

شراكة Runway-NVIDIA

تم الإعلان عن الشراكة، Gen-4.5 يصبح أول نموذج على منصة Rubin

13 يناير 2026

استجابة Veo 3.1

تسرع Google لتحديث 4K والفيديو الرأسي إلى Veo

يناير 2026

ضغط السعر

يخفض المنافسون الصينيون الأسعار بنسبة 15-20% ردا على ذلك

موجة الاعتماد الموسع التي بدأت في عام 2025 ستتسارع. عندما يمكن لفريق من 100 شخص أن يتفوق على شركات تريليون دولار في جودة الفيديو، توقف القواعس القديمة عن الانطباق حول من يبني أدوات إبداعية.

ما يأتي بعد ذلك

التزمت Runway بتحديثات فصلية على منصة Rubin. يلمح الخارطة الطريقية إلى توليد في الوقت الفعلي، مستحيل حاليا حتى مع الأجهزة من الجيل التالي. لكن الأساس الآن قوي بما يكفي لجعل ذلك سؤالا متى، وليس ما إذا.

الاتجاه الأوسع واضح. ينقسم فيديو الذكاء الاصطناعي إلى سوقين: أدوات فاخرة للمبدعين المحترفين الذين يحتاجون إلى جودة وتحكم، وأدوات الميزانية للجميع. تراهن Runway كل شيء على السوق الفاخرة. بناء على Gen-4.5، يبدو أن هذا الرهان ذكي بشكل متزايد.

الخط السفلي: Runway Gen-4.5 على NVIDIA Rubin هو أول نظام فيديو ذكاء اصطناعي يبدو وكأنه تم تصميمه للعمل الإبداعي الجاد. الصوت الأصلي ومحاكاة الفيزياء وثبات الشخصية أخيرا تطابق ما تتطلبه سير العمل المهني. بـ 25 رصيدا لكل ثانية، فهو ليس للمستخدمين العاديين. لكن للمبدعين الذين يحتاجون إلى نتائج تبدو مثل النتائج، هذا هو المعيار الجديد.

العصر الصامت لفيديو الذكاء الاصطناعي انتهى بشكل نهائي. أهلا بك في الأفلام الناطقة.

هل كان هذا المقال مفيداً؟

Henry

Henry

متخصص تكنولوجيا إبداعية

متخصص تكنولوجيا إبداعية من لوزان يستكشف التقاء الذكاء الاصطناعي بالفن. يجري تجارب على النماذج التوليدية بين جلسات الموسيقى الإلكترونية.

Like what you read?

Turn your ideas into unlimited-length AI videos in minutes.

مقالات ذات صلة

تابع الاستكشاف مع هذه المقالات المرتبطة

هل استمتعت بقراءة هذا المقال؟

اكتشف المزيد من الرؤى والبصائر وابقَ محدثاً مع أحدث محتوياتنا.

Runway Gen-4.5 على NVIDIA Rubin: مستقبل فيديو الذكاء الاصطناعي هنا