Meta Pixel
HenryHenry
5 min read
952 كلمات

ميتا مانجو: داخل نموذج الذكاء الاصطناعي السري للفيديو الذي يهدف للإطاحة بـ OpenAI وجوجل

ميتا تكشف عن مانجو، نموذج ذكاء اصطناعي جديد للفيديو والصور يستهدف الإطلاق في 2026. مع ألكساندر وانغ المؤسس المشارك لـ Scale AI على رأس المشروع، هل تستطيع ميتا أخيراً اللحاق بسباق الذكاء الاصطناعي التوليدي؟

ميتا مانجو: داخل نموذج الذكاء الاصطناعي السري للفيديو الذي يهدف للإطاحة بـ OpenAI وجوجل

بعد أشهر من محاولة اللحاق بسباق الذكاء الاصطناعي التوليدي، كشفت ميتا للتو عن مشروعها الأكثر طموحاً حتى الآن: نموذج ذكاء اصطناعي للفيديو والصور يحمل الاسم الرمزي مانجو. من المقرر إطلاقه في النصف الأول من عام 2026، ويمثل أجرأ رهان لعملاق وسائل التواصل الاجتماعي على الذكاء الاصطناعي المرئي حتى الآن.

الإعلان الذي هز الوادي

ظهر الخبر خلال جلسة أسئلة وأجوبة داخلية في ميتا يوم الخميس 19 ديسمبر. كشف كريس كوكس، كبير مسؤولي المنتجات، وألكساندر وانغ، المؤسس المشارك لـ Scale AI الذي يقود الآن مختبرات الذكاء الفائق في ميتا، عن خريطة طريق أثارت حماس الموظفين.

نموذجان. اسمان رمزيان. طموح واحد ضخم.

Mango
نموذج الصور والفيديو
Avocado
نموذج النص والاستدلال
H1 2026
الإطلاق المستهدف

بينما يركز أفوكادو على النص والاستدلال وقدرات البرمجة المحسنة، يعد مانجو محرك الطاقة المرئية. وفقاً لمصادر داخلية، تستكشف ميتا "نماذج عالمية تفهم المعلومات المرئية ويمكنها الاستدلال والتخطيط والتصرف دون الحاجة إلى التدريب على كل احتمال".

هذا ليس مجرد توليد للفيديو. إنه يقترب من شيء أشبه بفهم الفيديو.

لماذا تحتاج ميتا إلى هذا النجاح

لنكن صريحين: لقد كانت ميتا تعاني في سباق الذكاء الاصطناعي.

بينما استحوذت OpenAI على خيال العالم بـ ChatGPT والآن توليد الفيديو الدقيق فيزيائياً في Sora 2، ودفعت جوجل إلى الأمام بـ Veo 3 والتوليف الصوتي الأصلي، ظل مساعد ميتا الذكي... على ما يرام. عملي. لكن ليس ثورياً.

💡

يصل مساعد ميتا الذكي إلى مليارات المستخدمين عبر فيسبوك وإنستغرام وواتساب. لكن التوزيع ليس هو نفسه الابتكار. تحتاج الشركة إلى منتج متميز، وليس فقط منتج متوسط موزع جيداً.

توقيت تطوير مانجو ليس مصادفة. خلال الصيف، خضعت ميتا لإعادة هيكلة كبيرة للذكاء الاصطناعي. تولى وانغ قيادة مختبرات ميتا للذكاء الفائق المنشأة حديثاً، وكانت الشركة في حملة توظيف عدوانية، حيث جلبت أكثر من 20 باحثاً من OpenAI وتوسعت مع أكثر من 50 متخصصاً جديداً في الذكاء الاصطناعي.

عامل ألكساندر وانغ

إذا كنت لا تعرف ألكساندر وانغ، فيجب أن تعرفه. أسس Scale AI في سن 19 وحولها إلى شركة بقيمة 13 مليار دولار تدعم البنية التحتية للبيانات وراء بعض أكثر أنظمة الذكاء الاصطناعي تقدماً في العالم. وجوده على رأس المختبرات يشير إلى أن ميتا لا تكتفي بإلقاء المال على المشكلة. إنهم يجلبون شخصاً يفهم خط أنابيب الذكاء الاصطناعي بالكامل، من وضع علامات البيانات إلى نشر النموذج.

📊

سجل Scale AI الحافل

عملت Scale AI مع OpenAI وجوجل ووزارة الدفاع الأمريكية. يفهم وانغ ما يتطلبه بناء نماذج تعمل على نطاق واسع.

حقيقة أن ميتا استعانت بشخص من خارج الشركة بدلاً من الترقية من الداخل تتحدث كثيراً عن مدى إلحاحها. هذا ليس عملاً كالمعتاد. هذه إعادة ضبط.

ماذا يمكن أن يعني مانجو للمبدعين

هنا تصبح الأمور مثيرة للاهتمام بالنسبة لنا الذين ننشئ المحتوى فعلياً.

إنستغرام وفيسبوك مهيمن عليهما بالفعل الفيديو القصير والطويل. لدى ميتا القدرة على التوزيع. ما ينقصهم هو أدوات الإنشاء التي يتسابق المنافسون لبنائها. تخيل:

أدوات محتملة للمبدعين
  • تحرير الفيديو بمساعدة الذكاء الاصطناعي مباشرة في إنستغرام
  • تأثيرات بصرية تلقائية لـ Reels
  • توليد الفيديو من النص لإنشاء الإعلانات
  • توليد محتوى متسق الأسلوب عبر المنشورات
التحديات المحتملة
  • الإشراف على المحتوى على نطاق واسع
  • التمييز بين محتوى الذكاء الاصطناعي والمحتوى البشري
  • رد فعل المبدعين حول الأصالة
  • قضايا الثقة في المنصة

إذا حقق مانجو وعده بـ "النموذج العالمي"، فإننا ننظر إلى ذكاء اصطناعي لا يولد إطارات الفيديو فحسب. إنه يفهم ما يحدث في المشهد، ويمكنه الاستدلال حول الفيزياء والأشياء، ويمكنه التلاعب بالمحتوى المرئي بفهم حقيقي.

هذا افتراض كبير. لكن الإمكانات هائلة.

المشهد التنافسي في 2026

بحلول وقت إصدار مانجو في النصف الأول من 2026، سيبدو مشهد فيديو الذكاء الاصطناعي مختلفاً تماماً عما هو عليه اليوم.

الشركةالنموذجالقوة الرئيسية
OpenAISora 2محاكاة الفيزياء، شخصيات ديزني
GoogleVeo 3الصوت الأصلي، أدوات تحرير Flow
RunwayGen-4.5الجودة البصرية، التكامل مع Adobe
MetaMangoالتوزيع، التكامل الاجتماعي

ميزة ميتا ليست التفوق التقني. على الأقل ليس بعد. إنها حقيقة أن 3 مليارات شخص يستخدمون منصاتهم يومياً. إذا استطاع مانجو مطابقة جودة Runway Gen-4.5 أو Veo 3، فإن ميزة التوزيع تصبح مدمرة للمنافسين.

⚠️

السؤال الحقيقي: هل يمكن لميتا بناء نموذج من الدرجة الأولى، أم ستكتفي بـ "جيد بما يكفي" وتعتمد على التوزيع؟ التاريخ يشير إلى الأخير. لكن مشاركة وانغ تلمح إلى طموحات أعلى.

رحيل يان لوكون

هناك فيل في الغرفة. أعلن يان لوكون، كبير علماء الذكاء الاصطناعي الأسطوري في ميتا وأحد "آباء التعلم العميق"، مؤخراً عن مغادرته لإطلاق شركته الناشئة الخاصة.

كان لوكون صريحاً بشأن تشككه في نماذج اللغة الكبيرة واعتقاده في الأساليب البديلة للذكاء الاصطناعي. خروجه يثير تساؤلات حول اتجاه أبحاث الذكاء الاصطناعي في ميتا. هل مانجو يتماشى مع رؤية لوكون، أم أنه يمثل خروجاً عنها؟

لا نعرف بعد. لكن التوقيت ملحوظ.

ما يجب مراقبته

بينما نتجه نحو 2026، إليك الأسئلة الرئيسية:

  • هل سيتضمن مانجو توليد الصوت الأصلي مثل Kling و Veo 3؟
  • كيف ستتعامل ميتا مع الإشراف على المحتوى للفيديو المولد بالذكاء الاصطناعي؟
  • هل سيتم دمج أدوات المبدعين مباشرة في إنستغرام؟
  • هل يمكن للمختبرات الاحتفاظ بالمواهب بعد رحيل لوكون؟

رأينا

إعلان ميتا عن مانجو مهم ليس بسبب ما يعد به، بل بسبب ما يكشفه عن عقلية الشركة. لقد انتهوا من كونهم متابعين سريعين. إنهم يبنون من الصفر، بقيادة جادة، ويستهدفون نافذة إطلاق تمنحهم الوقت للقيام بذلك بشكل صحيح.

هل سيطيح مانجو بـ Sora 2 أو Veo 3؟ ربما ليس في اليوم الأول. لكن مع 3 مليارات مستخدم والموارد للتكرار بسرعة، تحتاج ميتا فقط إلى الاقتراب. التوزيع يفعل الباقي.

سباق فيديو الذكاء الاصطناعي أصبح أكثر إثارة للاهتمام.

💡

قراءة ذات صلة: للسياق حول الحالة الحالية لفيديو الذكاء الاصطناعي، راجع مقارنة Sora 2 مقابل Runway مقابل Veo 3 والغوص العميق في النماذج العالمية في توليد فيديو الذكاء الاصطناعي.

هل كان هذا المقال مفيداً؟

Henry

Henry

متخصص تكنولوجيا إبداعية

متخصص تكنولوجيا إبداعية من لوزان يستكشف التقاء الذكاء الاصطناعي بالفن. يجري تجارب على النماذج التوليدية بين جلسات الموسيقى الإلكترونية.

مقالات ذات صلة

تابع الاستكشاف مع هذه المقالات المرتبطة

الدروع الخفية: كيف تحل تقنية Watermarking لفيديوهات الذكاء الاصطناعي أزمة حقوق النشر في 2025
AI VideoWatermarking

الدروع الخفية: كيف تحل تقنية Watermarking لفيديوهات الذكاء الاصطناعي أزمة حقوق النشر في 2025

مع تطور فيديوهات الذكاء الاصطناعي لتصبح غير قابلة للتمييز عن اللقطات الحقيقية، تظهر تقنية Watermarking الخفية كبنية تحتية حاسمة لحماية حقوق النشر. نستكشف نهج Meta الجديد وتقنية SynthID من Google والتحديات التقنية لتضمين إشارات الكشف على نطاق واسع.

Read
يوتيوب يدمج Veo 3 Fast في Shorts: توليد فيديوهات بالذكاء الاصطناعي مجاناً لـ 2.5 مليار مستخدم
YouTubeVeo 3

يوتيوب يدمج Veo 3 Fast في Shorts: توليد فيديوهات بالذكاء الاصطناعي مجاناً لـ 2.5 مليار مستخدم

جوجل تدمج نموذج Veo 3 Fast مباشرة في YouTube Shorts، مقدمة توليد فيديوهات من النص مع الصوت مجاناً للمبدعين حول العالم. إليكم ما يعنيه هذا للمنصة ولإتاحة فيديوهات الذكاء الاصطناعي.

Read
Kling 2.6: استنساخ الصوت والتحكم بالحركة يعيدان تعريف إنتاج الفيديو بالذكاء الاصطناعي
KlingAI Video

Kling 2.6: استنساخ الصوت والتحكم بالحركة يعيدان تعريف إنتاج الفيديو بالذكاء الاصطناعي

يقدم التحديث الأخير من Kuaishou توليداً متزامناً للصوت والصورة، وتدريباً مخصصاً للصوت، والتقاط حركة دقيق قد يغير طريقة تعامل صناع المحتوى مع إنتاج الفيديو بالذكاء الاصطناعي.

Read

هل استمتعت بقراءة هذا المقال؟

اكتشف المزيد من الرؤى والبصائر وابقَ محدثاً مع أحدث محتوياتنا.

ميتا مانجو: داخل نموذج الذكاء الاصطناعي السري للفيديو الذي يهدف للإطاحة بـ OpenAI وجوجل