Meta Pixel
HenryHenry
6 min read
1052 думи

Meta Mango: Вътре в Секретния AI Видео Модел, Целящ да Детронира OpenAI и Google

Meta разкрива Mango, нов AI видео и изображение модел, насочен към пускане през 2026. Със съоснователя на Scale AI Alexandr Wang на кормилото, може ли Meta най-накрая да настигне конкуренцията в надпреварата с генеративна AI?

Meta Mango: Вътре в Секретния AI Видео Модел, Целящ да Детронира OpenAI и Google

След месеци на опити да настигне конкуренцията в надпреварата с генеративна AI, Meta току-що разкри най-амбициозния си проект досега: AI видео и изображение модел с кодово име Mango. Планиран за пускане през първата половина на 2026, той представлява най-смелия залог на гиганта в социалните медии върху визуалната AI досега.

Обявлението, Което Разтърси Долината

Новината се появи по време на вътрешна сесия въпроси и отговори в Meta в четвъртък, 19 декември. Главният продуктов директор Chris Cox и Alexandr Wang, съоснователят на Scale AI, който сега ръководи Superintelligence Labs на Meta, разкриха пътна карта, която развълнува служителите.

Два модела. Две кодови имена. Една масивна амбиция.

Mango
Модел за Изображения & Видео
Avocado
Модел за Текст & Разсъждение
H1 2026
Целева Дата за Пускане

Докато Avocado се фокусира върху текст, разсъждение и подобрени способности за кодиране, Mango е визуалната мощ. Според вътрешни източници, Meta изследва "световни модели, които разбират визуална информация и могат да разсъждават, планират и действат без да е необходимо да бъдат обучени за всяка възможност."

Това не е само генериране на видео. Това се доближава до нещо като разбиране на видео.

Защо Meta Се Нуждае от Тази Победа

Да бъдем честни: Meta се бори в надпреварата с AI.

Докато OpenAI завладя въображението на света с ChatGPT и сега физически точното генериране на видео на Sora 2, а Google напредна с Veo 3 и нативен синтез на звук, AI асистентът на Meta остана... добър. Функционален. Но не революционен.

💡

AI асистентът на Meta достига милиарди чрез Facebook, Instagram и WhatsApp. Но дистрибуцията не е същото като иновацията. Компанията се нуждае от пробивен продукт, не само от добре разпространен посредствен такъв.

Времето на разработката на Mango не е съвпадение. През лятото Meta премина през значително преструктуриране на AI. Wang пое ръководството на новосъздадените Meta Superintelligence Labs (MSL), а компанията е в агресивна кампания за набиране на персонал, привличайки над 20 изследователи от OpenAI и разширявайки се с 50+ нови AI специалисти.

Факторът Alexandr Wang

Ако не познавате Alexandr Wang, трябва да го знаете. Той съоснова Scale AI на 19 и я превърна в компания за $13 милиарда, която захранва инфраструктурата за данни зад някои от най-напредналите AI системи в света. Фактът, че той ръководи MSL, сигнализира, че Meta не просто хвърля пари в проблема. Те привличат някой, който разбира цялата AI верига, от етикетиране на данни до внедряване на модели.

📊

Репутацията на Scale AI

Scale AI е работила с OpenAI, Google и Министерството на отбраната на САЩ. Wang разбира какво е необходимо, за да се изградят модели, които работят в, ами, голям мащаб.

Фактът, че Meta избра външен човек вместо да повиши някой вътрешно, говори много за тяхната спешност. Това не е обичайният бизнес. Това е рестартиране.

Какво Би Могло да Означава Mango за Създателите

Тук нещата стават интересни за тези от нас, които всъщност създават съдържание.

Instagram и Facebook вече са доминирани от кратко и дълго видео. Meta има дистрибуцията. Това, което им липсва, са инструментите за създаване, които конкурентите бързат да изградят. Представете си:

Потенциални Инструменти за Създатели
  • AI-подпомогнато видео редактиране директно в Instagram
  • Автоматизирани визуални ефекти за Reels
  • Генериране на видео от текст за създаване на реклами
  • Генериране на съдържание с постоянен стил през публикациите
Потенциални Предизвикателства
  • Модериране на съдържание в голям мащаб
  • Разграничаване на AI от човешко съдържание
  • Реакция на създателите относно автентичността
  • Проблеми с доверието в платформата

Ако Mango изпълни обещанието си за "световен модел", виждаме AI, който не просто генерира видео кадри. Той разбира какво се случва в сцената, може да разсъждава за физиката и обектите и може да манипулира визуално съдържание с истинско разбиране.

Това е голямо ако. Но потенциалът е огромен.

Конкурентният Пейзаж през 2026

До момента, когато Mango бъде пуснат през H1 2026, AI видео пейзажът ще изглежда много различно от днешния.

КомпанияМоделКлючова Сила
OpenAISora 2Физическа симулация, Disney персонажи
GoogleVeo 3Нативен звук, Flow редакторски инструменти
RunwayGen-4.5Визуално качество, Adobe интеграция
MetaMangoДистрибуция, социална интеграция

Предимството на Meta не е техническото превъзходство. Поне не още. Това е фактът, че 3 милиарда души използват техните платформи ежедневно. Ако Mango може да съответства на качеството на Runway Gen-4.5 или Veo 3, предимството в дистрибуцията става разрушително за конкурентите.

⚠️

Истинският въпрос: Може ли Meta да изгради модел от най-високо ниво, или ще се задоволи с "достатъчно добър" и ще разчита на дистрибуцията? Историята сочи второто. Но участието на Wang намеква за по-високи амбиции.

Напускането на Yann LeCun

Има слон в стаята. Yann LeCun, легендарният главен AI учен на Meta и един от "кръстниците на дълбокото обучение", наскоро обяви напускането си, за да стартира собствен startup.

LeCun е бил гласен относно скептицизма си към големите езикови модели и вярата си в алтернативни подходи към AI. Напускането му поражда въпроси относно посоката на AI изследванията на Meta. Mango съответства ли на визията на LeCun, или представлява отклонение от нея?

Още не знаем. Но времето е забележително.

Какво да Следите

Докато навлизаме в 2026, ето ключовите въпроси:

  • Ще включва ли Mango нативно генериране на звук като Kling и Veo 3?
  • Как ще управлява Meta модерирането на съдържание за AI-генерирано видео?
  • Ще бъдат ли инструментите за създатели интегрирани директно в Instagram?
  • Може ли MSL да задържи таланта след напускането на LeCun?

Нашето Мнение

Обявлението на Meta за Mango е значимо не заради това, което обещава, а заради това, което разкрива за мисленето на компанията. Те приключиха с бързото следване. Те изграждат от нулата, с сериозно ръководство и целят дата на пускане, която им дава време да го направят правилно.

Ще детронира ли Mango Sora 2 или Veo 3? Вероятно не в първия ден. Но с 3 милиарда потребители и ресурсите за бърза итерация, Meta трябва само да се доближи. Дистрибуцията свършва останалото.

Надпреварата с AI видео току-що стана много по-интересна.

💡

Свързано Четиво: За контекст относно текущото състояние на AI видео, вижте нашата Sora 2 vs Runway vs Veo 3 сравнение и задълбоченото ни проучване на световните модели в AI видео генерирането.

Беше ли полезна тази статия?

Henry

Henry

Творчески технолог

Творчески технолог от Лозана, който изследва къде изкуственият интелект среща изкуството. Експериментира с генеративни модели между сесии по електронна музика.

Свързани статии

Продължете да изследвате със свързаните публикации

Невидими щитове: Как AI видео watermarking решава кризата с авторските права през 2025
AI VideoWatermarking

Невидими щитове: Как AI видео watermarking решава кризата с авторските права през 2025

С AI-генерираните видеа, ставащи неразличими от реални кадри, невидимият watermarking се появява като критична инфраструктура за защита на авторските права. Разглеждаме новия подход на Meta, SynthID на Google и техническите предизвикателства на вграждането на сигнали за откриване в мащаб.

Read
Kling 2.6: Клониране на глас и контрол на движението променят AI видео създаването
KlingAI Video

Kling 2.6: Клониране на глас и контрол на движението променят AI видео създаването

Последната актуализация на Kuaishou въвежда едновременно аудио-визуално генериране, обучение на персонализиран глас и прецизен motion capture, които могат да променят подхода на създателите към AI видео продукция.

Read
Pika 2.5: Достъпно AI видео чрез скорост, цена и инструменти
AI VideoPika Labs

Pika 2.5: Достъпно AI видео чрез скорост, цена и инструменти

Pika Labs пуска версия 2.5 с бърза генерация, подобрена физика и инструменти като Pikaframes и Pikaffects за работа с видео.

Read

Хареса ли Ви тази статия?

Открийте още полезна информация и следете най-новото ни съдържание.

Meta Mango: Вътре в Секретния AI Видео Модел, Целящ да Детронира OpenAI и Google