Meta Mango: Tajny model AI do wideo, który ma zdetronizować OpenAI i Google
Meta ujawnia Mango, nowy model AI do wideo i obrazów z premierą w 2026 roku. Czy Meta w końcu dogoni konkurencję, skoro projekt prowadzi współzałożyciel Scale AI, Alexandr Wang?

Po miesiącach gonienia konkurencji w wyścigu generatywnego AI, Meta właśnie ujawniła swój najbardziej ambitny projekt: model AI do wideo i obrazów o kryptonimie Mango. Zaplanowany na pierwszą połowę 2026 roku, reprezentuje najśmielszy zakład giganta mediów społecznościowych na wizualne AI.
Ogłoszenie, które wstrząsnęło Doliną
Wiadomość spadła podczas wewnętrznej sesji Q&A w Meta w czwartek, 19 grudnia. Dyrektor ds. produktu Chris Cox oraz Alexandr Wang, współzałożyciel Scale AI, teraz prowadzący Meta Superintelligence Labs, ujawnili plan, który wywołał szum wśród pracowników.
Dwa modele. Dwa kryptonimy. Jedna gigantyczna ambicja.
Podczas gdy Avocado skupia się na tekście, rozumowaniu i ulepszonych możliwościach kodowania, Mango to wizualna potęga. Według źródeł wewnętrznych, Meta bada "modele świata, które rozumieją informacje wizualne i potrafią rozumować, planować i działać bez potrzeby trenowania na każdej możliwości".
To nie tylko generowanie wideo. To podejście bliższe rozumieniu wideo.
Dlaczego Meta potrzebuje tego zwycięstwa
Bądźmy szczerzy: Meta ma problemy w wyścigu AI.
Podczas gdy OpenAI zawładnęło wyobraźnią świata z ChatGPT, a teraz generowaniem wideo zgodnego z fizyką w Sora 2, a Google poszło naprzód z Veo 3 i natywną syntezą audio, asystent AI Meta pozostał... w porządku. Funkcjonalny. Ale nie rewolucyjny.
Asystent AI Meta dociera do miliardów przez Facebook, Instagram i WhatsApp. Ale dystrybucja to nie to samo co innowacja. Firma potrzebuje przełomowego produktu, nie tylko dobrze rozpowszechnionej przeciętności.
Czas rozwoju Mango to nie przypadek. Latem Meta przeszła znaczącą restrukturyzację AI. Wang objął stanowisko w nowo utworzonej Meta Superintelligence Labs (MSL), a firma prowadzi agresywną rekrutację, sprowadzając ponad 20 badaczy z OpenAI i rozszerzając zespół o ponad 50 nowych specjalistów AI.
Czynnik Alexandr Wang
Jeśli nie znasz Alexandr Wang, powinieneś. Współzałożył Scale AI w wieku 19 lat i przekształcił to w firmę wartą 13 miliardów dolarów, która napędza infrastrukturę danych niektórych z najbardziej zaawansowanych systemów AI na świecie. Fakt, że prowadzi MSL, sygnalizuje, że Meta nie tylko rzuca pieniędzmi na problem. Sprowadzili kogoś, kto rozumie cały pipeline AI, od etykietowania danych po wdrożenie modeli.
Osiągnięcia Scale AI
Scale AI pracowało z OpenAI, Google i Departamentem Obrony USA. Wang rozumie, co trzeba, aby budować modele, które działają na skalę.
Fakt, że Meta postawiła na osobę z zewnątrz, zamiast awansować kogoś wewnątrz, mówi wiele o ich pilności. To nie jest biznes jak zwykle. To restart.
Co Mango może oznaczać dla twórców
Tu robi się ciekawie dla tych z nas, którzy faktycznie tworzą treści.
Instagram i Facebook są już zdominowane przez krótkie i długie filmy. Meta ma dystrybucję. Czego im brakuje, to narzędzi do tworzenia, które konkurenci ścigają się, aby zbudować. Wyobraź sobie:
- Montaż wideo wspomagany AI bezpośrednio w Instagramie
- Automatyczne efekty wizualne dla Reels
- Generowanie wideo z tekstu do tworzenia reklam
- Generowanie treści w spójnym stylu w postach
- Moderacja treści na skalę
- Odróżnienie treści AI od ludzkiej
- Opór twórców wobec autentyczności
- Problemy zaufania do platformy
Jeśli Mango zrealizuje swoją obietnicę "modelu świata", patrzymy na AI, które nie tylko generuje klatki wideo. Rozumie, co dzieje się w scenie, potrafi rozumować o fizyce i obiektach oraz manipulować treścią wizualną z prawdziwym zrozumieniem.
To duże "jeśli". Ale potencjał jest ogromny.
Krajobraz konkurencyjny w 2026 roku
Zanim Mango zostanie wydane w pierwszej połowie 2026 roku, krajobraz wideo AI będzie wyglądał zupełnie inaczej niż dziś.
| Firma | Model | Kluczowa siła |
|---|---|---|
| OpenAI | Sora 2 | Symulacja fizyki, postacie Disney |
| Veo 3 | Natywne audio, narzędzia edycji Flow | |
| Runway | Gen-4.5 | Jakość wizualna, integracja z Adobe |
| Meta | Mango | Dystrybucja, integracja społecznościowa |
Przewaga Meta to nie wyższość techniczna. Przynajmniej jeszcze nie. To fakt, że 3 miliardy ludzi codziennie korzysta z ich platform. Jeśli Mango dorówna jakością Runway Gen-4.5 lub Veo 3, przewaga dystrybucyjna staje się druzgocąca dla konkurencji.
Prawdziwe pytanie: czy Meta zbuduje najlepszy w klasie model, czy zadowoli się "wystarczająco dobrym" i polega na dystrybucji? Historia sugeruje to drugie. Ale zaangażowanie Wanga wskazuje na wyższe ambicje.
Odejście Yann LeCuna
Jest słoń w pokoju. Yann LeCun, legendarny główny naukowiec AI Meta i jeden z "ojców chrzestnych głębokiego uczenia", niedawno ogłosił odejście, aby uruchomić własny startup.
LeCun był otwarcie sceptyczny wobec dużych modeli językowych i wierzy w alternatywne podejścia do AI. Jego odejście budzi pytania o kierunek badań AI Meta. Czy Mango jest zgodne z wizją LeCuna, czy reprezentuje odejście od niej?
Jeszcze nie wiemy. Ale timing jest znamienny.
Na co zwracać uwagę
W miarę zbliżania się do 2026 roku, oto kluczowe pytania:
- ○Czy Mango będzie zawierać natywną generację audio jak Kling i Veo 3?
- ○Jak Meta będzie zarządzać moderacją treści dla wideo generowanego przez AI?
- ○Czy narzędzia dla twórców będą zintegrowane bezpośrednio w Instagramie?
- ○Czy MSL zachowa talenty po odejściu LeCuna?
Nasze zdanie
Ogłoszenie Mango przez Meta jest znaczące nie ze względu na to, co obiecuje, ale ze względu na to, co ujawnia o nastawieniu firmy. Skończyli być szybkim naśladowcą. Budują od podstaw, z poważnym przywództwem i celują w okno wydania, które daje im czas, aby zrobić to dobrze.
Czy Mango zdetronizuje Sora 2 lub Veo 3? Prawdopodobnie nie pierwszego dnia. Ale z 3 miliardami użytkowników i zasobami do szybkich iteracji, Meta musi tylko być blisko. Dystrybucja zrobi resztę.
Wyścig wideo AI właśnie stał się dużo ciekawszy.
Powiązane lektury: Dla kontekstu obecnego stanu wideo AI, sprawdź nasze porównanie Sora 2 vs Runway vs Veo 3 oraz nasze głębokie zanurzenie w modelach świata w generowaniu wideo AI.
Czy ten artykuł był pomocny?

Henry
Technolog KreatywnyTechnolog kreatywny z Lozanny badający, gdzie AI spotyka się ze sztuką. Eksperymentuje z modelami generatywnymi między sesjami muzyki elektronicznej.
Powiązane artykuły
Kontynuuj eksplorację dzięki tym powiązanym wpisom

Niewidzialne tarcze: jak znakowanie wideo AI rozwiązuje kryzys praw autorskich w 2025
Gdy filmy generowane przez AI stają się nieodróżnialne od prawdziwych nagrań, niewidzialne znakowanie wodne pojawia się jako krytyczna infrastruktura ochrony praw autorskich. Badamy nowe podejście Meta, SynthID Google i techniczne wyzwania osadzania sygnałów detekcji na skalę.

Kling 2.6: Klonowanie Głosu i Kontrola Ruchu Zmieniają Tworzenie Wideo AI
Najnowsza aktualizacja Kuaishou wprowadza jednoczesne generowanie audio i wideo, trening własnego głosu oraz precyzyjne przechwytywanie ruchu. To może zmienić sposób, w jaki twórcy podchodzą do produkcji wideo AI.

Pika 2.5: Dostępne AI-wideo przez szybkość, cenę i narzędzia
Pika Labs wydaje wersję 2.5 z szybszą generacją, ulepszoną fizyką i narzędziami jak Pikaframes i Pikaffects do pracy z wideo.