Meta Mango: Inuti den Hemliga AI-Videomodellen som Siktar på att Störta OpenAI och Google
Meta avslöjar Mango, en ny AI-video- och bildmodell med planerad lansering 2026. Med Scale AI-medgrundare Alexandr Wang vid rodret, kan Meta äntligen komma ikapp i det generativa AI-racet?

Efter månader av att spela ikapp i det generativa AI-racet har Meta precis avslöjat sitt mest ambitiösa projekt hittills: en AI-video- och bildmodell med kodnamnet Mango. Planerad för lansering under första halvåret 2026 representerar den sociala medie-jättens djärvaste satsning på visuell AI hittills.
Tillkännagivandet som Skakade Dalen
Nyheten kom under en intern Q&A hos Meta torsdagen den 19 december. Chief Product Officer Chris Cox och Alexandr Wang, Scale AI-medgrundarens som nu leder Metas Superintelligence Labs, avslöjade en färdplan som fick anställda att surra.
Två modeller. Två kodnamn. En massiv ambition.
Medan Avocado fokuserar på text, resonemang och förbättrade kodningsförmågor är Mango det visuella kraftpaketet. Enligt interna källor utforskar Meta "världsmodeller som förstår visuell information och kan resonera, planera och agera utan att behöva tränas på varje möjlighet."
Det är inte bara videogenerering. Det närmar sig något mer som videoförståelse.
Varför Meta Behöver Denna Vinst
Låt oss vara ärliga: Meta har kämpat i AI-racet.
Medan OpenAI fångade världens fantasi med ChatGPT och nu Sora 2:s fysik-noggranna videogenerering, och Google tryckte på framåt med Veo 3 och inbyggd ljudsyntes, har Metas AI-assistent förblivit... okej. Funktionell. Men inte revolutionerande.
Metas AI-assistent når miljarder genom Facebook, Instagram och WhatsApp. Men distribution är inte detsamma som innovation. Företaget behöver en genombrottsprodukt, inte bara en väldistribuerad medioker sådan.
Timingen av Mangos utveckling är ingen slump. Under sommaren genomgick Meta en betydande AI-omstrukturering. Wang tog rodret för det nybildade Meta Superintelligence Labs (MSL), och företaget har varit på en aggressiv rekryteringsjakt med över 20 forskare från OpenAI och expansion med 50+ nya AI-specialister.
Alexandr Wang-Faktorn
Om du inte känner till Alexandr Wang borde du. Han grundade Scale AI vid 19 års ålder och förvandlade det till ett företag på $13 miljarder som driver datainfrastrukturen bakom några av världens mest avancerade AI-system. Att ha honom ledande MSL signalerar att Meta inte bara kastar pengar på problemet. De tar in någon som förstår hela AI-pipelinen, från datamärkning till modelldistribution.
Scale AI:s Meritlista
Scale AI har arbetat med OpenAI, Google och det amerikanska försvarsdepartementet. Wang förstår vad som krävs för att bygga modeller som fungerar i, ja, stor skala.
Att Meta valde en utomstående snarare än att befordra internt säger mycket om deras brådska. Detta är inte business as usual. Detta är en omstart.
Vad Mango Skulle Kunna Betyda för Skapare
Här blir det intressant för oss som faktiskt skapar innehåll.
Instagram och Facebook domineras redan av kortformat och långformat video. Meta har distributionen. Vad de saknar är skapelseverktyg som konkurrenter tävlar om att bygga. Föreställ dig:
- AI-assisterad videoredigering direkt i Instagram
- Automatiserade visuella effekter för Reels
- Text-till-video-generering för annonskapande
- Stil-konsistent innehållsgenerering över inlägg
- Innehållsmoderering i stor skala
- Skilja AI från mänskligt innehåll
- Skaparmotstånd mot autenticitet
- Plattformsförtroendeproblem
Om Mango levererar på sitt "världsmodell"-löfte tittar vi på AI som inte bara genererar videoramar. Den förstår vad som händer i en scen, kan resonera om fysik och objekt och kan manipulera visuellt innehåll med verklig förståelse.
Det är ett stort om. Men potentialen är enorm.
Det Konkurrenskraftiga Landskapet 2026
När Mango lanseras under H1 2026 kommer AI-videolandskapet att se mycket annorlunda ut än idag.
| Företag | Modell | Nyckelstyrka |
|---|---|---|
| OpenAI | Sora 2 | Fysiksimulering, Disney-karaktärer |
| Veo 3 | Inbyggt ljud, Flow-redigeringsverktyg | |
| Runway | Gen-4.5 | Visuell kvalitet, Adobe-integration |
| Meta | Mango | Distribution, social integration |
Metas fördel är inte teknisk överlägsenhet. Åtminstone inte än. Det är det faktum att 3 miljarder människor använder deras plattformar dagligen. Om Mango kan matcha kvaliteten hos Runway Gen-4.5 eller Veo 3 blir distributionsfördelen förödande för konkurrenter.
Den verkliga frågan: Kan Meta bygga en best-in-class-modell, eller kommer de nöja sig med "tillräckligt bra" och förlita sig på distribution? Historien tyder på det senare. Men Wangs engagemang antyder högre ambitioner.
Yann LeCuns Avgång
Det finns en elefant i rummet. Yann LeCun, Metas legendariske chief AI scientist och en av "deep learnings gudfäder," tillkännagav nyligen sin avgång för att lansera sin egen startup.
LeCun har varit högljudd om sin skepticism mot stora språkmodeller och sin tro på alternativa tillvägagångssätt för AI. Hans exit väcker frågor om riktningen för Metas AI-forskning. Är Mango i linje med LeCuns vision, eller representerar den en avvikelse från den?
Vi vet inte än. Men timingen är anmärkningsvärd.
Vad Man Ska Hålla Ögonen På
När vi går in i 2026, här är de centrala frågorna:
- ○Kommer Mango inkludera inbyggd ljudgenerering som Kling och Veo 3?
- ○Hur kommer Meta hantera innehållsmoderering för AI-genererad video?
- ○Kommer skaparverktyg integreras direkt i Instagram?
- ○Kan MSL behålla talang efter LeCuns avgång?
Vår Uppfattning
Metas tillkännagivande av Mango är betydelsefullt, inte på grund av vad den lovar, utan på grund av vad den avslöjar om företagets tankesätt. De är klara med att vara en snabb efterföljare. De bygger från grunden, med seriöst ledarskap och siktar på ett lanseringsfönster som ger dem tid att göra det rätt.
Kommer Mango störta Sora 2 eller Veo 3? Förmodligen inte dag ett. Men med 3 miljarder användare och resurserna att iterera snabbt behöver Meta bara komma nära. Distribution gör resten.
AI-videoracet blev precis mycket mer intressant.
Relaterad läsning: För kontext om det nuvarande läget för AI-video, kolla vår Sora 2 vs Runway vs Veo 3-jämförelse och vår djupdykning i världsmodeller i AI-videogenerering.
Var den här artikeln hjälpsam?

Henry
Kreativ teknologKreativ teknolog från Lausanne som utforskar var AI möter konst. Experimenterar med generativa modeller mellan elektroniska musiksessioner.
Relaterade artiklar
Fortsätt utforska med dessa relaterade inlägg

Osynliga sköldar: Hur AI-videovattenmärkning löser upphovsrättskrisen 2025
När AI-genererade videor blir omöjliga att skilja från verkligt filmmaterial framträder osynlig vattenmärkning som kritisk infrastruktur för upphovsrättsskydd. Vi utforskar Metas nya tillvägagångssätt, Googles SynthID och de tekniska utmaningarna med att bädda in detekteringssignaler i stor skala.

YouTube Tar Veo 3 Fast till Shorts: Gratis AI-Videogenerering for 2,5 Miljarder Anvandare
Google integrerar sin Veo 3 Fast-modell direkt i YouTube Shorts och erbjuder gratis text-till-video-generering med ljud for skapare varlden over. Har ar vad det betyder for plattformen och AI-video tillganglighet.

Kling 2.6: Röstkloning och rörelsesstyrning förnyar AI-videoskapande
Kuaishous senaste uppdatering introducerar samtidig ljud- och bildgenerering, anpassad rösttraning och precisions rörelsefångst som kan förändra hur skapare arbetar med AI-videoproduktion.