Meta Mango: Innsiden av den Hemmelige AI-Videomodellen som Sikter mot å Styrte OpenAI og Google
Meta avslører Mango, en ny AI-video- og bildemodell med planlagt lansering i 2026. Med Scale AI-medgründer Alexandr Wang ved roret, kan Meta endelig ta igjen i det generative AI-kappløpet?

Etter måneder med å spille innhenting i det generative AI-kappløpet har Meta nettopp avslørt sitt mest ambisiøse prosjekt til nå: en AI-video- og bildemodell med kodenavnet Mango. Planlagt for lansering i første halvdel av 2026 representerer den sosiale medie-kjempens dristigste innsats på visuell AI hittil.
Kunngjøringen som Rystet Dalen
Nyheten kom under en intern Q&A hos Meta torsdag 19. desember. Chief Product Officer Chris Cox og Alexandr Wang, Scale AI-medgründeren som nå leder Metas Superintelligence Labs, avslørte en veikart som fikk ansatte til å summe.
To modeller. To kodenavn. Én massiv ambisjon.
Mens Avocado fokuserer på tekst, resonnement og forbedrede kodingsevner, er Mango det visuelle kraftsenteret. Ifølge interne kilder utforsker Meta "verdensmodeller som forstår visuell informasjon og kan resonnere, planlegge og handle uten å måtte trenes på alle muligheter."
Det er ikke bare videogenerering. Det nærmer seg noe mer som videoforståelse.
Hvorfor Meta Trenger Denne Seieren
La oss være ærlige: Meta har slitt i AI-kappløpet.
Mens OpenAI fanget verdens fantasi med ChatGPT og nå Sora 2s fysikk-nøyaktige videogenerering, og Google presset fremover med Veo 3 og innebygd lydsyntese, har Metas AI-assistent forblitt... fin. Funksjonell. Men ikke revolusjonerende.
Metas AI-assistent når milliarder gjennom Facebook, Instagram og WhatsApp. Men distribusjon er ikke det samme som innovasjon. Selskapet trenger et gjennombruddprodukt, ikke bare et veldistribuert middelmådig produkt.
Timingen av Mangos utvikling er ingen tilfeldighet. I løpet av sommeren gjennomgikk Meta en betydelig AI-omstrukturering. Wang tok roret i det nyopprettede Meta Superintelligence Labs (MSL), og selskapet har vært på en aggressiv rekrutteringsjakt med over 20 forskere fra OpenAI og utvidelse med 50+ nye AI-spesialister.
Alexandr Wang-Faktoren
Hvis du ikke kjenner Alexandr Wang, burde du. Han grunnla Scale AI som 19-åring og forvandlet det til et selskap på $13 milliarder som driver datainfrastrukturen bak noen av verdens mest avanserte AI-systemer. Å ha ham til å lede MSL signaliserer at Meta ikke bare kaster penger på problemet. De henter inn noen som forstår hele AI-pipelinen, fra datamerking til modelldistribusjon.
Scale AIs Track Record
Scale AI har jobbet med OpenAI, Google og det amerikanske forsvarsdepartementet. Wang forstår hva som skal til for å bygge modeller som fungerer i stor skala.
At Meta valgte en utenforstående fremfor intern forfremmelse sier mye om deres hast. Dette er ikke business as usual. Dette er en nullstilling.
Hva Mango Kunne Bety for Skapere
Her blir det interessant for oss som faktisk lager innhold.
Instagram og Facebook er allerede dominert av kortformat og langformat video. Meta har distribusjonen. Det de mangler er skapelsesverktøyene som konkurrenter kappes om å bygge. Tenk deg:
- AI-assistert videoredigering direkte i Instagram
- Automatiserte visuelle effekter for Reels
- Tekst-til-video-generering for annonseskaping
- Stil-konsistent innholdsgenerering på tvers av innlegg
- Innholdsmoderering i stor skala
- Skille AI fra menneskelig innhold
- Skapermotstand mot autentisitet
- Plattformtillit-problemer
Hvis Mango leverer på sitt "verdensmodell"-løfte, ser vi på AI som ikke bare genererer videorammer. Den forstår hva som skjer i en scene, kan resonnere om fysikk og objekter, og kan manipulere visuelt innhold med ekte forståelse.
Det er et stort hvis. Men potensialet er enormt.
Det Konkurransedyktige Landskapet i 2026
Når Mango lanseres i H1 2026, vil AI-videolandskapet se veldig annerledes ut enn i dag.
| Selskap | Modell | Nøkkelstyrke |
|---|---|---|
| OpenAI | Sora 2 | Fysikksimulering, Disney-karakterer |
| Veo 3 | Innebygd lyd, Flow-redigeringsverktøy | |
| Runway | Gen-4.5 | Visuell kvalitet, Adobe-integrasjon |
| Meta | Mango | Distribusjon, sosial integrasjon |
Metas fordel er ikke teknisk overlegenhet. I hvert fall ikke ennå. Det er det faktum at 3 milliarder mennesker bruker deres plattformer daglig. Hvis Mango kan matche kvaliteten til Runway Gen-4.5 eller Veo 3, blir distribusjonsfordelen ødeleggende for konkurrenter.
Det virkelige spørsmålet: Kan Meta bygge en best-in-class-modell, eller vil de nøye seg med "godt nok" og stole på distribusjon? Historien tyder på det siste. Men Wangs involvering antyder høyere ambisjoner.
Yann LeCuns Avgang
Det er en elefant i rommet. Yann LeCun, Metas legendariske chief AI scientist og en av "deep learnings gudfedre," kunngjorde nylig sin avgang for å lansere sin egen startup.
LeCun har vært vokal om sin skepsis til store språkmodeller og sin tro på alternative tilnærminger til AI. Hans exit reiser spørsmål om retningen for Metas AI-forskning. Er Mango i tråd med LeCuns visjon, eller representerer den et avvik fra den?
Vi vet ikke ennå. Men timingen er bemerkelsesverdig.
Hva Man Skal Holde Øye Med
Når vi går inn i 2026, her er de sentrale spørsmålene:
- ○Vil Mango inkludere innebygd lydgenerering som Kling og Veo 3?
- ○Hvordan vil Meta håndtere innholdsmoderering for AI-generert video?
- ○Vil skaperverktøy integreres direkte i Instagram?
- ○Kan MSL beholde talent etter LeCuns avgang?
Vår Oppfatning
Metas kunngjøring av Mango er betydningsfull, ikke på grunn av hva den lover, men på grunn av hva den avslører om selskapets tankesett. De er ferdige med å være en rask etterfølger. De bygger fra bunnen av med seriøst lederskap og målretter et lanseringsvindu som gir dem tid til å gjøre det riktig.
Vil Mango styrte Sora 2 eller Veo 3? Sannsynligvis ikke dag én. Men med 3 milliarder brukere og ressursene til å iterere raskt, trenger Meta bare å komme nær. Distribusjon gjør resten.
AI-videokappløpet ble nettopp mye mer interessant.
Relatert lesning: For kontekst om den nåværende tilstanden til AI-video, sjekk vår Sora 2 vs Runway vs Veo 3-sammenligning og vår dyptgående om verdensmodeller i AI-videogenerering.
Var denne artikkelen nyttig?

Henry
Kreativ teknologKreativ teknolog fra Lausanne som utforsker hvor KI møter kunst. Eksperimenterer med generative modeller mellom elektroniske musikksesjoner.
Relaterte artikler
Fortsett å utforske med disse relaterte innleggene

Usynlige skjold: Hvordan AI-video-vannmerking løser opphavsrettskrisen i 2025
Etter hvert som AI-genererte videoer blir uatskillelige fra ekte opptak, dukker usynlig vannmerking opp som kritisk infrastruktur for opphavsrettsbeskyttelse. Vi utforsker Metas nye tilnærming, Googles SynthID og de tekniske utfordringene ved å bygge inn deteksjonssignaler i stor skala.

YouTube Bringer Veo 3 Fast til Shorts: Gratis AI-Videogenerering for 2,5 Milliarder Brukere
Google integrerer sin Veo 3 Fast-modell direkte i YouTube Shorts og tilbyr gratis tekst-til-video-generering med lyd for skapere verden over. Her er hva det betyr for plattformen og AI-video tilgjengelighet.

Kling 2.6: Stemmekloning og bevegelseskontroll gir AI-video en ny retning
Kuaishous siste oppdatering introduserer samtidig lyd-visuell generering, tilpasset stemmetrening og presis bevegelsesopptak som kan endre hvordan skapere jobber med AI-video.