Meta Mango: Binnenin het Geheime AI-Videomodel Dat OpenAI en Google Wil Onttronen
Meta onthult Mango, een nieuw AI-video- en beeldmodel met release gepland voor 2026. Met Scale AI mede-oprichter Alexandr Wang aan het roer, kan Meta eindelijk inhalen in de generatieve AI-race?

Na maandenlang achter de feiten aanlopen in de generatieve AI-race, heeft Meta zojuist zijn meest ambitieuze project onthuld: een AI-video- en beeldmodel met de codenaam Mango. Gepland voor release in de eerste helft van 2026, vertegenwoordigt het de meest gedurfde inzet van de social media-gigant op visuele AI tot nu toe.
De Aankondiging Die de Valley Deed Schudden
Het nieuws kwam naar buiten tijdens een interne Q&A bij Meta op donderdag 19 december. Chief Product Officer Chris Cox en Alexandr Wang, de Scale AI mede-oprichter die nu Meta's Superintelligence Labs leidt, onthulden een roadmap waar medewerkers van gonzen.
Twee modellen. Twee codenamen. Eén massale ambitie.
Terwijl Avocado zich richt op tekst, redeneren en verbeterde programmeer-mogelijkheden, is Mango het visuele krachtpatser. Volgens interne bronnen onderzoekt Meta "wereldmodellen die visuele informatie begrijpen en kunnen redeneren, plannen en handelen zonder op elke mogelijkheid getraind te hoeven worden."
Dat is niet alleen videogeneratie. Dat komt eerder in de buurt van video-begrip.
Waarom Meta Deze Overwinning Nodig Heeft
Laten we eerlijk zijn: Meta heeft het moeilijk in de AI-race.
Terwijl OpenAI de verbeelding van de wereld veroverde met ChatGPT en nu Sora 2's fysica-accurate videogeneratie, en Google vooruit stormde met Veo 3 en native audiosynthese, is Meta's AI-assistent... prima gebleven. Functioneel. Maar niet revolutionair.
Meta's AI-assistent bereikt miljarden via Facebook, Instagram en WhatsApp. Maar distributie is niet hetzelfde als innovatie. Het bedrijf heeft een doorbraakproduct nodig, niet alleen een goed gedistribueerd middelmatig product.
De timing van Mango's ontwikkeling is geen toeval. In de zomer onderging Meta een grote AI-herstructurering. Wang nam het roer over van de nieuw opgerichte Meta Superintelligence Labs (MSL), en het bedrijf is op een agressieve wervingscampagne gegaan, met meer dan 20 onderzoekers van OpenAI en uitbreiding met 50+ nieuwe AI-specialisten.
De Alexandr Wang Factor
Als je Alexandr Wang niet kent, zou je dat moeten. Hij richtte Scale AI op op 19-jarige leeftijd en maakte er een bedrijf van $13 miljard van dat de data-infrastructuur aandrijft achter enkele van de meest geavanceerde AI-systemen ter wereld. Het feit dat hij MSL leidt, signaleert dat Meta niet alleen maar geld tegen het probleem aangooit. Ze halen iemand binnen die de hele AI-pipeline begrijpt, van data-labeling tot model-deployment.
Scale AI's Track Record
Scale AI heeft gewerkt met OpenAI, Google en het Amerikaanse ministerie van Defensie. Wang begrijpt wat er nodig is om modellen te bouwen die op schaal werken.
Het feit dat Meta een buitenstaander aantrok in plaats van intern te promoveren, zegt genoeg over hun urgentie. Dit is niet business as usual. Dit is een reset.
Wat Mango Kan Betekenen voor Creators
Hier wordt het interessant voor diegenen onder ons die daadwerkelijk content maken.
Instagram en Facebook worden al gedomineerd door short-form en long-form video. Meta heeft de distributie. Wat ze missen zijn de creatietools die concurrenten aan het bouwen zijn. Stel je voor:
- AI-ondersteunde video-editing direct in Instagram
- Geautomatiseerde visuele effecten voor Reels
- Tekst-naar-video generatie voor advertentiecreatie
- Stijl-consistente content generatie over posts heen
- Content moderatie op schaal
- AI van menselijke content onderscheiden
- Creator verzet tegen authenticiteit
- Platform vertrouwensproblemen
Als Mango zijn "wereldmodel"-belofte waarmaakt, kijken we naar AI die niet alleen videoframes genereert. Het begrijpt wat er in een scène gebeurt, kan redeneren over fysica en objecten, en kan visuele content manipuleren met echt begrip.
Dat is een grote als. Maar het potentieel is enorm.
Het Competitieve Landschap in 2026
Tegen de tijd dat Mango uitkomt in H1 2026, zal het AI-videolandschap er heel anders uitzien dan vandaag.
| Bedrijf | Model | Belangrijkste Kracht |
|---|---|---|
| OpenAI | Sora 2 | Fysica-simulatie, Disney-personages |
| Veo 3 | Native audio, Flow editing tools | |
| Runway | Gen-4.5 | Visuele kwaliteit, Adobe integratie |
| Meta | Mango | Distributie, sociale integratie |
Meta's voordeel is geen technische superioriteit. Nog niet, in ieder geval. Het is het feit dat 3 miljard mensen dagelijks hun platformen gebruiken. Als Mango de kwaliteit kan evenaren van Runway Gen-4.5 of Veo 3, wordt het distributievoordeel vernietigend voor concurrenten.
De echte vraag: Kan Meta een best-in-class model bouwen, of settelen ze voor "goed genoeg" en vertrouwen op distributie? De geschiedenis suggereert het laatste. Maar Wang's betrokkenheid wijst op hogere ambities.
Het Vertrek van Yann LeCun
Er is een olifant in de kamer. Yann LeCun, Meta's legendarische chief AI scientist en een van de "godfathers of deep learning," kondigde onlangs zijn vertrek aan om zijn eigen startup te lanceren.
LeCun is vocaal geweest over zijn scepticisme over grote taalmodellen en zijn geloof in alternatieve benaderingen van AI. Zijn vertrek roept vragen op over de richting van Meta's AI-onderzoek. Is Mango in lijn met LeCun's visie, of vertegenwoordigt het een afwijking daarvan?
We weten het nog niet. Maar de timing is opmerkelijk.
Waar Op Te Letten
Terwijl we richting 2026 gaan, zijn dit de belangrijkste vragen:
- ○Zal Mango native audiogeneratie bevatten zoals Kling en Veo 3?
- ○Hoe zal Meta content moderatie voor AI-gegenereerde video aanpakken?
- ○Worden creator tools direct in Instagram geïntegreerd?
- ○Kan MSL talent behouden na LeCun's vertrek?
Onze Mening
Meta's aankondiging van Mango is significant, niet vanwege wat het belooft, maar vanwege wat het onthult over de mindset van het bedrijf. Ze zijn klaar met een fast follower zijn. Ze bouwen vanaf nul, met serieus leiderschap, en targeten een release-window die ze tijd geeft om het goed te doen.
Zal Mango Sora 2 of Veo 3 onttronen? Waarschijnlijk niet op dag één. Maar met 3 miljard gebruikers en de middelen om snel te itereren, hoeft Meta alleen maar dichtbij te komen. Distributie doet de rest.
De AI-videorace is zojuist veel interessanter geworden.
Gerelateerd: Voor context over de huidige staat van AI-video, bekijk onze Sora 2 vs Runway vs Veo 3 vergelijking en onze deep dive in wereldmodellen in AI-videogeneratie.
Was dit artikel nuttig?

Henry
Creatief TechnoloogCreatief technoloog uit Lausanne die verkent waar AI en kunst elkaar ontmoeten. Experimenteert met generatieve modellen tussen elektronische muzieksessies door.
Gerelateerde artikelen
Ontdek meer met deze gerelateerde posts

Onzichtbare Schilden: Hoe AI Video Watermarking de Auteursrechtcrisis Oplost in 2025
Nu AI-gegenereerde video's niet meer te onderscheiden zijn van echte beelden, komt onzichtbare watermarking naar voren als cruciale infrastructuur voor auteursrechtbescherming. We verkennen Meta's nieuwe aanpak, Google's SynthID en de technische uitdagingen van het inbedden van detectiesignalen op schaal.

YouTube Brengt Veo 3 Fast naar Shorts: Gratis AI-Videogeneratie voor 2,5 Miljard Gebruikers
Google integreert zijn Veo 3 Fast-model direct in YouTube Shorts en biedt gratis tekst-naar-video generatie met audio voor creators wereldwijd. Dit is wat het betekent voor het platform en de toegankelijkheid van AI-video.

Kling 2.6: Stemklonen en Bewegingscontrole Veranderen AI-Video Creatie
Kuaishou's nieuwste update brengt gelijktijdige audio-video generatie, custom stemtraining en nauwkeurige motion capture. Dit kan fundamenteel veranderen hoe je met AI-video werkt.