Meta Mango : Plongée dans le modèle vidéo IA secret qui vise à détrôner OpenAI et Google
Meta dévoile Mango, un nouveau modèle IA pour la vidéo et l'image avec une sortie prévue en 2026. Avec Alexandr Wang, co-fondateur de Scale AI, à la tête du projet, Meta peut-il enfin rattraper son retard dans la course à l'IA générative ?

Après des mois à tenter de rattraper son retard dans la course à l'IA générative, Meta vient de révéler son projet le plus ambitieux à ce jour : un modèle IA de vidéo et d'image baptisé Mango. Prévu pour la première moitié de 2026, il représente le pari le plus audacieux du géant des médias sociaux sur l'IA visuelle.
L'annonce qui a secoué la Silicon Valley
La nouvelle est tombée lors d'une session de questions-réponses interne chez Meta le jeudi 19 décembre. Chris Cox, Chief Product Officer, et Alexandr Wang, co-fondateur de Scale AI et désormais à la tête des Superintelligence Labs de Meta, ont dévoilé une feuille de route qui a fait vibrer les employés.
Deux modèles. Deux noms de code. Une ambition massive.
Alors qu'Avocado se concentre sur le texte, le raisonnement et l'amélioration des capacités de codage, Mango est la puissance visuelle. Selon des sources internes, Meta explore des "modèles du monde qui comprennent l'information visuelle et peuvent raisonner, planifier et agir sans avoir besoin d'être entraînés sur toutes les possibilités."
Ce n'est pas simplement de la génération vidéo. C'est quelque chose qui s'approche davantage de la compréhension vidéo.
Pourquoi Meta a besoin de cette victoire
Soyons honnêtes : Meta a eu du mal dans la course à l'IA.
Alors qu'OpenAI a captivé l'imagination du monde avec ChatGPT et maintenant la génération vidéo physiquement précise de Sora 2, et que Google a avancé avec Veo 3 et la synthèse audio native, l'assistant IA de Meta est resté... correct. Fonctionnel. Mais pas révolutionnaire.
L'assistant IA de Meta touche des milliards de personnes via Facebook, Instagram et WhatsApp. Mais la distribution n'est pas la même chose que l'innovation. L'entreprise a besoin d'un produit révolutionnaire, pas seulement d'un produit médiocre bien distribué.
Le timing du développement de Mango n'est pas une coïncidence. Durant l'été, Meta a subi une restructuration importante de son IA. Wang a pris la tête des Meta Superintelligence Labs (MSL) nouvellement créés, et l'entreprise s'est lancée dans un recrutement agressif, attirant plus de 20 chercheurs d'OpenAI et s'agrandissant avec plus de 50 nouveaux spécialistes de l'IA.
Le facteur Alexandr Wang
Si vous ne connaissez pas Alexandr Wang, vous devriez. Il a co-fondé Scale AI à 19 ans et l'a transformée en une entreprise de 13 milliards de dollars qui alimente l'infrastructure de données derrière certains des systèmes d'IA les plus avancés au monde. L'avoir à la tête de MSL signale que Meta ne se contente pas de jeter de l'argent sur le problème. Ils font venir quelqu'un qui comprend l'ensemble du pipeline IA, de l'étiquetage des données au déploiement des modèles.
Le bilan de Scale AI
Scale AI a travaillé avec OpenAI, Google et le Département de la Défense américain. Wang comprend ce qu'il faut pour construire des modèles qui fonctionnent à grande échelle.
Le fait que Meta ait fait appel à un externe plutôt que de promouvoir en interne en dit long sur leur urgence. Ce n'est pas le business habituel. C'est une réinitialisation.
Ce que Mango pourrait signifier pour les créateurs
C'est là que les choses deviennent intéressantes pour ceux d'entre nous qui créent réellement du contenu.
Instagram et Facebook sont déjà dominés par la vidéo courte et longue. Meta a la distribution. Ce qui leur manque, ce sont les outils de création que les concurrents se battent pour construire. Imaginez :
- Montage vidéo assisté par IA directement dans Instagram
- Effets visuels automatisés pour les Reels
- Génération texte-vers-vidéo pour la création publicitaire
- Génération de contenu cohérent en style sur plusieurs publications
- Modération de contenu à grande échelle
- Distinguer le contenu IA du contenu humain
- Réaction négative des créateurs sur l'authenticité
- Problèmes de confiance envers la plateforme
Si Mango tient sa promesse de "modèle du monde", nous regardons une IA qui ne génère pas simplement des images vidéo. Elle comprend ce qui se passe dans une scène, peut raisonner sur la physique et les objets, et peut manipuler le contenu visuel avec une véritable compréhension.
C'est un grand si. Mais le potentiel est énorme.
Le paysage concurrentiel en 2026
Au moment où Mango sortira au premier semestre 2026, le paysage de la vidéo IA sera très différent de ce qu'il est aujourd'hui.
| Entreprise | Modèle | Force principale |
|---|---|---|
| OpenAI | Sora 2 | Simulation physique, personnages Disney |
| Veo 3 | Audio natif, outils d'édition Flow | |
| Runway | Gen-4.5 | Qualité visuelle, intégration Adobe |
| Meta | Mango | Distribution, intégration sociale |
L'avantage de Meta n'est pas la supériorité technique. Pas encore, du moins. C'est le fait que 3 milliards de personnes utilisent leurs plateformes quotidiennement. Si Mango peut égaler la qualité de Runway Gen-4.5 ou Veo 3, l'avantage de distribution devient dévastateur pour les concurrents.
La vraie question : Meta peut-il construire un modèle de classe mondiale, ou se contentera-t-il de "suffisamment bon" en s'appuyant sur la distribution ? L'histoire suggère le second. Mais l'implication de Wang laisse présager des ambitions plus élevées.
Le départ de Yann LeCun
Il y a un éléphant dans la pièce. Yann LeCun, le légendaire scientifique en chef de l'IA chez Meta et l'un des "parrains de l'apprentissage profond", a récemment annoncé son départ pour lancer sa propre startup.
LeCun a été vocal sur son scepticisme envers les grands modèles de langage et sa croyance en des approches alternatives de l'IA. Son départ soulève des questions sur la direction de la recherche IA de Meta. Mango est-il aligné avec la vision de LeCun, ou représente-t-il une rupture ?
Nous ne savons pas encore. Mais le timing est notable.
Ce qu'il faut surveiller
Alors que nous entrons dans 2026, voici les questions clés :
- ○Mango inclura-t-il la génération audio native comme Kling et Veo 3 ?
- ○Comment Meta gérera-t-il la modération de contenu pour la vidéo générée par IA ?
- ○Les outils créateurs seront-ils intégrés directement dans Instagram ?
- ○MSL peut-il retenir les talents après le départ de LeCun ?
Notre avis
L'annonce de Mango par Meta est significative non pas pour ce qu'elle promet, mais pour ce qu'elle révèle sur l'état d'esprit de l'entreprise. Ils en ont fini d'être un suiveur rapide. Ils construisent à partir de zéro, avec un leadership sérieux, et ciblent une fenêtre de sortie qui leur donne le temps de bien faire les choses.
Mango détrônera-t-il Sora 2 ou Veo 3 ? Probablement pas dès le premier jour. Mais avec 3 milliards d'utilisateurs et les ressources pour itérer rapidement, Meta n'a besoin que de s'approcher. La distribution fait le reste.
La course à la vidéo IA vient de devenir beaucoup plus intéressante.
Lectures connexes : Pour comprendre l'état actuel de la vidéo IA, consultez notre comparaison Sora 2 vs Runway vs Veo 3 et notre analyse approfondie des modèles du monde dans la génération vidéo IA.
Cet article vous a-t-il été utile ?

Henry
Technologue CréatifTechnologue créatif de Lausanne explorant la rencontre entre l'IA et l'art. Expérimente avec des modèles génératifs entre ses sessions de musique électronique.
Articles connexes
Continuez à explorer avec ces articles similaires

Boucliers invisibles : Comment le watermarking vidéo par IA résout la crise du droit d'auteur en 2025
Alors que les vidéos générées par IA deviennent impossibles à distinguer des vraies, le watermarking invisible émerge comme une infrastructure critique pour la protection du droit d'auteur. Nous explorons l'approche de Meta, le SynthID de Google et les défis techniques de l'intégration de signaux de détection à grande échelle.

Pika 2.5 : Démocratiser la Vidéo IA par la Rapidité, le Prix et les Outils Créatifs
Pika Labs dévoile la version 2.5, alliant génération accélérée, physique améliorée et outils créatifs tels que Pikaframes et Pikaffects pour rendre la vidéo IA accessible à tous.

ByteDance Seedance 1.5 Pro : le modèle qui génère audio et vidéo ensemble
ByteDance publie Seedance 1.5 Pro avec génération audio-visuelle native, contrôles de caméra de qualité cinéma et synchronisation labiale multilingue. Disponible gratuitement sur CapCut.