Meta SAM 3D: Van Platte Foto's naar Volledige 3D-Modellen in Seconden
Meta heeft SAM 3 en SAM 3D uitgebracht, die enkele 2D-afbeeldingen in seconden omzetten naar gedetailleerde 3D-meshes. We leggen uit wat dit betekent voor makers en ontwikkelaars.

Meta heeft op 19 november 2025 iets belangrijks gelanceerd. SAM 3D kan nu complete 3D-meshes genereren uit enkele 2D-afbeeldingen in seconden. Wat vroeger uren handmatig modelleren of dure fotogrammetrie-apparatuur vereiste, gebeurt nu met één klik.
Het Probleem dat SAM 3D Oplost
Het maken van 3D-assets is altijd een bottleneck geweest. Of je nu een game bouwt, een productvisualisatie ontwerpt, of een AR-ervaring vult, het proces ziet er meestal zo uit:
Handmatig Modelleren
Artiest besteedt 4-8 uur aan het sculpting van één object in Blender of Maya
Multi-Image Capture
Maak 50-200 foto's vanuit alle hoeken, verwerk 's nachts, ruim artefacten handmatig op
Enkele Afbeelding
Upload één foto, ontvang getextureerde 3D-mesh in seconden
De gevolgen zijn aanzienlijk. 3D-contentcreatie is nu toegankelijk voor iedereen met een camera.
Hoe SAM 3D Werkt
SAM 3D bouwt voort op Meta's Segment Anything Model-architectuur, maar breidt het uit naar drie dimensies. Het systeem komt in twee gespecialiseerde varianten:
SAM 3D Objects
- Geoptimaliseerd voor objecten en scènes
- Verwerkt complexe geometrie
- Werkt met willekeurige vormen
- Beste voor producten, meubels, omgevingen
SAM 3D Body
- Gespecialiseerd voor menselijke vormen
- Legt lichaamsverhoudingen nauwkeurig vast
- Verwerkt kleding en accessoires
- Beste voor avatars, karaktercreatie
De architectuur gebruikt een transformer-gebaseerde encoder die diepte, oppervlaktenormalen en geometrie tegelijkertijd voorspelt. In tegenstelling tot eerdere single-image 3D-methoden die vaak vage, geschatte vormen produceerden, behoudt SAM 3D scherpe randen en fijne geometrische details.
SAM 3D levert standaard mesh-formaten die compatibel zijn met Unity, Unreal Engine, Blender en de meeste 3D-software. Geen propriëtaire lock-in.
SAM 3 voor Video: Tekstgebaseerde Object-Isolatie
Terwijl SAM 3D de 2D-naar-3D conversie afhandelt, richt SAM 3 zich op videosegmentatie met een belangrijke upgrade: tekstgebaseerde queries.
Eerdere versies vereisten dat je op objecten klikte om ze te selecteren. SAM 3 laat je beschrijven wat je wilt isoleren:
- "Selecteer alle rode auto's"
- "Volg de persoon in het blauwe jack"
- "Isoleer de achtergrondgebouwen"
Het model bereikt 47.0 zero-shot mask average precision, een verbetering van 22% ten opzichte van eerdere systemen. Belangrijker nog, het kan meer dan 100 objecten tegelijkertijd verwerken in één videoframe.
Integratie met Meta Edits
SAM 3 is al geïntegreerd in Meta's Edits video-creatie-app. Makers kunnen effecten, kleurveranderingen en transformaties toepassen op specifieke objecten met natuurlijke taalbeschrijvingen in plaats van handmatige frame-voor-frame masking.
Technische Architectuur
Voor wie geïnteresseerd is in de details: SAM 3D gebruikt een multi-head architectuur die verschillende eigenschappen tegelijkertijd voorspelt:
Prediction Heads:
- Depth Map: Per-pixel afstand vanaf camera
- Surface Normals: 3D-oriëntatie op elk punt
- Semantic Segmentation: Objectgrenzen en categorieën
- Mesh Topology: Driehoeksconnectiviteit voor 3D-output
Het model is getraind op een combinatie van real-world 3D-scans en synthetische data. Meta heeft de exacte dataset-grootte niet bekendgemaakt, maar noemt "miljoenen objectinstanties" in hun technische documentatie.
SAM 3D verwerkt afbeeldingen op meerdere resoluties tegelijkertijd, waardoor het zowel fijne details (texturen, randen) als globale structuur (algemene vorm, verhoudingen) in één voorwaartse pass kan vastleggen.
Praktische Toepassingen
- E-commerce productvisualisatie
- AR try-on ervaringen
- Game asset prototyping
- Architectuurvisualisatie
- Educatieve 3D-modellen
- Single-view reconstructie heeft inherente dubbelzinnigheid
- Achterkanten van objecten worden afgeleid, niet waargenomen
- Sterk reflecterende of transparante oppervlakken worstelen
- Zeer dunne structuren reconstrueren mogelijk niet goed
De single-view beperking is fundamenteel: het model kan maar één kant van een object zien. Het leidt verborgen geometrie af op basis van geleerde priors, wat goed werkt voor gangbare objecten maar onverwachte resultaten kan opleveren voor ongebruikelijke vormen.
Beschikbaarheid en Toegang
SAM 3D is nu beschikbaar via de Segment Anything Playground op Meta's website. Voor ontwikkelaars heeft Roboflow al een integratie gebouwd voor custom fine-tuning op domeinspecifieke objecten.
- ✓Web playground: Nu beschikbaar
- ✓API-toegang: Beschikbaar voor ontwikkelaars
- ✓Roboflow-integratie: Klaar voor fine-tuning
- ○Lokale deployment: Weights komen binnenkort
De API is gratis voor onderzoek en beperkt commercieel gebruik. Grootschalige commerciële toepassingen vereisen een aparte overeenkomst met Meta.
Wat Dit Betekent voor de Industrie
De drempel voor 3D-contentcreatie is net flink verlaagd. Denk aan de gevolgen:
Voor game-ontwikkelaars: Rapid prototyping wordt triviaal. Fotografeer objecten uit de echte wereld, krijg bruikbare 3D-assets in seconden, itereer vanaf daar.
Voor e-commerce: Productfotografie kan automatisch 3D-modellen genereren voor AR preview-functies. Geen aparte 3D-productiepipeline nodig.
Voor docenten: Historische artefacten, biologische specimens of technische componenten kunnen interactieve 3D-modellen worden vanuit bestaande foto's.
Voor AR/VR-makers: Virtuele omgevingen vullen met realistische objecten vereist niet langer uitgebreide 3D-modelleringskennis.
De combinatie van SAM 3 (videosegmentatie) en SAM 3D (3D-reconstructie) maakt workflows mogelijk waarbij je een object uit videobeelden kunt segmenteren en dat gesegmenteerde object vervolgens omzet in een 3D-model. Extractie en reconstructie in één pipeline.
Het Grotere Plaatje
SAM 3D vertegenwoordigt een bredere trend: AI verwijdert systematisch wrijving uit creatieve workflows. We zagen dit bij het genereren van afbeeldingen, daarna videogeneratie, en nu 3D-modellering.
De technologie is niet perfect. Complexe scènes met occlusies, ongebruikelijke materialen of ingewikkelde geometrie vormen nog steeds een uitdaging voor het systeem. Maar de basisvaardigheid, elke foto omzetten in een bruikbare 3D-mesh, is nu beschikbaar voor iedereen.
Voor professionele 3D-artiesten is dit geen vervanging maar een tool. Genereer een basis-mesh in seconden, verfijn het daarna handmatig. De saaie initiële modelleerfase comprimeert van uren naar seconden, waardoor er meer tijd overblijft voor het creatieve werk dat daadwerkelijk menselijk oordeel vereist.
Meta's release signaleert dat de 2D-naar-3D barrière aan het afbrokkelen is. De vraag is nu niet of AI 3D-content kan maken uit afbeeldingen. Het is hoe lang tot deze mogelijkheid een standaardfunctie wordt in elke creatieve tool.

Alexis
AI EngineerAI engineer uit Lausanne die onderzoeksdiepgang combineert met praktische innovatie. Verdeelt zijn tijd tussen modelarchitecturen en Alpentoppen.