Meta SAM 3D: Fra flade billeder til komplette 3D-modeller på sekunder
Meta har netop udgivet SAM 3 og SAM 3D, der kan omdanne enkelte 2D-billeder til detaljerede 3D-mesh på sekunder. Vi forklarer, hvad det betyder for skabere og udviklere.

Den 19. november 2025 udgav Meta noget vigtigt. SAM 3D kan nu generere komplette 3D-mesh fra enkelte 2D-billeder på sekunder. Det, der tidligere krævede timer med manuel modellering eller dyrt fotogrammetriudstyr, sker nu med et enkelt klik.
Problemet SAM 3D løser
At skabe 3D-aktiver har altid været en flaskehals. Uanset om du bygger et spil, designer en produktvisualisering eller fylder en AR-oplevelse ud, ser processen typisk sådan ud:
Manuel modellering
Kunstner bruger 4-8 timer på at forme et enkelt objekt i Blender eller Maya
Optagelse fra flere vinkler
Tag 50-200 fotos fra alle vinkler, bearbejd natten over, rens artefakter manuelt
Enkelt billede
Upload et foto, modtag tekstureret 3D-mesh på sekunder
Konsekvenserne er betydelige. 3D-indholdsproduktion er nu tilgængelig for alle med et kamera.
Sådan fungerer SAM 3D
SAM 3D bygger på Metas Segment Anything Model-arkitektur, men udvider den til tre dimensioner. Systemet kommer i to specialiserede varianter:
SAM 3D Objects
- Optimeret til objekter og scener
- Håndterer kompleks geometri
- Fungerer med vilkårlige former
- Bedst til produkter, møbler, miljøer
SAM 3D Body
- Specialiseret til menneskekroppen
- Fanger kropsproportioner præcist
- Håndterer tøj og tilbehør
- Bedst til avatarer, karakterskabelse
Arkitekturen bruger en transformer-baseret encoder, der forudsiger dybde, overfladenormaler og geometri samtidig. I modsætning til tidligere single-image 3D-metoder, der ofte producerede utydelige, omtrentlige former, bevarer SAM 3D skarpe kanter og fine geometriske detaljer.
SAM 3D producerer standard mesh-formater, der er kompatible med Unity, Unreal Engine, Blender og det meste 3D-software. Ingen proprietær lock-in.
SAM 3 til video: Tekstbaseret objektisolering
Mens SAM 3D håndterer 2D-til-3D-konverteringen, fokuserer SAM 3 på videosegmentering med en væsentlig opgradering: tekstbaserede forespørgsler.
Tidligere versioner krævede, at du klikkede på objekter for at vælge dem. SAM 3 lader dig beskrive, hvad du vil isolere:
- "Vælg alle de røde biler"
- "Følg personen i den blå jakke"
- "Isoler baggrundsbygningerne"
Modellen opnår 47,0 zero-shot mask gennemsnitspræcision, en 22% forbedring i forhold til tidligere systemer. Vigtigere er det, at den kan behandle over 100 objekter samtidigt i en enkelt videoramme.
Integration med Meta Edits
SAM 3 er allerede integreret i Metas Edits-app til videoskabelse. Skabere kan anvende effekter, farveændringer og transformationer på specifikke objekter ved hjælp af naturlige sprogbeskrivelser i stedet for manuel frame-for-frame-maskering.
Teknisk arkitektur
For dem, der er interesserede i detaljerne, bruger SAM 3D en multi-head-arkitektur, der forudsiger flere egenskaber samtidigt:
Forudsigelseshoveder:
- Dybdekort: Per-pixel afstand fra kamera
- Overfladenormaler: 3D-orientering på hvert punkt
- Semantisk segmentering: Objektgrænser og kategorier
- Mesh-topologi: Trekantforbindelser til 3D-output
Modellen blev trænet på en kombination af virkelige 3D-scanninger og syntetiske data. Meta har ikke oplyst den nøjagtige datasetstørrelse, men nævner "millioner af objektinstanser" i deres tekniske dokumentation.
SAM 3D behandler billeder i flere opløsninger samtidigt, hvilket gør den i stand til at fange både fine detaljer (teksturer, kanter) og global struktur (overordnet form, proportioner) i et enkelt gennemløb.
Praktiske anvendelser
- E-handelsproduktvisualisering
- AR prøv-på-oplevelser
- Prototyping af spilaktiver
- Arkitektonisk visualisering
- Pædagogiske 3D-modeller
- Single-view-rekonstruktion har iboende tvetydighed
- Bagsider af objekter er udledt, ikke observeret
- Meget reflekterende eller gennemsigtige overflader er udfordrende
- Meget tynde strukturer rekonstruerer muligvis ikke godt
Single-view-begrænsningen er grundlæggende: modellen kan kun se én side af et objekt. Den udleder den skjulte geometri baseret på lærte priors, hvilket fungerer godt for almindelige objekter, men kan producere uventede resultater for usædvanlige former.
Tilgængelighed og adgang
SAM 3D er tilgængelig nu via Segment Anything Playground på Metas hjemmeside. For udviklere har Roboflow allerede bygget integration til custom fine-tuning på domænespecifikke objekter.
- ✓Web playground: Tilgængelig nu
- ✓API-adgang: Tilgængelig for udviklere
- ✓Roboflow-integration: Klar til fine-tuning
- ○Lokal deployment: Vægte kommer snart
API'en er gratis til forskning og begrænset kommerciel brug. Kommercielle anvendelser med højt volumen kræver en separat aftale med Meta.
Hvad dette betyder for branchen
Barrieren for 3D-indholdsproduktion er netop faldet markant. Overvej konsekvenserne:
For spiludviklere: Hurtig prototyping bliver trivielt. Fotografer objekter fra den virkelige verden, få anvendelige 3D-aktiver på sekunder, iterer derfra.
For e-handel: Produktfotografering kan automatisk generere 3D-modeller til AR-forhåndsvisningsfunktioner. Ingen separat 3D-produktionspipeline nødvendig.
For undervisere: Historiske genstande, biologiske prøver eller tekniske komponenter kan blive interaktive 3D-modeller fra eksisterende fotografier.
For AR/VR-skabere: At fylde virtuelle miljøer med realistiske objekter kræver ikke længere omfattende 3D-modelleringsekspertise.
Kombinationen af SAM 3 (videosegmentering) og SAM 3D (3D-rekonstruktion) muliggør workflows, hvor du kan segmentere et objekt fra videooptagelser og derefter konvertere det segmenterede objekt til en 3D-model. Ekstraktion og rekonstruktion i én pipeline.
Det større billede
SAM 3D repræsenterer en bredere tendens: AI fjerner systematisk friktion fra kreative workflows. Vi så det med billedgenerering, derefter videogenerering, og nu 3D-modellering.
Teknologien er ikke perfekt. Komplekse scener med okklusioner, usædvanlige materialer eller indviklet geometri udfordrer stadig systemet. Men den grundlæggende evne til at omdanne ethvert fotografi til et anvendeligt 3D-mesh er nu tilgængelig for alle.
For professionelle 3D-kunstnere er dette ikke en erstatning, men et værktøj. Generer et basemesh på sekunder, og forfin det derefter manuelt. Den kedelige indledende modelleringsfase komprimeres fra timer til sekunder, hvilket efterlader mere tid til det kreative arbejde, der rent faktisk kræver menneskelig vurdering.
Metas udgivelse signalerer, at 2D-til-3D-barrieren er ved at falde. Spørgsmålet nu er ikke, om AI kan skabe 3D-indhold fra billeder. Det er, hvor længe det vil tage, før denne evne bliver en standardfunktion i ethvert kreativt værktøj.

Alexis
AI-ingeniørAI-ingeniør fra Lausanne, der kombinerer forskningsdybde med praktisk innovation. Deler sin tid mellem modelarkitekturer og alpine bjergtinder.