AlexisAlexis
5 min read
945 ord

Meta SAM 3D: Fra flade billeder til komplette 3D-modeller på sekunder

Meta har netop udgivet SAM 3 og SAM 3D, der kan omdanne enkelte 2D-billeder til detaljerede 3D-mesh på sekunder. Vi forklarer, hvad det betyder for skabere og udviklere.

Meta SAM 3D: Fra flade billeder til komplette 3D-modeller på sekunder

Den 19. november 2025 udgav Meta noget vigtigt. SAM 3D kan nu generere komplette 3D-mesh fra enkelte 2D-billeder på sekunder. Det, der tidligere krævede timer med manuel modellering eller dyrt fotogrammetriudstyr, sker nu med et enkelt klik.

Problemet SAM 3D løser

At skabe 3D-aktiver har altid været en flaskehals. Uanset om du bygger et spil, designer en produktvisualisering eller fylder en AR-oplevelse ud, ser processen typisk sådan ud:

Traditionel

Manuel modellering

Kunstner bruger 4-8 timer på at forme et enkelt objekt i Blender eller Maya

Fotogrammetri

Optagelse fra flere vinkler

Tag 50-200 fotos fra alle vinkler, bearbejd natten over, rens artefakter manuelt

SAM 3D

Enkelt billede

Upload et foto, modtag tekstureret 3D-mesh på sekunder

Konsekvenserne er betydelige. 3D-indholdsproduktion er nu tilgængelig for alle med et kamera.

Sådan fungerer SAM 3D

SAM 3D bygger på Metas Segment Anything Model-arkitektur, men udvider den til tre dimensioner. Systemet kommer i to specialiserede varianter:

SAM 3D Objects

  • Optimeret til objekter og scener
  • Håndterer kompleks geometri
  • Fungerer med vilkårlige former
  • Bedst til produkter, møbler, miljøer

SAM 3D Body

  • Specialiseret til menneskekroppen
  • Fanger kropsproportioner præcist
  • Håndterer tøj og tilbehør
  • Bedst til avatarer, karakterskabelse

Arkitekturen bruger en transformer-baseret encoder, der forudsiger dybde, overfladenormaler og geometri samtidig. I modsætning til tidligere single-image 3D-metoder, der ofte producerede utydelige, omtrentlige former, bevarer SAM 3D skarpe kanter og fine geometriske detaljer.

💡

SAM 3D producerer standard mesh-formater, der er kompatible med Unity, Unreal Engine, Blender og det meste 3D-software. Ingen proprietær lock-in.

SAM 3 til video: Tekstbaseret objektisolering

Mens SAM 3D håndterer 2D-til-3D-konverteringen, fokuserer SAM 3 på videosegmentering med en væsentlig opgradering: tekstbaserede forespørgsler.

Tidligere versioner krævede, at du klikkede på objekter for at vælge dem. SAM 3 lader dig beskrive, hvad du vil isolere:

  • "Vælg alle de røde biler"
  • "Følg personen i den blå jakke"
  • "Isoler baggrundsbygningerne"
47.0
Zero-Shot mAP
22%
Forbedring
100+
Objekter sporet

Modellen opnår 47,0 zero-shot mask gennemsnitspræcision, en 22% forbedring i forhold til tidligere systemer. Vigtigere er det, at den kan behandle over 100 objekter samtidigt i en enkelt videoramme.

🎬

Integration med Meta Edits

SAM 3 er allerede integreret i Metas Edits-app til videoskabelse. Skabere kan anvende effekter, farveændringer og transformationer på specifikke objekter ved hjælp af naturlige sprogbeskrivelser i stedet for manuel frame-for-frame-maskering.

Teknisk arkitektur

For dem, der er interesserede i detaljerne, bruger SAM 3D en multi-head-arkitektur, der forudsiger flere egenskaber samtidigt:

Forudsigelseshoveder:

  • Dybdekort: Per-pixel afstand fra kamera
  • Overfladenormaler: 3D-orientering på hvert punkt
  • Semantisk segmentering: Objektgrænser og kategorier
  • Mesh-topologi: Trekantforbindelser til 3D-output

Modellen blev trænet på en kombination af virkelige 3D-scanninger og syntetiske data. Meta har ikke oplyst den nøjagtige datasetstørrelse, men nævner "millioner af objektinstanser" i deres tekniske dokumentation.

SAM 3D behandler billeder i flere opløsninger samtidigt, hvilket gør den i stand til at fange både fine detaljer (teksturer, kanter) og global struktur (overordnet form, proportioner) i et enkelt gennemløb.

Praktiske anvendelser

Umiddelbar brug
  • E-handelsproduktvisualisering
  • AR prøv-på-oplevelser
  • Prototyping af spilaktiver
  • Arkitektonisk visualisering
  • Pædagogiske 3D-modeller
Begrænsninger at overveje
  • Single-view-rekonstruktion har iboende tvetydighed
  • Bagsider af objekter er udledt, ikke observeret
  • Meget reflekterende eller gennemsigtige overflader er udfordrende
  • Meget tynde strukturer rekonstruerer muligvis ikke godt

Single-view-begrænsningen er grundlæggende: modellen kan kun se én side af et objekt. Den udleder den skjulte geometri baseret på lærte priors, hvilket fungerer godt for almindelige objekter, men kan producere uventede resultater for usædvanlige former.

Tilgængelighed og adgang

SAM 3D er tilgængelig nu via Segment Anything Playground på Metas hjemmeside. For udviklere har Roboflow allerede bygget integration til custom fine-tuning på domænespecifikke objekter.

  • Web playground: Tilgængelig nu
  • API-adgang: Tilgængelig for udviklere
  • Roboflow-integration: Klar til fine-tuning
  • Lokal deployment: Vægte kommer snart

API'en er gratis til forskning og begrænset kommerciel brug. Kommercielle anvendelser med højt volumen kræver en separat aftale med Meta.

Hvad dette betyder for branchen

Barrieren for 3D-indholdsproduktion er netop faldet markant. Overvej konsekvenserne:

For spiludviklere: Hurtig prototyping bliver trivielt. Fotografer objekter fra den virkelige verden, få anvendelige 3D-aktiver på sekunder, iterer derfra.

For e-handel: Produktfotografering kan automatisk generere 3D-modeller til AR-forhåndsvisningsfunktioner. Ingen separat 3D-produktionspipeline nødvendig.

For undervisere: Historiske genstande, biologiske prøver eller tekniske komponenter kan blive interaktive 3D-modeller fra eksisterende fotografier.

For AR/VR-skabere: At fylde virtuelle miljøer med realistiske objekter kræver ikke længere omfattende 3D-modelleringsekspertise.

💡

Kombinationen af SAM 3 (videosegmentering) og SAM 3D (3D-rekonstruktion) muliggør workflows, hvor du kan segmentere et objekt fra videooptagelser og derefter konvertere det segmenterede objekt til en 3D-model. Ekstraktion og rekonstruktion i én pipeline.

Det større billede

SAM 3D repræsenterer en bredere tendens: AI fjerner systematisk friktion fra kreative workflows. Vi så det med billedgenerering, derefter videogenerering, og nu 3D-modellering.

Teknologien er ikke perfekt. Komplekse scener med okklusioner, usædvanlige materialer eller indviklet geometri udfordrer stadig systemet. Men den grundlæggende evne til at omdanne ethvert fotografi til et anvendeligt 3D-mesh er nu tilgængelig for alle.

For professionelle 3D-kunstnere er dette ikke en erstatning, men et værktøj. Generer et basemesh på sekunder, og forfin det derefter manuelt. Den kedelige indledende modelleringsfase komprimeres fra timer til sekunder, hvilket efterlader mere tid til det kreative arbejde, der rent faktisk kræver menneskelig vurdering.

Metas udgivelse signalerer, at 2D-til-3D-barrieren er ved at falde. Spørgsmålet nu er ikke, om AI kan skabe 3D-indhold fra billeder. Det er, hvor længe det vil tage, før denne evne bliver en standardfunktion i ethvert kreativt værktøj.

Alexis

Alexis

AI-ingeniør

AI-ingeniør fra Lausanne, der kombinerer forskningsdybde med praktisk innovation. Deler sin tid mellem modelarkitekturer og alpine bjergtinder.

Kunne du lide artiklen?

Få mere indsigt, og hold dig opdateret med vores nyeste indhold.

Meta SAM 3D: Fra flade billeder til komplette 3D-modeller på sekunder