Meta SAM 3D: От Плоских Изображений к Полноценным 3D-Моделям за Секунды
Meta выпустила SAM 3 и SAM 3D, превращая одиночные 2D-изображения в детализированные 3D-сетки за секунды. Разбираем, что это значит для создателей контента и разработчиков.

19 ноября 2025 года Meta выпустила нечто значительное. SAM 3D теперь генерирует полные 3D-сетки из одиночных 2D-изображений за секунды. То, что раньше требовало часов ручного моделирования или дорогих фотограмметрических установок, теперь происходит одним кликом.
Проблема, Которую Решает SAM 3D
Создание 3D-ресурсов всегда было узким местом. Разрабатываете ли вы игру, проектируете визуализацию продукта или наполняете AR-опыт, процесс обычно выглядит так:
Ручное Моделирование
Художник тратит 4-8 часов на создание одного объекта в Blender или Maya
Съёмка Множества Ракурсов
Делаете 50-200 фотографий со всех сторон, обрабатываете всю ночь, вручную убираете артефакты
Одно Изображение
Загружаете одну фотографию, получаете текстурированную 3D-сетку за секунды
Последствия существенны. Создание 3D-контента стало доступно любому, у кого есть камера.
Как Работает SAM 3D
SAM 3D строится на архитектуре Segment Anything Model от Meta, но расширяет её в три измерения. Система представлена в двух специализированных вариантах:
SAM 3D Objects
- Оптимизирован для объектов и сцен
- Обрабатывает сложную геометрию
- Работает с произвольными формами
- Лучше всего для продуктов, мебели, окружений
SAM 3D Body
- Специализирован для человеческих фигур
- Точно захватывает пропорции тела
- Обрабатывает одежду и аксессуары
- Лучше всего для аватаров, создания персонажей
Архитектура использует кодировщик на основе трансформера, который одновременно предсказывает глубину, нормали поверхности и геометрию. В отличие от предыдущих методов 3D из одного изображения, которые часто создавали приблизительные, размытые формы, SAM 3D сохраняет чёткие грани и тонкие геометрические детали.
SAM 3D выводит стандартные форматы сеток, совместимые с Unity, Unreal Engine, Blender и большинством 3D-программ. Никакой проприетарной привязки.
SAM 3 для Видео: Изоляция Объектов по Текстовому Описанию
В то время как SAM 3D обрабатывает преобразование из 2D в 3D, SAM 3 фокусируется на сегментации видео с важным улучшением: текстовые запросы.
Предыдущие версии требовали кликать на объекты для их выделения. SAM 3 позволяет описать, что вы хотите изолировать:
- "Выбрать все красные машины"
- "Отследить человека в синей куртке"
- "Изолировать здания на фоне"
Модель достигает 47.0 средней точности масок с нулевым обучением, улучшение на 22% по сравнению с предыдущими системами. Что важнее, она может обрабатывать более 100 объектов одновременно в одном кадре видео.
Интеграция с Meta Edits
SAM 3 уже интегрирован в приложение Meta Edits для создания видео. Создатели могут применять эффекты, изменения цвета и трансформации к конкретным объектам, используя описания на естественном языке вместо ручного покадрового маскирования.
Техническая Архитектура
Для тех, кому интересны детали, SAM 3D использует многоголовочную архитектуру, которая одновременно предсказывает несколько свойств:
Головки Предсказания:
- Карта Глубины: Расстояние по пикселям от камеры
- Нормали Поверхности: 3D-ориентация в каждой точке
- Семантическая Сегментация: Границы и категории объектов
- Топология Сетки: Треугольная связность для 3D-вывода
Модель обучалась на комбинации реальных 3D-сканов и синтетических данных. Meta не раскрывает точный размер датасета, но упоминает "миллионы экземпляров объектов" в технической документации.
SAM 3D обрабатывает изображения в нескольких разрешениях одновременно, что позволяет захватывать и мелкие детали (текстуры, грани), и общую структуру (форму, пропорции) за один прямой проход.
Практические Применения
- Визуализация продуктов для электронной коммерции
- AR-примерка
- Прототипирование ресурсов для игр
- Архитектурная визуализация
- Образовательные 3D-модели
- Реконструкция с одного ракурса имеет неустранимую неоднозначность
- Обратные стороны объектов предсказываются, а не наблюдаются
- Сильно отражающие или прозрачные поверхности вызывают сложности
- Очень тонкие структуры могут плохо реконструироваться
Ограничение одного ракурса фундаментально: модель видит только одну сторону объекта. Она предсказывает скрытую геометрию на основе выученных закономерностей, что хорошо работает для обычных объектов, но может дать неожиданные результаты для необычных форм.
Доступность
SAM 3D доступен сейчас через Segment Anything Playground на сайте Meta. Для разработчиков Roboflow уже создала интеграцию для кастомной тонкой настройки на специфичных для домена объектах.
- ✓Веб-площадка: Доступна сейчас
- ✓Доступ к API: Доступен для разработчиков
- ✓Интеграция Roboflow: Готова к тонкой настройке
- ○Локальное развёртывание: Веса скоро
API бесплатен для исследований и ограниченного коммерческого использования. Крупные коммерческие применения требуют отдельного соглашения с Meta.
Что Это Значит для Индустрии
Барьер для создания 3D-контента только что значительно понизился. Рассмотрим последствия:
Для разработчиков игр: Быстрое прототипирование становится тривиальным. Фотографируете реальные объекты, получаете пригодные 3D-ресурсы за секунды, дальше итерируете.
Для электронной коммерции: Фотография продукта может автоматически генерировать 3D-модели для функций AR-предпросмотра. Не нужен отдельный пайплайн 3D-производства.
Для преподавателей: Исторические артефакты, биологические образцы или инженерные компоненты могут стать интерактивными 3D-моделями из существующих фотографий.
Для создателей AR/VR: Наполнение виртуальных окружений реалистичными объектами больше не требует глубокой экспертизы в 3D-моделировании.
Комбинация SAM 3 (сегментация видео) и SAM 3D (3D-реконструкция) позволяет рабочие процессы, где вы сегментируете объект из видеозаписи, затем конвертируете этот сегментированный объект в 3D-модель. Извлечение и реконструкция в одном пайплайне.
Общая Картина
SAM 3D представляет более широкую тенденцию: ИИ систематически убирает трение из творческих рабочих процессов. Мы видели это с генерацией изображений, затем генерацией видео, и теперь 3D-моделированием.
Технология не идеальна. Сложные сцены с перекрытиями, необычными материалами или запутанной геометрией всё ещё создают проблемы для системы. Но базовая возможность, превращение любой фотографии в пригодную 3D-сетку, теперь доступна всем.
Для профессиональных 3D-художников это не замена, а инструмент. Генерируете базовую сетку за секунды, затем дорабатываете вручную. Скучная начальная фаза моделирования сжимается с часов до секунд, оставляя больше времени на творческую работу, которая действительно требует человеческого суждения.
Релиз Meta сигнализирует, что барьер 2D-3D рушится. Вопрос теперь не в том, может ли ИИ создавать 3D-контент из изображений. Вопрос в том, сколько времени пройдёт, пока эта возможность не станет стандартной функцией во всех творческих инструментах.

Alexis
Инженер ИИИнженер ИИ из Лозанны, сочетающий глубину исследований с практическими инновациями. Делит время между архитектурами моделей и альпийскими вершинами.