Дифузійні трансформери: архітектура, що революціонізує генерацію відео у 2025
Глибокий розбір того, як конвергенція дифузійних моделей та трансформерів створила парадигмальний зсув у ШІ-генерації відео, досліджуючи технічні інновації за Sora, Veo 3 та іншими проривними моделями.

Підйом на вершину генерації відео був методичним сходженням, кожна архітектурна інновація будувалася на попередній. У 2025 ми досягли того, що відчувається як новий пік з дифузійними трансформерами — елегантна злиття, що фундаментально переосмислює, як ми думаємо про темпоральну генерацію. Дозвольте провести вас технічним ландшафтом, що з'явився, як навігація хребтами між Dent Blanche та Маттерхорном.
Архітектурна конвергенція
Традиційні моделі генерації відео боролися з двома фундаментальними викликами: підтримання темпоральної консистентності через кадри та масштабування до довших послідовностей. Прорив прийшов, коли дослідники зрозуміли, що ймовірнісний фреймворк дифузійних моделей можна покращити механізмами уваги трансформерів — створюючи те, що ми тепер називаємо латентними дифузійними трансформерами.
class DiffusionTransformer(nn.Module):
def __init__(self, latent_dim=512, num_heads=16, num_layers=24):
super().__init__()
self.patch_embed = SpacetimePatchEmbed(latent_dim)
self.transformer = nn.TransformerEncoder(
nn.TransformerEncoderLayer(
d_model=latent_dim,
nhead=num_heads,
dim_feedforward=latent_dim * 4,
norm_first=True # Пре-нормалізація для стабільності
),
num_layers=num_layers
)
self.denoise_head = nn.Linear(latent_dim, latent_dim)
def forward(self, x_t, timestep, conditioning=None):
# Витяг просторово-часових патчів - ключова інновація
patches = self.patch_embed(x_t)
# Додавання позиційних та темпоральних вбудувань
patches = patches + self.get_pos_embed(patches.shape)
patches = patches + self.get_time_embed(timestep)
# Обробка трансформером з QK-нормалізацією
features = self.transformer(patches)
# Передбачення шуму для дифузії
return self.denoise_head(features)Елегантність полягає в тому, що відео розглядається не як послідовність зображень, а як уніфікований просторово-часовий об'єм. Підхід OpenAI з Sora обробляє відео через просторові та темпоральні виміри, створюючи те, що вони називають "просторово-часовими патчами" — аналогічно до того, як Vision Transformers обробляють зображення, але розширені в темпоральний вимір.
Математичні основи: за межами простого денойзингу
Ключова математична інновація розширює стандартну дифузійну формулювання. Замість традиційного підходу, де ми моделюємо p_θ(x_{t-1}|x_t), дифузійні трансформери оперують на стиснутих латентних представленнях:
Функція втрат: L_DT = E[||ε - ε_θ(z_t, t, c)||²]
Де z_t представляє латентне просторово-часове кодування, а трансформер ε_θ передбачає шум, обумовлений як темпоральною позицією t, так і опціональним обумовленням c. Критичний прогрес полягає в тому, що нормалізація Query-Key стабілізує цей процес:
Увага: Attention(Q, K, V) = softmax(Q_norm · K_norm^T / √d_k) · V
Ця, здавалося б, проста модифікація — нормалізація Q та K перед обчисленням уваги — драматично покращує стабільність навчання в масштабі, дозволяючи моделям ефективно навчатися на розподілених системах.
Багатоетапна аудіо-візуальна генерація: архітектура Veo 3
Veo 3 від Google DeepMind представила вишукану багатоетапну архітектуру — 12-мільярдний трансформер генерує ключові кадри з 2-секундними інтервалами, поки 28-мільярдний U-Net інтерполює проміжні кадри, а окремий 9-мільярдний аудіосинтезатор виробляє синхронізовані саундтреки. Подумайте про це як про захоплення як візуальної краси, так і звуку лавини через координовані спеціалізовані системи.
class MultiStageVideoEncoder(nn.Module):
def __init__(self):
super().__init__()
self.keyframe_generator = KeyframeTransformer() # 12B параметрів
self.frame_interpolator = InterpolationUNet() # 28B параметрів
self.audio_synthesizer = AudioGenerator() # 9B параметрів
def generate(self, prompt, duration=8):
# Спочатку генеруємо ключові кадри
keyframes = self.keyframe_generator(prompt, num_frames=duration//2)
# Інтерполюємо проміжні кадри
full_video = self.frame_interpolator(keyframes)
# Генеруємо синхронізоване аудіо
audio = self.audio_synthesizer(full_video, prompt)
return full_video, audioДифузійний процес генерує обидві модальності з темпоральною синхронізацією, досягаючи точності синхронізації губ менше 120 мілісекунд для діалогів.
Поточний ландшафт моделей та продуктивність
Архітектурні відмінності між поточними моделями показують різні підходи до генерації відео:
| Модель | Архітектура | Роздільність | Тривалість | Ключові особливості |
|---|---|---|---|---|
| Sora 2 | Дифузійний трансформер | 1080p | До 60s | Просторово-часові патчі, можливості ремікса |
| Gen-4 | Дифузійний трансформер | 720p | 10s | Комерційна якість, швидка генерація |
| Veo 3 | Багатоетапний (12B+28B+9B) | Підтримка 4K | 8s | Синхронізована аудіо-візуальна генерація |
| Stable Video Diffusion | Open-source SVD | 720p | 4s | Керований спільнотою, налаштовуваний |
Особливо цікаво, як різні моделі оптимізують довжину послідовності через різні паттерни уваги:
def hierarchical_attention(patches, hierarchy_levels=3):
"""
Прогресивне уточнення уваги від грубого до точного
Схоже на сходження: встанови базовий табір, потім штурмуй вершину
"""
attention_maps = []
for level in range(hierarchy_levels):
window_size = 2 ** (hierarchy_levels - level)
local_attn = compute_windowed_attention(patches, window_size)
attention_maps.append(local_attn)
# Комбінування багатомасштабної уваги
return torch.stack(attention_maps).mean(dim=0)Прогрес архітектур, усвідомлених рухом
2025 побачив появу архітектур, усвідомлених рухом, які явно моделюють темпоральну динаміку. Фреймворк Motion-Aware Generative (MoG), запропонований дослідниками з Університету Нанкіна та Tencent, використовує явне керівництво рухом з моделей інтерполяції на основі потоку для покращення генерації відео. Фреймворк інтегрує керівництво рухом як на латентному, так і на рівні особливостей, значно покращуючи усвідомлення руху в великомасштабних попередньо навчених моделях генерації відео.
Це розділення обробки руху та зовнішнього вигляду дозволяє покращений контроль над темпоральною динамікою, зберігаючи візуальну консистентність — уявіть можливість налаштовувати швидкість лавини, зберігаючи кожну сніжинку ідеально відрендереною.
Виробнича оптимізація: від лабораторії до застосування
Справжній тріумф 2025 — це не просто покращена якість — це ефективність розгортання. Оптимізації TensorRT для дифузійних моделей на основі трансформерів досягають значних прискорень:
# Стандартний конвеєр генерації
model = DiffusionTransformer().cuda()
frames = model.generate(prompt, num_frames=120) # 5 секунд відео
# Оптимізований конвеєр з TensorRT
import tensorrt as trt
optimized_model = optimize_with_tensorrt(model,
batch_size=1,
precision='fp16',
use_flash_attention=True)
frames = optimized_model.generate(prompt, num_frames=120) # Значно швидшеПараметрично-ефективне донавчання через LoRA демократизувало кастомізацію. Команди тепер можуть адаптувати попередньо навчені відеомоделі лише з 1% оригінальних параметрів:
class VideoLoRA(nn.Module):
def __init__(self, base_model, rank=16):
super().__init__()
self.base_model = base_model
# Вставка низькорангових адаптацій
for name, module in base_model.named_modules():
if isinstance(module, nn.Linear):
# Навчаємо лише ці маленькі матриці
setattr(module, 'lora_A', nn.Parameter(torch.randn(rank, module.in_features)))
setattr(module, 'lora_B', nn.Parameter(torch.randn(module.out_features, rank)))Погляд вперед: наступне сходження
Конвергенція до уніфікованих архітектур продовжується. Модель BAGEL від ByteDance (7B активних параметрів з архітектурою Mixture-of-Transformers) та моделі Transfusion від Meta піонерять єдині трансформерні архітектури, що обробляють як авторегресійні, так і дифузійні завдання. У Bonega.ai ми особливо в захваті від наслідків для обробки відео в реальному часі — уявіть безшовне подовження вашого існуючого матеріалу з ШІ-згенерованим контентом, що ідеально відповідає стилю та руху.
Математична елегантність дифузійних трансформерів вирішила фундаментальні виклики в генерації відео: підтримання когерентності в часі при ефективному масштабуванні. Як хтось, хто реалізував ці архітектури з нуля, можу сказати, що відчуття схоже на досягнення хибної вершини, лише щоб виявити, що справжній пік відкриває ще грандіозніший краєвид попереду.
Інструменти та фреймворки, що з'являються навколо цих моделей — від методів адаптації без навчання до стратегій розгортання на периферії — свідчать про те, що ми входимо в еру, коли високоякісна генерація відео стає настільки ж доступною, як генерація зображень була у 2023. Сходження продовжується, але ми встановили міцний базовий табір на висоті, яка раніше вважалася недосяжною.
Ця стаття була корисною?

Alexis
Інженер ШІІнженер ШІ з Лозанни, що поєднує глибину досліджень з практичними інноваціями. Ділить час між архітектурами моделей та альпійськими вершинами.
Схожі статті
Продовжуйте дослідження з цими схожими публікаціями

CraftStory Model 2.0: Як двонаправлена дифузія відкриває 5-хвилинні відео зі штучним інтелектом
Поки Sora 2 обмежується 25 секундами, CraftStory представила систему, яка генерує зв'язні 5-хвилинні відео. Секрет: кілька дифузійних движків, що працюють паралельно з двонаправленими обмеженнями.

Паралелізована дифузія: як ШІ-генерація зображень долає бар'єри якості та роздільності
Дослідження паралелізованих дифузійних архітектур, що дозволяють ультрависоку роздільність генерації зображень та складні багатоелементні композиції. Глибокий розбір технічного прориву, що переосмислює ШІ-синтез зображень.

Платформи AI Video Storytelling: як серіалізований контент змінює все в 2026
Від окремих кліпів до повних серій, AI video еволюціонує від інструменту генерації в механізм розповідання історій. Познайомтесь з платформами, які це втілюють.