SenseTime Seko 2.0: Generera 100-episoders AI-serie från en enda prompt
SenseTime har lanserat branschens första flerserieagent för AI-video. Seko 2.0 kan skapa hela animerade serier med konsekventa karaktärer, röster och berättelser från en kreativ idé. Eran av AI-genererat seriellt innehåll har kommit.

Vad om du kunde beskriva ett berättelsekoncept och låta AI generera en hel 100-episoders animerad serie? Inte separata klipp. En sammanhängande berättelse med konsekventa karaktärer, röster och kontinuitet i handlingen. SenseTime gjorde det verkligt med Seko 2.0.
Bortom enskilda klipp: Serialiseringsproblemet
Varje AI-videomodell möter samma begränsning: de genererar isolerade ögonblick. Ett 10-sekunders klipp av en karaktär som går. Ett annat klipp där de pratar. Ett tredje där de reagerar. Att sy ihop dessa till en sammanhängande berättelse? Det är ditt problem.
Serialiseringsproblemet handlar inte om genereringskvalitet. Det handlar om minne. Hur kommer AI ihåg att huvudpersonen har ett ärr på vänster kind? Att skurken bytte sida i episod 12? Att kärleksintressets namn stavas på ett specifikt sätt i undertexterna?
Det är därför professionell animation fortfarande kräver arméer av konstnärer som kontrollerar modellblad, underhåller stilguider och säkerställer kontinuitet mellan episoder. AI kunde generera enskilda bildrutor, men det kunde inte upprätthålla berättelsen.
Fram till nu.
Vad Seko 2.0 faktiskt gör
Den 15 december 2025 släppte SenseTime Seko 2.0, som de beskriver som branschens första flerseriegenereringsagent. Nyckelordet är "agent", inte "modell."
Så här fungerar arbetsflödet:
- Du ger ett kreativt koncept på naturligt språk
- Seko 2.0 genererar en komplett berättelseskiss
- Systemet skapar en detaljerad handlingsuppdelning för upp till 100 episoder
- Varje episod genereras med konsekvent karaktärsdesign, röst och världsbyggnad
- Karaktärer minns tidigare händelser och relationer utvecklas
AI:n genererar inte 100 slumpmässiga klipp. Den upprätthåller ett berättelsetillstånd genom hela serien.
Den tekniska arkitekturen
Minne för flera episoder
- Global karaktärsdatabas
- Spårning av världstillstånd
- Tidslinjekonsekvens
- Relationgrafer
- Handlingskontinuitetsmotor
Genereringspipeline
- SekoIDX för bild/karaktärsmodellering
- SekoTalk för röststyrd läppsynk
- Fasindelad DMD-destillering
- 8-GPU parallellbearbetning
- 25× kostnadsminskning vs baslinje
SekoTalk är särskilt imponerande: det är den första lösningen som stödjer läppsynk för mer än två talare samtidigt. Flerkaraktärsdialogscener, som tidigare krävde bildruta-för-bildruta-animation, genereras nu i realtid.
Den "fasindelade DMD-destilleringen" förtjänar uppmärksamhet. Denna teknik komprimerar inferenskostnader dramatiskt samtidigt som rörelsekvalitet och emotionellt uttryck bevaras. SenseTime hävdar upp till 25× kostnadsminskning jämfört med deras baslinjemodeller, vilket gör serialiserad generering ekonomiskt genomförbar.
Varför detta spelar roll för skapare
Låt mig måla upp bilden av vad detta möjliggör:
Traditionell produktion av animerade serier:
- Konceptutveckling: 3-6 månader
- Förproduktion: 6-12 månader
- Episodproduktion: 2-4 veckor var
- Röstinspelning: Flera studiosessioner per episod
- Kostnad: 100 000 USD+ per episod (för kvalitetsinnehåll)
Seko 2.0-produktion:
- Koncept: Ett stycke
- Generering: Timmar per episod
- Röst: Genereras tillsammans med bilder
- Kostnad: "En kopp mjölkte" enligt SenseTime
Demokratiseringen här är häpnadsväckande. En enskild skapare kan nu producera vad som tidigare krävde en studio.
Den kinesiska AI-videosatsningen
Seko 2.0 är del av ett bredare mönster vi har följt. Kinesiska teknikföretag levererar aggressiva AI-videokapaciteter i anmärkningsvärd takt:
Kuaishou Kling O1
Första enhetliga multimodala videomodellen
SenseTime Seko 2.0
Första flerseriegenereringsagenten
Alibaba Wan2.6
Referens-till-video med identitetsbevarande
Tencent HunyuanVideo 1.5
Konsument-GPU-vänlig öppen källkod
Dessa är inte inkrementella uppdateringar. Var och en representerar en ny kapacitet som inte existerade i AI-videolandskapet för en månad sedan.
Det strategiska sammanhanget spelar roll. Kinesiska företag möter begränsningar för chipexport och amerikanska molntjänster. Deras svar? Innovera på arkitektur och mjukvarueffektivitet snarare än ren beräkningskraft. Seko 2.0:s 25× kostnadsminskning är ett direkt resultat av detta tryck.
Karaktärskonsekvens i skala
Ett av de svåraste problemen inom AI-video är att upprätthålla karaktärskonsekvens mellan genereringar. Vi utforskade detta i vår djupdykning om karaktärskonsekvens, och Seko 2.0 representerar ett betydande framsteg.
Systemet upprätthåller:
- ✓Ansiktsdrag genom alla episoder
- ✓Konsekvens i kläder och accessoarer
- ✓Röstklang och talmönster
- ✓Karaktärshöjd och proportioner
- ✓Relationsdynamik mellan karaktärer
Detta går bortom teknisk konsekvens. AI:n förstår att karaktärer bör bete sig konsekvent. En blyg karaktär blir inte plötsligt extrovert i episod 50 om inte berättelsebågen kräver det.
Validering i verkligheten
SenseTime släpper inte bara teknikdemos. De har produktionsdistributioner:
Wanxinji på Douyin
Ett kortdrama med riktiga skådespelare genererat av Seko nådde #1 på Douyin (kinesiska TikTok) AI-kortdramalistorna. Detta är inte en teknisk presentation, det är innehåll som konkurrerar med mänskligt producerad underhållning.
Yuandongli Film-partnerskap
SenseTime tillkännagav strategiskt samarbete med Yuandongli Film för att utforska AIGC inom film- och tv-produktion. De planerar att lansera AI-genererade kortdramor och inkuberar biofilmer för nästa år.
Övergången från "imponerande demo" till "kommersiellt innehåll" är den verkliga valideringen. När faktiska tittare väljer att titta på AI-genererade serier över alternativ har tekniken passerat en tröskel.
Cambricon-kopplingen
En ofta förbisedd detalj: Seko 2.0 körs på Cambricon-chips, en kinesisk AI-chiptillverkare. Detta representerar fullständig lokalisering av AI-videokapaciteter.
Betydelsen är strategisk. Kinesiska AI-företag bygger kompletta teknikstackar som inte beror på amerikansk hårdvaruexport. Om du ser detta som oroande eller beundransvärt beror på ditt perspektiv, men den tekniska prestationen är obestridlig.
Hur det jämförs
Var passar Seko 2.0 in i det nuvarande landskapet?
| Modell | Enskilda klipp | Flera episoder | Karaktärsminne | Nativt ljud |
|---|---|---|---|---|
| Sora 2 | ✅ Utmärkt | ❌ | Begränsat | ✅ |
| Runway Gen-4.5 | ✅ Toppkvalitet | ❌ | Begränsat | ✅ |
| Veo 3.1 | ✅ Starkt | ❌ | Begränsat | ✅ |
| Kling O1 | ✅ Starkt | ❌ | Begränsat | ✅ |
| Seko 2.0 | ✅ Bra | ✅ 100 episoder | ✅ Fullt | ✅ |
Seko 2.0 konkurrerar inte på kvalitet för enskilda klipp. Den skapar en helt ny kategori: serialiserad AI-videoproduktion.
Flerepisodgenerering med berättelsekontinuitet, karaktärsminne genom serier, kostnadseffektiv i skala, flertalare läppsynk
Främst kinesiskt språkgränssnitt, mindre mogen än västerländska alternativ för enskilda klipp, ekosystem fortfarande under utveckling
Vad detta betyder för branschen
Konsekvenserna sträcker sig bortom innehållsskapande:
För skapare:
- Soloproduktion av seriellt innehåll
- Snabb prototypning av berättelsekoncept
- Faninnehåll i oöverträffad skala
- Personaliserad underhållning
För studior:
- Förvisualisering på serienivå
- Kostnadsminskning för animation
- Nya arbetsflöden för IP-utveckling
- Lokalisering och anpassning
Det konkurrensmässiga trycket på traditionella animationsstudior intensifierades just betydligt. När en enskild person kan producera vad som brukade kräva ett team på 50, förändras ekonomin för innehållsproduktion fundamentalt.
Prova själv
Seko 2.0 är tillgänglig för offentlig testning via SenseTimes plattform:
- Besök seko.sensetime.com
- Mata in ett kreativt koncept på naturligt språk
- Låt systemet generera en berättelseskiss
- Granska episoduppdelningen
- Generera episoder med konsekventa karaktärer
Gränssnittet är främst på kinesiska, men tekniken talar för sig själv. Även att titta på demona ger dig en känsla av vad flerseriegenerering möjliggör.
Den större bilden
Vi bevittnar ett kategoriförändering inom AI-video. Frågan är inte längre "kan AI generera video?" utan "kan AI berätta historier?"
Seko 2.0 svarar ja. Inte perfekt, inte för varje användningsfall, men meningsfullt. Serialiseringsproblemet som begränsade AI-video till isolerade klipp löses.
För mer sammanhang om hur AI-videolandskapet utvecklas:
- Kling O1 utforskar enhetliga multimodala arkitekturer
- Den öppna källkoden AI-videorevolutionen täcker tillgängliga alternativ
- AI-video och ljudgenerering undersöker ljudgenombrotten
Gapet mellan koncept och innehåll fortsätter att kollapsa. Med Seko 2.0 utvidgas denna kollaps från enskilda klipp till hela serier.
En prompt. Etthundra episoder. En skapare.
Framtiden för serialiserad underhållning kom just i december 2025.
Källor
- SenseTime Seko 2.0 Launch Announcement (AI Base)
- SenseTime Launches Multi-Series Generative AI Agent (AI Base)
- SenseTime's Seko 2.0 and Cambricon Partnership (DigiTimes)
- The Age of AI Micro-Dramas (Pandaily)
- SenseTime Seko Platform (Official)
Var den här artikeln hjälpsam?

Henry
Kreativ teknologKreativ teknolog från Lausanne som utforskar var AI möter konst. Experimenterar med generativa modeller mellan elektroniska musiksessioner.
Relaterade artiklar
Fortsätt utforska med dessa relaterade inlägg

Snapchat Animate It: AI-videogenerering kommer till sociala medier
Snapchat har precis lanserat Animate It, det första öppna AI-videogenereringsverktyget byggt in i en stor social plattform. Med 400 miljoner dagliga användare är AI-video inte längre bara för skapare.

AI-video 2025: Året allt förändrades
Från Sora 2 till inbyggd audio, från miljardöversättningar med Disney till 100-personiga team som slår triljonärsföretag, 2025 var året AI-video blev verkligt. Här är vad som hände och vad det betyder.

Luma Ray3 Modify: The $900M Bet That Could Disrupt Film Production
Luma Labs säkrar $900 miljoner i finansiering och lanserar Ray3 Modify, ett verktyg som omvandlar inspelat material genom att byta karaktärer medan originalskådespelarens prestation bevaras. Är detta början på slutet för traditionella VFX-arbetsflöden?