Meta Pixel
DamienDamien
3 min read
514 คำ

AWS และ Decart สร้างโครงสร้างพื้นฐาน AI Video แบบเรียลไทม์แห่งแรก

Amazon Web Services ร่วมมือกับสตาร์ทอัพ AI ชื่อ Decart เพื่อสร้างโครงสร้างพื้นฐานระดับองค์กรที่มีความหน่วงต่ำสำหรับการสร้างวิดีโอ AI ซึ่งเป็นการเปลี่ยนแปลงจากสงครามโมเดลไปสู่การครอบงำโครงสร้างพื้นฐาน

AWS และ Decart สร้างโครงสร้างพื้นฐาน AI Video แบบเรียลไทม์แห่งแรก

ในขณะที่ทุกคนกำลังโต้เถียงกันว่า Runway หรือ Sora สร้างฉากระเบิดได้ดีกว่ากัน AWS ได้เปลี่ยนเกมอย่างเงียบๆ ความร่วมมือกับ Decart ไม่ได้เกี่ยวกับการสร้างวิดีโอที่สวยกว่า แต่เป็นเรื่องของการทำให้การสร้างวิดีโอ AI มีความเร็วเพียงพอที่จะมีความสำคัญสำหรับแอปพลิเคชันระดับองค์กร

ชั้นโครงสร้างพื้นฐานกำลังตื่นขึ้น

อุตสาหกรรมการสร้างวิดีโอ AI หมกมุ่นอยู่กับคำถามเดียว: โมเดลไหนที่สร้างผลลัพธ์ที่สมจริงที่สุด? เราได้ครอบคลุมถึงชัยชนะของ Runway Gen-4.5 บน Video Arena, ความก้าวหน้าของ Sora 2 และทางเลือกแบบโอเพ่นซอร์สที่ท้าทายยักษ์ใหญ่ที่เป็นกรรมสิทธิ์

แต่นี่คือสิ่งที่ไม่มีใครพูดถึง: ความหน่วง (latency)

💡

การสร้างวิดีโอ 10 วินาทีใน 2 นาทีนั้นน่าประทับใจสำหรับการสาธิตเชิงสร้างสรรค์ แต่มันไม่มีประโยชน์สำหรับการถ่ายทอดสด แอปพลิเคชันแบบโต้ตอบ หรือเวิร์กโฟลว์ขององค์กรที่ต้องประมวลผลวิดีโอหลายพันรายการต่อวัน

AWS และ Decart ได้ประกาศความร่วมมือที่งาน AWS re:Invent 2025 และมันแสดงถึงการเปลี่ยนแปลงพื้นฐานในวิธีที่เราควรคิดเกี่ยวกับโครงสร้างพื้นฐาน AI video

สิ่งที่ Decart นำมาสู่โต๊ะเจรจา

Decart ไม่ใช่ชื่อที่คุ้นหูเหมือน Runway หรือ OpenAI พวกเขาได้สร้างบางสิ่งที่แตกต่างอย่างเงียบๆ: โมเดล AI ที่ปรับให้เหมาะสมสำหรับการอนุมานแบบเรียลไทม์ แทนที่จะเน้นคุณภาพสูงสุดโดยไม่คำนึงถึงต้นทุน

10x
การลดความหน่วง
≤40ms
เฟรมแรก
Enterprise
โฟกัสด้านขนาด

ตัวชี้วัดประสิทธิภาพจากการประกาศความร่วมมือที่ AWS re:Invent 2025

แนวทางของพวกเขาให้ความสำคัญกับ:

  • การสร้างที่มีความหน่วงต่ำ: เวลาตอบสนองต่ำกว่าหนึ่งวินาทีสำหรับเฟรมวิดีโอ
  • ปริมาณงานที่สูง: การประมวลผลคำขอหลายพันรายการพร้อมกัน
  • ประสิทธิภาพที่คาดเดาได้: ความหน่วงที่สม่ำเสมอภายใต้ภาระงานที่แตกต่างกัน

นี่คืองานที่น่าเบื่อแต่จำเป็นที่ทำให้ AI video มีความเป็นไปได้จริงสำหรับระบบการผลิต

AWS Trainium: ซิลิคอนที่ออกแบบเฉพาะสำหรับ Video AI

ความร่วมมือนี้ใช้ประโยชน์จากชิป AWS Trainium ซึ่งเป็นตัวเร่ง AI ที่ Amazon ออกแบบเฉพาะ ต่างจาก GPU ทั่วไป Trainium ถูกสร้างขึ้นโดยเฉพาะสำหรับภาระงานการเรียนรู้ของเครื่อง

แนวทาง GPU แบบดั้งเดิม

ฮาร์ดแวร์ทั่วไป ความหน่วงที่สูงกว่า ประสิทธิภาพที่แปรผันภายใต้ภาระงาน มีค่าใช้จ่ายสูงในระดับขนาดใหญ่

แนวทาง AWS Trainium

ซิลิคอนที่สร้างเพื่อจุดประสงค์เฉพาะ แบนด์วิดท์หน่วยความจำที่ปรับให้เหมาะสม ความหน่วงที่คาดเดาได้ ประหยัดต้นทุนในระดับองค์กร

โดยเฉพาะสำหรับการสร้างวิดีโอ สถาปัตยกรรมของ Trainium จัดการกับคอขวดแบนด์วิดท์หน่วยความจำที่เป็นปัญหาของโมเดลวิดีโอที่ใช้ transformer การย้ายเทนเซอร์ขนาดใหญ่ระหว่างหน่วยความจำและการคำนวณมักเป็นส่วนที่ช้าที่สุดของการอนุมาน และซิลิคอนที่ออกแบบเฉพาะสามารถปรับเส้นทางข้อมูลเหล่านี้ให้เหมาะสมในวิธีที่ฮาร์ดแวร์ทั่วไปทำไม่ได้

การรวมเข้ากับ Amazon Bedrock

รากฐานทางเทคนิคทำงานผ่าน Amazon Bedrock ซึ่งเป็นบริการที่จัดการโดย AWS สำหรับโมเดลพื้นฐาน ซึ่งหมายความว่าองค์กรจะได้รับ:

  • API เดียวสำหรับความสามารถ AI video หลายอย่าง
  • การปรับขนาดและการกระจายโหลดที่มีอยู่ในตัว
  • ความปลอดภัยและการปฏิบัติตามระดับองค์กร (SOC 2, HIPAA ฯลฯ)
  • การกำหนดราคาแบบจ่ายตามการใช้งานโดยไม่ต้องจัดการโครงสร้างพื้นฐาน

การรวมเข้ากับ Bedrock มีความสำคัญเพราะมันลดอุปสรรคสำหรับองค์กรที่ใช้ AWS อยู่แล้ว ไม่มีความสัมพันธ์กับผู้ขายรายใหม่ ไม่มีการเรียกเก็บเงินแยก ไม่มีการตรวจสอบความปลอดภัยเพิ่มเติม

เหตุใดเรียลไทม์จึงมีความสำคัญ

ขอวาดภาพสิ่งที่ AI video แบบเรียลไทม์ช่วยให้เป็นไปได้:

การถ่ายทอดสด

  • การสร้างกราฟิกแบบเรียลไทม์
  • การเสริมฉากแบบไดนามิก
  • การปรับปรุงการเล่นซ้ำทันที

แอปพลิเคชันแบบโต้ตอบ

  • ฉาก cutscene ในเกมที่สร้างตามคำขอ
  • คำตอบวิดีโอที่เป็นส่วนตัว
  • ความช่วยเหลือการตัดต่อวิดีโอสด

เวิร์กโฟลว์องค์กร

  • ไปป์ไลน์การผลิตวิดีโออัตโนมัติ
  • การประมวลผลแบบ batch ในระดับขนาดใหญ่
  • การรวมเข้ากับระบบสื่อที่มีอยู่

อีคอมเมิร์ซ

  • วิดีโอผลิตภัณฑ์ที่สร้างจากภาพ
  • เนื้อหาการตลาดที่เป็นส่วนตัว
  • การทดสอบ A/B ในระดับวิดีโอ

ไม่มีกรณีการใช้งานเหล่านี้ที่ทำงานได้กับเวลาการสร้าง 2 นาที พวกเขาต้องการการตอบสนองในระดับมิลลิวินาทีถึงวินาที

กลยุทธ์ระดับองค์กร

ความร่วมมือนี้ส่งสัญญาณกลยุทธ์ของ AWS: ให้สตาร์ทอัพต่อสู้กันว่าใครสร้างการสาธิตที่สวยที่สุด ในขณะที่ Amazon จับครองชั้นโครงสร้างพื้นฐาน

💡

ในการแย่งชิงทองของ AI, AWS กำลังขายอุปกรณ์ขุด และพลั่ว และสิทธิ์ที่ดิน และสำนักงานตรวจสอบ

พิจารณาเศรษฐศาสตร์:

แนวทางใครจ่ายโมเดลรายได้
Consumer AI Videoผู้สร้างรายบุคคลการสมัครสมาชิก ($20-50/เดือน)
การเข้าถึง APIนักพัฒนาต่อการสร้าง ($0.01-0.10)
โครงสร้างพื้นฐานองค์กรชั่วโมงการคำนวณ ($หลายพันดอลลาร์/เดือน)

AWS ไม่ได้แข่งขันกับ Runway สำหรับ $20 ต่อเดือนของคุณ พวกเขากำลังวางตำแหน่งเพื่อครอบครองงบประมาณองค์กรที่มากกว่าการสมัครสมาชิกของผู้บริโภคอย่างมาก

สิ่งที่นี่หมายถึงสำหรับตลาด

2024

สงครามโมเดลเริ่มต้น

การประกาศ Sora กระตุ้นการแข่งขันเพื่อคุณภาพการสร้างที่ดีที่สุด

ต้นปี 2025

การบรรจบกันของคุณภาพ

โมเดลชั้นนำบรรลุระดับคุณภาพที่คล้ายกัน การสร้างความแตกต่างกลายเป็นเรื่องยากขึ้น

ปลายปี 2025

โฟกัสโครงสร้างพื้นฐาน

ความร่วมมือ AWS/Decart ส่งสัญญาณการเปลี่ยนไปสู่การปรับใช้และขนาด

2026

การนำมาใช้ขององค์กร

ความสามารถแบบเรียลไทม์เปิดใช้งานกรณีการใช้งานการผลิตใหม่

เรากำลังเข้าสู่ระยะ "น่าเบื่อแต่จำเป็น" ของ AI video การเปรียบเทียบโมเดลที่โดดเด่นจะดำเนินต่อไป แต่เงินจริงจะไหลไปสู่โครงสร้างพื้นฐานที่ทำให้ AI video มีความเป็นไปได้จริงสำหรับธุรกิจ

ผลกระทบทางเทคนิค

สำหรับนักพัฒนาและวิศวกร ML ความร่วมมือนี้บ่งบอกถึงแนวโน้มหลายประการ:

1. การปรับให้เหมาะสมเหนือสถาปัตยกรรม

คลื่นนวัตกรรมต่อไปจะมุ่งเน้นที่การทำให้สถาปัตยกรรมที่มีอยู่เร็วขึ้น ไม่ใช่การประดิษฐ์สิ่งใหม่ เทคนิคเช่น:

  • การถอดรหัสแบบเก็งกำไรสำหรับ video transformer
  • การฝึกอบรมที่ตระหนักถึง quantization เพื่อประสิทธิภาพการอนุมาน
  • การกลั่นโมเดลขนาดใหญ่ให้เป็นเวอร์ชันที่เหมาะกับการปรับใช้

2. โมเดลการปรับใช้แบบผสม

คาดหวังโซลูชันเพิ่มเติมที่รวม:

  • โครงสร้างพื้นฐานคลาวด์สำหรับความจุแบบระเบิด
  • การปรับใช้ edge สำหรับเส้นทางที่มีความหน่วงวิกฤต
  • คุณภาพแบบแบ่งชั้นตามความต้องการของกรณีการใช้งาน

3. การทำให้เป็นมาตรฐาน

การนำมาใช้ขององค์กรต้องการอินเทอร์เฟซที่คาดเดาได้ จับตาดู:

  • API ทั่วไประหว่างผู้ให้บริการ
  • เมตริกคุณภาพมาตรฐาน
  • การทำงานร่วมกันระหว่างแพลตฟอร์ม

ภูมิทัศน์การแข่งขัน

AWS ไม่ได้อยู่คนเดียวในการตระหนักถึงโอกาสนี้:

🔵

Google Cloud

Vertex AI เสนอการสร้างวิดีโอแล้ว น่าจะประกาศความสามารถแบบเรียลไทม์ที่คล้ายกัน

🟠

Azure

ความร่วมมือ OpenAI ของ Microsoft อาจขยายไปสู่โครงสร้างพื้นฐานวิดีโอองค์กร

🟢

NVIDIA

แพลตฟอร์มการอนุมานของพวกเขา (TensorRT, Triton) ยังคงเป็นค่าเริ่มต้นสำหรับการปรับใช้แบบโฮสต์เอง

สงครามโครงสร้างพื้นฐานเพิ่งเริ่มต้น AWS ยิงนัดแรกด้วยความร่วมมือ Decart แต่คาดหวังการตอบโต้อย่างรวดเร็วจากคู่แข่ง

ข้อสรุปเชิงปฏิบัติ

สำหรับทีมองค์กร:

  • ประเมินความต้องการความหน่วง AI video ของคุณตอนนี้
  • พิจารณา Bedrock หากคุณอยู่บน AWS แล้ว
  • วางแผนความสามารถแบบเรียลไทม์ใน roadmap ของคุณ

สำหรับนักพัฒนา:

  • เรียนรู้เทคนิคการปรับให้เหมาะสมการอนุมาน
  • เข้าใจ Trainium และการแลกเปลี่ยนซิลิคอนที่กำหนดเอง
  • สร้างโดยคำนึงถึงงบประมาณความหน่วง

สำหรับสตาร์ทอัพ AI video:

  • การสร้างความแตกต่างของโครงสร้างพื้นฐานอาจสำคัญกว่าคุณภาพของโมเดล
  • โอกาสความร่วมมือกับผู้ให้บริการคลาวด์กำลังเปิดกว้าง
  • วงจรการขายองค์กรกำลังเริ่มต้น

การมองไปข้างหน้า

ความร่วมมือ AWS/Decart ไม่ใช่ข่าว AI video ที่โดดเด่นที่สุดของสัปดาห์นี้ Runway เพิ่งอ้างตำแหน่งอันดับหนึ่งบน Video Arena ห้องปฏิบัติการจีนปล่อยโมเดลโอเพ่นซอร์สที่ทรงพลัง เรื่องราวเหล่านั้นได้รับคลิกมากกว่า

แต่โครงสร้างพื้นฐานคือจุดที่อุตสาหกรรมขยายขนาดจริงๆ การเปลี่ยนจาก "การสาธิตที่น่าประทับใจ" ไปเป็น "ระบบการผลิต" ต้องการสิ่งที่ AWS และ Decart กำลังสร้างอย่างแท้จริง: รากฐานระดับองค์กรที่เชื่อถือได้ รวดเร็ว

💡

การอ่านที่เกี่ยวข้อง:

สงครามโมเดลทำให้ AI video เป็นไปได้ โครงสร้างพื้นฐานจะทำให้มันมีความเป็นไปได้จริง

บทความนี้มีประโยชน์หรือไม่?

Damien

Damien

นักพัฒนา AI

นักพัฒนา AI จากลียงที่ชอบเปลี่ยนแนวคิด ML ที่ซับซ้อนให้เป็นสูตรง่ายๆ เมื่อไม่ได้แก้ไขบั๊กโมเดล คุณจะพบเขาปั่นจักรยานผ่านหุบเขาโรน

บทความที่เกี่ยวข้อง

สำรวจเนื้อหาต่อกับบทความที่เกี่ยวข้องเหล่านี้

Runway GWM-1: โมเดลโลกทั่วไปที่จำลองความเป็นจริงแบบเรียลไทม์
RunwayWorld Models

Runway GWM-1: โมเดลโลกทั่วไปที่จำลองความเป็นจริงแบบเรียลไทม์

GWM-1 ของ Runway เป็นการเปลี่ยนแปลงกระบวนทัศน์จากการสร้างวิดีโอไปสู่การจำลองโลก สำรวจว่าโมเดลออโตรีเกรสซีฟนี้สร้างสภาพแวดล้อมที่สำรวจได้ อวาตาร์สมจริง และการจำลองการฝึกหุ่นยนต์อย่างไร

Read
การนำ AI Video มาใช้ในองค์กร: กรณีศึกษาทางธุรกิจสำหรับปี 2025
AI VideoEnterprise

การนำ AI Video มาใช้ในองค์กร: กรณีศึกษาทางธุรกิจสำหรับปี 2025

จากการทดลองสู่การปฏิบัติจริง: เหตุใดองค์กรธุรกิจ 75% จึงใช้ AI Video ในปัจจุบัน ผลตอบแทนการลงทุนที่อยู่เบื้องหลังการเปลี่ยนแปลง และกรอบแนวทางการนำไปปฏิบัติอย่างเป็นรูปธรรมสำหรับองค์กรของท่าน

Read
YouTube นำ Veo 3 Fast มาสู่ Shorts: สร้างวิดีโอ AI ฟรีสำหรับผู้ใช้ 2.5 พันล้านคน
YouTubeVeo 3

YouTube นำ Veo 3 Fast มาสู่ Shorts: สร้างวิดีโอ AI ฟรีสำหรับผู้ใช้ 2.5 พันล้านคน

Google ผสาน Veo 3 Fast เข้ากับ YouTube Shorts โดยตรง มอบการสร้างวิดีโอจากข้อความพร้อมเสียงให้ครีเอเตอร์ทั่วโลกใช้ฟรี นี่คือความหมายสำหรับแพลตฟอร์มและการเข้าถึงวิดีโอ AI

Read

ชอบบทความนี้ไหม?

ค้นพบข้อมูลเชิงลึกเพิ่มเติมและติดตามเนื้อหาล่าสุดจากเรา

AWS และ Decart สร้างโครงสร้างพื้นฐาน AI Video แบบเรียลไทม์แห่งแรก