Runway Gen-4.5 ขึ้นอันดับ 1: ทีม 100 คนสามารถแซงหน้า Google และ OpenAI ได้อย่างไร
Runway ได้ขึ้นสู่อันดับ 1 บน Video Arena ด้วย Gen-4.5 พิสูจน์ว่าทีมเล็กสามารถแข่งขันกับบริษัทยักษ์มูลค่าล้านล้านดอลลาร์ในการสร้างวิดีโอ AI ได้

สตาร์ทอัพที่มีพนักงาน 100 คนเพิ่งชนะ Google และ OpenAI โมเดล Gen-4.5 ของ Runway ได้ขึ้นสู่อันดับ 1 บนกระดานคะแนน Video Arena สัปดาห์นี้ ผลกระทบที่เกิดขึ้นน่าทึ่งมาก
ชัยชนะของผู้ท้าชิงที่ไม่น่าจะเกิดขึ้นได้
ขอเล่าให้ฟังครับ ฝ่ายหนึ่ง: Google DeepMind พร้อมด้วย Veo 3 ซึ่งได้รับการสนับสนุนจากทรัพยากรการประมวลผลขนาดใหญ่และชุดข้อมูลวิดีโอที่ใหญ่ที่สุดในโลก (YouTube) อีกฝ่ายหนึ่ง: OpenAI พร้อมด้วย Sora 2 ที่ได้รับแรงผลักดันจากความเป็นผู้นำของ ChatGPT และเงินทุนหลายพันล้านดอลลาร์ และอยู่ตรงกลาง: Runway ที่มีทีมหลักประมาณ 100 วิศวกรทำงานกับ Gen-4.5 ด้วยทรัพยากรเพียงเศษเสี้ยว
ทายสิครับว่าใครอยู่อันดับ 1?
คุณ Cristóbal Valenzuela ซีอีโอของ Runway กล่าวอย่างตรงไปตรงมาว่า "เราสามารถแข่งขันชนะบริษัทมูลค่าล้านล้านดอลลาร์ด้วยทีมเพียง 100 คนได้" นี่ไม่ใช่คำโฆษณาชวนเชื่อครับ นี่คือสิ่งที่กระดานคะแนน Video Arena บอกเรา
Video Arena บอกอะไรกับเราจริงๆ
Video Arena ใช้การประเมินแบบไม่เปิดเผยโมเดลโดยผู้พิจารณา ซึ่งผู้พิจารณาจะเปรียบเทียบวิดีโอโดยไม่รู้ว่าโมเดลใดสร้างขึ้น นี่คือสิ่งที่ใกล้เคียงที่สุดกับมาตรฐานคุณภาพที่เป็นกลางสำหรับการสร้างวิดีโอ AI
กระดานคะแนนมีความสำคัญเพราะมันตัดการตลาดออกจากสมการ ไม่มีการสาธิตที่คัดเลือกมาแล้ว ไม่มีตัวอย่างที่คัดสรรมาอย่างระมัดระวัง มีเพียงผลลัพธ์ที่ไม่ระบุตัวตน วางเคียงกัน ให้คนหลายพันคนตัดสิน
และ Gen-4.5 อยู่บนสุด
สิ่งที่น่าสนใจเป็นพิเศษคือตำแหน่งที่ OpenAI Sora 2 Pro ได้: อันดับ 7 นี่คือโมเดลจากบริษัทที่มีทรัพยากรมากกว่า 30 เท่า แต่ตกลงมาอันดับ 7 ช่องว่างระหว่างการโฆษณาและประสิทธิภาพจริงไม่เคยชัดเจนขนาดนี้มาก่อน
Gen-4.5 นำอะไรมาให้บ้าง
ขอแยกรายละเอียดสิ่งที่ Runway ส่งมอบในการอัปเดตนี้ครับ:
การทำตามคำสั่งที่ดีขึ้น
โมเดลเข้าใจคำสั่งที่ซับซ้อนและมีหลายส่วนได้ดีกว่าเวอร์ชันก่อนหน้า ระบุการเคลื่อนไหวของกล้อง อารมณ์แสงสว่าง และการกระทำของตัวละครในคำสั่งเดียว และมันจะส่งมอบทั้งสามอย่างได้จริงๆ
คุณภาพภาพที่ดีขึ้น
รายละเอียดที่คมชัดขึ้น ความสอดคล้องทางเวลาที่ดีขึ้น สิ่งผิดปกติน้อยลง สิ่งที่คาดหวังได้สำหรับการอัปเดตใหญ่ทั่วไป แต่การปรับปรุงเห็นได้ชัดในการทดสอบในโลกจริง
การสร้างที่เร็วขึ้น
เวลาในการสร้างลดลงอย่างมากเมื่อเทียบกับ Gen-4 สำหรับเวิร์กโฟลว์การผลิตที่ความเร็วในการทำซ้ำมีความสำคัญ สิ่งนี้สะสมได้เร็วมาก
- คุณภาพภาพอันดับสูงสุดในการทดสอบแบบไม่เปิดเผย
- ฟิสิกส์และความสอดคล้องของการเคลื่อนไหวที่ดีขึ้น
- จัดการฉากที่ซับซ้อนได้ดีขึ้น
- ความสอดคล้องของตัวละครที่แข็งแกร่งระหว่างช็อต
- ยังไม่มีเสียงแบบ native (ข้อได้เปรียบของ Sora 2)
- ความยาวคลิปสูงสุดไม่เปลี่ยนแปลง
- ราคาพรีเมียมสำหรับผู้ใช้งานหนัก
ช่องว่างเรื่องเสียง native ยังคงมีอยู่ Sora 2 สร้างเสียงซิงโครไนซ์ในครั้งเดียว ในขณะที่ผู้ใช้ Runway ยังต้องใช้เวิร์กโฟลว์เสียงแยกต่างหาก สำหรับผู้สร้างบางคน นี่คือจุดตัดสินใจ สำหรับคนอื่นที่ทำงานในไปป์ไลน์โพสต์โปรดักชันอยู่แล้ว ความได้เปรียบด้านคุณภาพภาพมีความสำคัญมากกว่า
ทำไมทีมเล็กถึงชนะ
นี่คือสิ่งที่น่าจะเกิดขึ้นครับ พร้อมผลกระทบที่เกินกว่า AI วิดีโอ
องค์กรขนาดใหญ่เพิ่มประสิทธิภาพสิ่งที่แตกต่างจากองค์กรขนาดเล็ก Google และ OpenAI กำลังสร้างแพลตฟอร์ม จัดการโครงสร้างพื้นฐานขนาดใหญ่ นำทางการเมืองภายใน และส่งมอบผลิตภัณฑ์หลายสิบสายพร้อมกัน Runway กำลังสร้างสิ่งเดียว: โมเดลสร้างวิดีโอที่ดีที่สุดที่พวกเขาสามารถทำได้
การโฟกัสชนะทรัพยากรเมื่อปัญหามีคำจำกัดความที่ชัดเจน การสร้างวิดีโอ AI ยังเป็นความท้าทายทางเทคนิคที่มีโฟกัส ไม่ใช่เกมระบบนิเวศที่กระจาย
Runway อยู่ในเกมเฉพาะนี้มานานกว่าใครด้วย พวกเขาปล่อย Gen-1 ก่อนที่ Sora จะมีตัวตนเสียอีก ความรู้ขององค์กรนั้น ความเข้าใจที่สะสมมาว่าอะไรทำให้การสร้างวิดีโอทำงานได้ สะสมขึ้นเมื่อเวลาผ่านไป
การตอบสนองของตลาด
คาดการณ์ว่าตลาดการสร้างวิดีโอ AI จะเติบโตจาก 716.8 ล้านดอลลาร์ในปี 2025 เป็น 2.56 พันล้านดอลลาร์ภายในปี 2032 อัตราการเติบโตแบบทบต้นรายปี 20% การเติบโตนั้นสมมติว่าการแข่งขันยังคงขับเคลื่อนนวัตกรรม
ภูมิทัศน์ปัจจุบัน (ธันวาคม 2025):
- Runway Gen-4.5: อันดับ 1 บน Video Arena แข็งแกร่งสำหรับงานเชิงพาณิชย์/สร้างสรรค์
- Sora 2: ข้อได้เปรียบเรื่องเสียง native แต่อันดับ 7 ด้านคุณภาพภาพ
- Veo 3: การเคลื่อนไหวของมนุษย์ที่ดีที่สุด รวมกับระบบนิเวศ Google
- Pika 2.5: ตัวเลือกที่คุ้มค่าที่สุด โหมดเทอร์โบที่เร็ว
- Kling AI: การจับภาพการเคลื่อนไหวที่แข็งแกร่ง การสร้างเสียงในตัว
สิ่งที่เปลี่ยนแปลงตั้งแต่สัปดาห์ที่แล้ว คือความชัดเจนของการจัดอันดับ ก่อน Gen-4.5 คุณอาจโต้แย้งได้ว่าหนึ่งในสามอันดับแรกคือ "ดีที่สุด" ขึ้นอยู่กับเกณฑ์ของคุณ ตอนนี้มีผู้นำที่ชัดเจน แม้ว่าโมเดลอื่นจะมีข้อได้เปรียบด้านฟีเจอร์ก็ตาม
สิ่งนี้หมายความว่าอย่างไรสำหรับผู้สร้าง
หากคุณกำลังเลือกเครื่องมือ AI วิดีโอหลักตอนนี้ นี่คือมุมมองที่อัปเดตของผมครับ:
- ✓คุณภาพภาพเป็นสิ่งสำคัญ? Runway Gen-4.5
- ✓ต้องการเสียงรวมอยู่? Sora 2 (ยังคง)
- ✓การเคลื่อนไหวของมนุษย์ที่สมจริง? Veo 3
- ✓ข้อจำกัดด้านงบประมาณ? Pika 2.5 Turbo
เครื่องมือ "ดีที่สุด" ยังคงขึ้นอยู่กับเวิร์กโฟลว์เฉพาะของคุณ แต่ถ้ามีคนถามผมว่าโมเดลใดสร้างเอาต์พุตวิดีโอคุณภาพสูงสุดตอนนี้ คำตอบชัดเจนกว่าเดือนที่แล้ว
ภาพใหญ่
การแข่งขันเป็นสิ่งดี เมื่อบริษัทมูลค่าล้านล้านดอลลาร์ไม่สามารถพึ่งพาทรัพยากรได้ ทุกคนได้ประโยชน์จากนวัตกรรมที่เร็วขึ้น
สิ่งที่ทำให้ผมตื่นเต้นกับผลลัพธ์นี้ไม่ใช่แค่การชนะของ Runway เท่านั้น มันเป็นหลักฐานว่าพื้นที่ AI วิดีโอยังไม่รวมตัวกัน ทีมเล็กที่มีโฟกัสยังสามารถแข่งขันในระดับสูงสุดได้ นั่นหมายความว่าเราน่าจะเห็นนวัตกรรมที่ก้าวร้าวอย่างต่อเนื่องจากผู้เล่นทุกคน แทนที่จะเป็นตลาดที่ถูกครอบงำโดยคนที่มี GPU มากที่สุด
ไม่กี่เดือนข้างหน้าจะน่าสนใจครับ Google และ OpenAI จะไม่ยอมรับอันดับ 7 อย่างเงียบๆ Runway จะต้องผลักดันต่อไป และที่ไหนสักแห่ง ทีมเล็กอีกทีมหนึ่งอาจกำลังสร้างสิ่งที่จะทำให้ทุกคนประหลาดใจ
คำทำนายของผม
ภายในกลางปี 2026 เราจะมองย้อนกลับไปที่ธันวาคม 2025 ว่าเป็นช่วงเวลาที่การสร้างวิดีโอ AI กลายเป็นการแข่งขันจริงๆ ไม่ใช่ในแง่ "สามตัวเลือกที่ดี" แต่ในแง่ "หลายบริษัทผลักดันกันเพื่อส่งมอบผลิตภัณฑ์ที่ดีขึ้นเร็วขึ้น"
สิ่งที่จะมา:
- เสียง native จากโมเดลมากขึ้น
- ความยาวคลิปที่นานขึ้น
- การจำลองฟิสิกส์ที่ดีขึ้น
- การสร้างแบบเรียลไทม์
สิ่งที่ไม่เปลี่ยนแปลง:
- การแข่งขันขับเคลื่อนนวัตกรรม
- ทีมเล็กต่อสู้เหนือน้ำหนัก
- ความเฉพาะเจาะจงของกรณีการใช้งานมีความสำคัญ
เครื่องมือที่จะส่งมอบในปลายปี 2026 จะทำให้ Gen-4.5 ดูดั้งเดิม แต่ตอนนี้ สำหรับช่วงเวลานี้ในธันวาคม 2025 Runway ถือครองมงกุฎ และนี่คือเรื่องราวที่คุ้มค่าที่จะเล่า: ทีม 100 คนที่แซงหน้ายักษ์ใหญ่
หากคุณกำลังสร้างด้วย AI วิดีโอ นี่คือเวลาที่ดีที่สุดในการทดลอง เครื่องมือดีพอที่จะใช้งานได้ มีการแข่งขันพอที่จะปรับปรุงต่อไป และเข้าถึงได้พอที่คุณจะลองทั้งหมดได้ เลือกเครื่องมือที่เหมาะกับเวิร์กโฟลว์ของคุณ และเริ่มสร้างสรรค์เลยครับ
อนาคตของวิดีโอกำลังถูกเขียนขึ้นตอนนี้ ทีละรุ่น
บทความนี้มีประโยชน์หรือไม่?

Henry
นักเทคโนโลยีสร้างสรรค์นักเทคโนโลยีสร้างสรรค์จากโลซานน์ที่สำรวจจุดบรรจบระหว่าง AI กับศิลปะ ทดลองกับโมเดลเชิงสร้างสรรค์ระหว่างเซสชั่นดนตรีอิเล็กทรอนิกส์
บทความที่เกี่ยวข้อง
สำรวจเนื้อหาต่อกับบทความที่เกี่ยวข้องเหล่านี้

Pika 2.5: ทำให้วิดีโอ AI เข้าถึงได้ง่ายผ่านความเร็ว ราคา และเครื่องมือสร้างสรรค์
Pika Labs เปิดตัวเวอร์ชัน 2.5 ที่รวมการสร้างที่เร็วขึ้น ฟิสิกส์ที่ได้รับการปรับปรุง และเครื่องมือสร้างสรรค์อย่าง Pikaframes และ Pikaffects เพื่อทำให้วิดีโอ AI เข้าถึงได้สำหรับทุกคน

Adobe และ Runway ร่วมมือกัน: ความร่วมมือ Gen-4.5 หมายความว่าอย่างไรสำหรับนักสร้างวิดีโอ
Adobe เพิ่งทำให้ Gen-4.5 ของ Runway กลายเป็นหัวใจหลักของวิดีโอ AI ใน Firefly พันธมิตรเชิงกลยุทธ์นี้กำลังเปลี่ยนแปลงเวิร์กโฟลว์สร้างสรรค์สำหรับมืออาชีพ สตูดิโอ และแบรนด์ทั่วโลก

World Models: แนวหน้าใหม่ของการสร้าง AI Video
เหตุใดการเปลี่ยนจาก frame generation ไปสู่ world simulation จึงกำลังเปลี่ยนแปลง AI video และ GWM-1 ของ Runway บอกอะไรเราเกี่ยวกับทิศทางที่เทคโนโลยีนี้กำลังมุ่งหน้า