DeepSeek เปิดตัว AI โมเดลใหม่ V4 Flash และ V4 Pro ‘ปิดช่องว่าง’ กับโมเดลระดับ前沿

DeepSeek ห้องปฏิบัติการ AI จากจีน เปิดตัว DeepSeek V4 Flash และ V4 Pro ซึ่งเป็นโมเดลภาษาใหญ่รุ่นใหม่ที่ใช้สถาปัตยกรรม Mixture-of-Experts (MoE) รองรับ context window สูงถึง 1 ล้าน token ทำให้สามารถประมวลผลโค้ดหรือเอกสารขนาดใหญ่ใน prompt ได้ โดย V4 Pro มีพารามิเตอร์รวม 1.6 ล้านล้าน (49 พันล้าน active) ถือเป็น open-weight โมเดลที่ใหญ่ที่สุดในขณะนี้
DeepSeek อ้างว่า V4 Pro-Max ทำคะแนนเหนือกว่า GPT-5.2 และ Gemini 3.0 Pro ในบางการทดสอบ reasoning และมีประสิทธิภาพด้าน coding เทียบเท่า GPT-5.4 อย่างไรก็ตาม โมเดลยังด้อยกว่า GPT-5.4 และ Gemini 3.1 Pro ในด้านความรู้ทั่วไป ซึ่งบ่งชี้ว่าตามหลังโมเดล前沿ประมาณ 3-6 เดือน ทั้งสองรุ่นรองรับเฉพาะข้อความเท่านั้น แต่มีราคาถูกกว่าโมเดลคู่แข่งมาก โดย V4 Flash เริ่มต้นที่ $0.14 ต่อล้าน input token
ที่มา: TechCrunch
คำศัพท์เทคนิคที่น่าสนใจ
- Mixture-of-Experts (MoE) – สถาปัตยกรรมที่เปิดใช้งานเฉพาะพารามิเตอร์บางส่วนต่อ task เพื่อลดต้นทุนการประมวลผล
- Context window – จำนวน token สูงสุดที่โมเดลสามารถรับเข้าใน prompt ได้ครั้งเดียว
- Open-weight – โมเดลที่เปิดเผยค่าน้ำหนักให้สาธารณชนเข้าถึงและนำไปใช้ต่อได้
- Reasoning benchmark – การทดสอบความสามารถในการใช้เหตุผลของ AI