Google DeepMind เปิดตัวโมเดล AI รุ่นใหม่ Gemini 2.5 Flash-Lite ที่ออกแบบมาเพื่อการใช้งานในระดับ Production ขนาดใหญ่ โดดเด่นด้วยความเร็วที่เพิ่มขึ้น 2.5 เท่า เมื่อเทียบกับ Gemini 2.0 Flash-Lite และมีราคาที่แข่งขันได้อย่างมากในตลาด API
ข้อมูลจำเพาะหลัก
Gemini 2.5 Flash-Lite มาพร้อมกับ Context Window ขนาด 1 ล้าน Token รองรับ Multimodal Input (ข้อความ, รูปภาพ, วิดีโอ, เสียง) และสนับสนุน Function Calling รวมถึง Grounding กับ Google Search อย่างสมบูรณ์ ราคา Input Token อยู่ที่ $0.25 ต่อล้าน Token และ Output Token ที่ $1.00 ต่อล้าน Token ซึ่งถือว่าถูกมากเมื่อเทียบกับโมเดลคู่แข่ง
เหมาะกับการใช้งานแบบไหน
Google แนะนำให้ใช้ Flash-Lite สำหรับงานที่ต้องการ Throughput สูง เช่น การสรุปเอกสารจำนวนมาก, Chatbot ที่ตอบสนองแบบ Real-time, การจัดหมวดหมู่เนื้อหา และงาน RAG (Retrieval-Augmented Generation) ที่ต้องการความเร็วสูง
เปรียบเทียบกับ GPT-4o Mini และ Claude Haiku
ในการทดสอบ Benchmark มาตรฐาน Gemini 2.5 Flash-Lite ทำคะแนน MMLU ได้สูงกว่า GPT-4o Mini และ Claude 3.5 Haiku ในงานด้าน Reasoning และ Coding ขณะที่ราคาต่อ Token ก็ต่ำกว่าคู่แข่งทั้งสองรายอย่างเห็นได้ชัด
พร้อมใช้งานแล้ววันนี้
โมเดลพร้อมใช้งานผ่าน Google AI Studio และ Vertex AI API โดยนักพัฒนาสามารถเริ่มใช้ฟรีในโควต้า Free Tier หรืออัปเกรดเป็น Pay-as-you-go ได้ทันที
ที่มา: The Verge / Google DeepMind Blog