ขนขิงมาเป็นไร่
ตลาด AI กำลังร้อนระอุ เมื่อ Google ออกมาแสดงความเหนือกว่า DeepSeek ด้วยการเปิดตัว Gemma 3 โมเดลภาษาขนาดใหญ่ (LLM) ที่เป็นแบบโอเพนซอร์ส โดย Google เคลมว่ามีประสิทธิภาพเทียบเท่า แต่ใช้พลังงานน้อยกว่ามาก มีข้อดีหลัก ๆ คือ
– Gemma 3 มีประสิทธิภาพเกือบเทียบเท่า DeepSeek R1 (98% ตามคะแนน Elo ซึ่งเป็นระบบวัดความสามารถที่ใช้ในการจัดอันดับผู้เล่นหมากรุก) แต่ใช้ GPU น้อยกว่ามาก โดย Gemma 3 ใช้ H100 GPU เพียง 1 ตัว ในขณะที่ R1 อาจต้องใช้ถึง 32 ตัว
– จุดเด่นคือความพอดี Google เน้นว่า Gemma 3 เป็นจุดสมดุลระหว่างประสิทธิภาพและการใช้พลังงาน ทำให้เหมาะสำหรับการใช้งานบนอุปกรณ์ต่างๆ (on-device) ไม่ว่าจะเป็น GPU, TPU (ชิป AI ของ Google เอง) หรือแม้กระทั่งอุปกรณ์พกพาอย่างสมาร์ทโฟน
– Google ใช้เทคนิค Distillation ซึ่งเป็นการถ่ายทอดความรู้จากโมเดลขนาดใหญ่กว่า มาสู่โมเดลขนาดเล็ก เหมือนการกลั่นความรู้จากครู (โมเดลใหญ่) ไปสู่นักเรียน (โมเดลเล็ก) ทำให้ Gemma 3 มีประสิทธิภาพสูงแม้จะมีขนาดเล็ก โดยมีพารามิเตอร์ให้เลือกตั้งแต่ 1 พันล้าน ถึง 27 พันล้าน เทียบกับ R1 ที่มีถึง 671 พันล้าน
– Google มีการใช้ Reinforcement Learning (RL) หลายรูปแบบ (RLHF, RLMF, RLEF) เพื่อปรับปรุงคุณภาพของผลลัพธ์, ความสามารถทางคณิตศาสตร์ และการเขียนโค้ด ตัวอย่างเช่น RLHF ช่วยให้ AI ตอบคำถามได้ตรงประเด็นและไม่เป็นอันตราย, RLMF ช่วยให้ AI แก้โจทย์เลขได้เก่งขึ้น
– Gemma 3 มี context window ที่ยาวขึ้น (128,000 โทเค็น) ทำให้สามารถประมวลผลเอกสารขนาดยาว เช่น บทความวิชาการ หรือหนังสือได้ดีขึ้น ช่วยให้ AI เข้าใจบริบทของเอกสารได้ดีขึ้น และสามารถสรุปใจความสำคัญได้แม่นยำขึ้น
– เทียบชั้น Gemini ได้บางส่วน ถึงแม้ว่า Gemma 3 จะมีประสิทธิภาพโดยรวมต่ำกว่า Gemini 1.5 และ 2.0 ของ Google เอง แต่ Google ก็ระบุว่า Gemma 3 มีประสิทธิภาพที่แข่งขันได้ในหลายๆ ด้าน โดยเฉพาะอย่างยิ่งในการทดสอบด้านการเขียนโปรแกรม ที่สำคัญคือ Gemma 3 มันเป็น Open Source
Gemma 3 คือความพยายามของ Google ในการสร้างโมเดล AI ที่มีประสิทธิภาพสูง แต่สามารถทำงานได้บนอุปกรณ์ที่หลากหลายมากขึ้น โดยอาศัยเทคนิคการบีบอัดโมเดล (distillation) และการปรับปรุงคุณภาพด้วย Reinforcement Learning การเปิดตัว Gemma 3 ในครั้งนี้ น่าจะทำให้ตลาด AI แข่งขันกันดุเดือดยิ่งขึ้นไปอีก และอาจเป็นจุดเริ่มต้นของการพัฒนา AI ที่ฉลาดและประหยัดมากขึ้น