ขอแนะนำ GPT-OSS-120B และ GPT-OSS-20B พร้อมรองรับรูปแบบ OpenAI Harmony
OpenAI กลับมาสู่การพัฒนา AI แบบโอเพนซอร์สอีกครั้งด้วยการเปิดตัวโมเดลใหม่ที่ทรงพลังสองรุ่น: GPT-OSS-120B และ GPT-OSS-20B โมเดลการให้เหตุผลแบบโอเพนเวทเหล่านี้มีให้ใช้งานภายใต้ใบอนุญาต Apache 2.0 และนำเสนอความก้าวหน้าอย่างมากในด้านความสามารถในการให้เหตุผล พร้อมกับการรองรับรูปแบบการตอบสนอง OpenAI Harmony แบบเนทีฟ
โมเดล GPT-OSS คืออะไร?
โมเดล GPT-OSS แสดงถึงการกลับมาสู่การพัฒนาแบบโอเพนซอร์สของ OpenAI โดยมีสถาปัตยกรรม Mixture-of-Experts (MoE) ขั้นสูงที่ออกแบบมาเพื่อมอบประสิทธิภาพการให้เหตุผลระดับองค์กร ในขณะที่ยังคงรักษาประสิทธิภาพไว้ เปิดตัวในเดือนสิงหาคม 2025 ภายใต้ใบอนุญาต Apache 2.0 โมเดลเหล่านี้มีการแลกเปลี่ยนประสิทธิภาพ-ป ระสิทธิผลที่แตกต่างกัน ซึ่งปรับให้เหมาะสมสำหรับสถานการณ์การใช้งานที่หลากหลาย ตั้งแต่เซิร์ฟเวอร์ขององค์กรไปจนถึงอุปกรณ์ของผู้บริโภค
GPT-OSS-120B: ประสิทธิภาพระดับองค์กร
โมเดลพารามิเตอร์ 117 พันล้านพารามิเตอร์ (116.8 พันล้านพารามิเตอร์ทั้งหมด โดยมีพารามิเตอร์ที่ใช้งานอยู่ 5.1 พันล้านพารามิเตอร์ต่อโทเค็น) มอบ:
- การให้เหตุผลขั้นสูง: มีประสิทธิภาพเหนือกว่า OpenAI o3-mini และเทียบเท่ากับ o4-mini ในการเขียนโค้ดการแข่งขัน (Codeforces) และการแก้ปัญหา (MMLU)
- สถาปัตยกรรม MoE: การออกแบบแบบ Mixture-of-Experts ที่มีรูปแบบการ attention แบบหนาแน่นและแบบกระจัดกระจายแบบแถบในพื้นที่สลับกัน
- หน้าต่างบริบทที่ยาว: รองรับความยาวบริบทสูงสุด 128k แบบเนทีฟ ด้วย Rotary Positional Embedding (RoPE)
- การผสานรวมองค์กร: ปรับให้เหมาะสมสำหรับการให้เหตุผล งานแบบเอเจนต์ และกรณีการใช้งานของนักพัฒนา
- การหาปริมาณ MXFP4: น้ำหนัก MoE ถูกหาปริมาณเป็นรูปแบบ MXFP4 ทำให้สามารถใช้งานบน GPU 80GB เดียวได้
GPT-OSS-20B: มีประสิทธิภาพและเข้าถึงได้
โมเดลพารามิเตอร์ 21 พันล้านพารามิเตอร์ (20.9 พันล้านพารามิเตอร์ทั้งหมด โดยมีพารามิเตอร์ที่ใช้งานอยู่ 3.6 พันล้านพารามิเตอร์ต่อโทเค็น) เน้นที่:
- ฮาร์ดแวร์ของผู้บริโภค: ทำงานบนแล็ปท็อปและอุปกรณ์ Apple Silicon ที่มีหน่วยความจำเพียง 16GB
- ประสิทธิภา พการแข่งขัน: เทียบเท่าหรือเหนือกว่า o3-mini แม้จะมีขนาดเล็กลง โดยมีประสิทธิภาพเหนือกว่าในด้านคณิตศาสตร์
- การใช้งานแบบ Edge: เหมาะอย่างยิ่งสำหรับแอปพลิเคชันบนอุปกรณ์และฮาร์ดแวร์ของผู้บริโภค
- ประสิทธิภาพ MXFP4: ต้องการหน่วยความจำเพียง 16GB เนื่องจากน้ำหนัก MoE ที่ถูกหาปริมาณแล้ว
เกณฑ์มาตรฐานประสิทธิภาพ
โมเดล GPT-OSS ทั้งสองรุ่นแสดงให้เห็นถึงประสิทธิภาพที่ยอดเยี่ยมในเกณฑ์มาตรฐานการประเมินต่างๆ ทำให้เป็นตัวเลือกที่แข่งขันได้สูงในภูมิทัศน์ AI แบบโอเพนซอร์ส