ขอแนะนำ GPT-OSS-120B และ GPT-OSS-20B พร้อมรองรับรูปแบบ OpenAI Harmony
OpenAI กลับมาสู่การพัฒนา AI แบบโอเพนซอร์สอีกครั้งด้วยการเปิดตัวโมเดลใหม่ที่ทรงพลังสองรุ่น: GPT-OSS-120B และ GPT-OSS-20B โมเดลการให้เหตุผลแบบโอเพนเวทเหล่านี้มีให้ใช้งานภายใต้ใบอนุญาต Apache 2.0 และนำเสนอความก้าวหน้าอย่างมากในด้านความสามารถในการให้เหตุผล พร้อมกับการรองรับรูปแบบการตอบสนอง OpenAI Harmony แบบเนทีฟ
โมเดล GPT-OSS คืออะไร?
โมเดล GPT-OSS แสดงถึงการกลับมาสู่การพัฒนาแบบโอเพนซอร์สของ OpenAI โดยมีสถาปัตยกรรม Mixture-of-Experts (MoE) ขั้นสูงที่ออกแบบมาเพื่อมอบประสิทธิภาพการให้เหตุผลระดับองค์กร ในขณะที่ยังคงรักษาประสิทธิภาพไว้ เปิดตัวในเดือนสิงหาคม 2025 ภายใต้ใบอนุญาต Apache 2.0 โมเดลเหล่านี้มีการแลกเปลี่ยนประสิทธิภาพ-ประสิทธิผลที่แตกต่างกัน ซึ่งปรับให้เหมาะสมสำหรับสถานการณ์การใช้งานที่หลากหลาย ตั้งแต่เซิร์ฟเวอร์ขององค์กรไปจนถึงอุปกรณ์ของผู้บริโภค
GPT-OSS-120B: ประสิทธิภาพระดับองค์กร
โมเดลพารามิเตอร์ 117 พันล้านพารามิเตอร์ (116.8 พันล้านพารามิเตอร์ทั้งหมด โดยมีพารามิเตอร์ที่ใช้งานอยู่ 5.1 พันล้านพารามิเตอร์ต่อโทเค็น) มอบ:
- การให้เหตุผลขั้นสูง: มีประสิทธิภาพเหนือกว่า OpenAI o3-mini และเทียบเท่ากับ o4-mini ในการเขียนโค้ดการแข่งขัน (Codeforces) และการแก้ปัญหา (MMLU)
- สถาปัตยกรรม MoE: การออกแบบแบบ Mixture-of-Experts ที่มีรูปแบบการ attention แบบหนาแน่นและแบบกระจัดกระจายแบบแถบในพื้นที่สลับกัน
- หน้าต่างบริบทที่ยาว: รองรับความยาวบริบทสูงสุด 128k แบบเนทีฟ ด้วย Rotary Positional Embedding (RoPE)
- การผสานรวมองค์กร: ปรับให้เหมาะสมสำหรับการให้เหตุผล งานแบบเอเจนต์ และกรณีการใช้งานของนักพัฒนา
- การหาปริมาณ MXFP4: น้ำหนัก MoE ถูกหาปริมาณเป็นรูปแบบ MXFP4 ทำให้สามารถใช้งานบน GPU 80GB เดียวได้
GPT-OSS-20B: มีประสิทธิภาพและเข้าถึงได้
โมเดลพารามิเตอร์ 21 พันล้านพารามิเตอร์ (20.9 พันล้านพารามิเตอร์ทั้งหมด โดยมีพารามิเตอร์ที่ใช้งานอยู่ 3.6 พันล้านพารามิเตอร์ต่อโทเค็น) เน้นที่:
- ฮาร์ดแวร์ของผู้บริโภค: ทำงานบนแล็ปท็อปและอุปกรณ์ Apple Silicon ที่มีหน่วยความจำเพียง 16GB
- ประสิทธิภาพการแข่งขัน: เทียบเท่าหรือเหนือกว่า o3-mini แม้จะมีขนาดเล็กลง โดยมีประสิทธิภาพเหนือกว่าในด้านคณิตศาสตร์
- การใช้งานแบบ Edge: เหมาะอย่างยิ่งสำหรับแอปพลิเคชันบนอุปกรณ์และฮาร์ดแวร์ของผู้บริโภค
- ประสิทธิภาพ MXFP4: ต้องการหน่วยความจำเพียง 16GB เนื่องจากน้ำหนัก MoE ที่ถูกหาปริมาณแล้ว
เกณฑ์มาตรฐานประสิทธิภาพ
โมเดล GPT-OSS ทั้งสองรุ่นแสดงให้เห็นถึงประสิทธิภาพที่ยอดเยี่ยมในเกณฑ์มาตรฐานการประเมินต่างๆ ทำให้เป็นตัวเลือกที่แข่งขันได้สูงในภูมิทัศน์ AI แบบโอเพนซอร์ส

ผลลัพธ์เกณฑ์มาตรฐาน

ผลลัพธ์เกณฑ์มาตรฐานแสดงให้เห็นว่า:
- GPT-OSS-120B มีประสิทธิภาพเหนือกว่า OpenAI o3-mini และเทียบเท่ากับ o4-mini ในการเขียนโค้ดการแข่งขันและการแก้ปัญหาทั่วไป
- GPT-OSS-20B มีประสิทธิภาพเทียบเท่าหรือเหนือกว่า o3-mini แม้จะมีขนาดเล็กลง โดยเฉพาะอย่างยิ่งในด้านคณิตศาสตร์
- โมเดลทั้งสองรุ่นแสดงให้เห็นถึงประสิทธิภาพที่แข็งแกร่งในหมวดหมู่การประเมินที่หลากหลาย รวมถึงการให้เหตุผล การเขียนโค้ด และงานด้านความรู้
- โมเดลยังคงรักษาประสิทธิภาพการแข่งขันไว้ ในขณะที่นำเสนอข้อดีของการเข้าถึงแบบโอเพนซอร์สและการใช้งานในสถานที่
ผลลัพธ์เหล่านี้ทำให้โมเดล GPT-OSS เป็นทางเลือกที่ทรงพลังสำหรับโซลูชันแบบเป็นกรรมสิทธิ์ โดยเฉพาะอย่างยิ่งสำหรับองค์กรที่ต้องการความสามารถด้าน AI ที่มีประสิทธิภาพสูงพร้อมการควบคุมสภาพแวดล้อมการใช้งานอย่างเต็มที่
รูปแบบ OpenAI Harmony: การสนทนาแบบมีโครงสร้าง
โมเดลทั้งสองรุ่นมีการรองรับรูปแบบการตอบสนอง OpenAI Harmony แบบเนทีฟ ซึ่งนำเสนอข้อดีที่สำคัญหลายประการ: