Skip to main content
บริการเพิ่มประสิทธิภาพ LLM

On-Policy Context Distillation (OPCD)

กลั่นกรอง System Prompt ที่ซับซ้อน ตัวอย่าง Few-shot และกระบวนการคิดแบบ Chain-of-Thought ลงไปในน้ำหนักของโมเดลโดยตรง โมเดลของคุณจะเรียนรู้ที่จะทำงานเสมือนมี Context ที่สมบูรณ์แบบอยู่เสมอ

เริ่มต้นใช้งาน
บริการ Context Distillation

Context Distillation คืออะไร?

Context Distillation คือกระบวนการฝึกโมเดลให้ซึมซับพฤติกรรมที่เกิดจาก Context เฉพาะ (System Prompt, ตัวอย่าง Few-shot หรือคำสั่ง Chain-of-Thought) เพื่อให้โมเดลสามารถสร้างผลลัพธ์คุณภาพสูงได้โดยไม่ต้องใช้ Context นั้นในขั้นตอน Inference

On-Policy Context Distillation (OPCD) ยกระดับขึ้นไปอีกด้วยการใช้ผลลัพธ์ที่โมเดลสร้างขึ้นเอง (On-Policy) แทนชุดข้อมูลแบบคงที่ โมเดลจะสร้างคำตอบโดยใช้ Context ที่สมบูรณ์ จากนั้นเรียนรู้ที่จะสร้างคำตอบเดียวกันโดยไม่ต้องใช้ Context วิธีนี้มีประสิทธิภาพมากกว่าเพราะข้อมูลฝึกสอดคล้องกับการกระจายผลลัพธ์จริงของโมเดล

ผลลัพธ์ที่ได้: Inference เร็วขึ้น (ไม่ต้องใช้ System Prompt ยาวๆ) ค่าใช้จ่ายโทเค็นลดลง พฤติกรรมสม่ำเสมอมากขึ้น และสามารถฝังรูปแบบการให้เหตุผลที่ซับซ้อนลงในตัวโมเดลได้โดยตรง

แผนภาพ On-Policy Context Distillation

วิธีการทำงาน

จากพฤติกรรมที่ต้องพึ่ง Context สู่พฤติกรรมที่ไม่ต้องใช้ Context

ออกแบบ Context

กำหนด System Prompt ตัวอย่าง และคำสั่งที่ทำให้โมเดลแสดงพฤติกรรมตามที่ต้องการ

สร้างข้อมูลแบบ On-Policy

โมเดลสร้างคำตอบคุณภาพสูงโดยใช้ Context เต็มรูปแบบบน Prompt ที่หลากหลาย

ฝึก Distillation

ฝึกโมเดลให้สร้างคำตอบเดียวกันโดยไม่ต้องใช้ Context

ตรวจสอบความถูกต้อง

ยืนยันว่าโมเดลที่ไม่ต้องใช้ Context มีคุณภาพและพฤติกรรมเทียบเท่ากับโมเดลที่ต้องใช้ Context

ข้อดีหลัก

Inference เร็วขึ้น

กำจัด System Prompt ยาวๆ และตัวอย่าง Few-shot ออกจากทุกคำขอ ลดโทเค็นอินพุตได้ 50-90% ลดเวลาตอบสนองและต้นทุนได้อย่างมาก

💰

ค่าใช้จ่ายโทเค็นลดลง

ไม่ต้องจ่ายค่าโทเค็น System Prompt หลายพันโทเค็นในทุกการเรียก API อีกต่อไป พฤติกรรมถูกฝังอยู่ในตัวโมเดลแล้ว

🎯

พฤติกรรมสม่ำเสมอ

โมเดลทำงานตามที่ต้องการเสมอ ไม่ว่า Prompt จะถูกจัดรูปแบบอย่างไร ไม่มีปัญหาความอ่อนไหวต่อ Prompt อีกต่อไป

🔒

ปกป้องทรัพย์สินทางปัญญา

System Prompt ที่คุณสร้างขึ้นอย่างพิถีพิถันจะถูกฝังอยู่ในน้ำหนักโมเดล ไม่ถูกเปิดเผยใน API ปกป้อง Prompt Engineering ของคุณ

กรณีการใช้งาน

เหมาะสำหรับการใช้งานจริงที่มีปริมาณสูง

กำจัด System Prompt

ไม่ต้องใช้ System Prompt ยาวๆ ที่กำหนดบุคลิก กฎพฤติกรรม และรูปแบบคำตอบ ฝังทุกอย่างลงในโมเดลโดยตรง

ซึมซับตัวอย่าง Few-Shot

ไม่ต้องส่งตัวอย่าง 5-10 รายการในทุกคำขออีกต่อไป โมเดลเรียนรู้รูปแบบครั้งเดียวและนำไปใช้กับอินพุตในอนาคตทั้งหมด

ฝัง Chain-of-Thought

กลั่นกรองรูปแบบการให้เหตุผลที่ซับซ้อนลงในโมเดล เพื่อให้โมเดลคิดทีละขั้นตอนโดยไม่ต้องใช้ CoT Prompting

ซึมซับพฤติกรรมความปลอดภัย

ฝังแนวทางความปลอดภัยและนโยบายเนื้อหาลงในพฤติกรรมของโมเดลโดยตรง ทำให้แข็งแกร่งกว่าการใช้ Prompt-based Guardrails

เข้ารหัสเสียงของแบรนด์

กลั่นกรองโทนเสียง บุคลิกภาพ และสไตล์การสื่อสารของแบรนด์ลงในโมเดล เพื่อให้ทุกคำตอบตรงกับแบรนด์โดยไม่ต้องใช้ Style Prompt

ทำให้รูปแบบผลลัพธ์เป็นมาตรฐาน

สอนโมเดลให้สร้างผลลัพธ์ที่มีโครงสร้าง (JSON ตาราง เทมเพลตเฉพาะ) อย่างสม่ำเสมอ โดยไม่ต้องใส่คำสั่งรูปแบบในทุกคำขอ

ทำไมต้องเลือก iApp Technology?

บริษัท AI ชั้นนำของประเทศไทยที่มีความเชี่ยวชาญด้าน LLM ที่พิสูจน์แล้ว

💻

โครงสร้างพื้นฐานระดับโลก

เราดำเนินการซูเปอร์คอมพิวเตอร์ NVIDIA H100, B200 และ GB200 OPCD ต้องการสร้างข้อมูล On-Policy จำนวนมาก และโครงสร้างพื้นฐานของเราสามารถรองรับได้ในระดับใหญ่

🏆

ผลงานที่พิสูจน์แล้ว

เราเป็นผู้สร้าง LLM สำหรับใช้งานจริงที่ได้รับความไว้วางใจจากองค์กรทั่วประเทศไทยและเอเชียตะวันออกเฉียงใต้

Thanoy Legal AISiamGPT Travel LLMCIB ChatbotThaiLLM TravelAi-Ming Chatbot

ราคา

ราคาตามโปรเจกต์

ราคา Context Distillation ขึ้นอยู่กับความซับซ้อนของ Context ที่ต้องการกลั่นกรอง ขนาดโมเดล และปริมาณข้อมูล On-Policy ที่ต้องการ

  • ✓ ให้คำปรึกษาเบื้องต้นและวิเคราะห์ Context ฟรี
  • ✓ ราคาโปร่งใสไม่มีค่าใช้จ่ายแอบแฝง
  • ✓ รับประกันคุณภาพเทียบเท่าเกณฑ์มาตรฐานที่ต้องใช้ Context
  • ✓ รวมบริการสนับสนุนหลังส่งมอบ
ติดต่อเราเพื่อรับใบเสนอราคา