Skip to main content

🇹🇭 จินดา โมเดลภาษาไทยแบบโอเพนซอร์ส ขนาด 4 พันล้านพารามิเตอร์

โมเดลล่าสุด คิดเป็นไทย ตอบเป็นไทย สร้างโดยสตาร์ทอัพไทย

จินดา โมเดลภาษาไทยแบบโอเพนซอร์ส ขนาด 4 พันล้านพารามิเตอร์ คือโมเดลภาษาไทยที่ล้ำสมัยของไอแอพพ์เทคโนโลยี ที่นำเสนอความสามารถในการคิดวิเคราะห์ขั้นสูงสู่ระบบนิเวศน์ AI ของไทย สร้างขึ้นบนสถาปัตยกรรม Qwen3-4B ล่าสุด จินดาแสดงให้เห็นถึงความมุ่งมั่นของเราในการพัฒนาโซลูชัน AI อธิปไตยสำหรับประเทศไทย

🚀 ลิงก์ด่วน

✨ คุณสมบัติหลัก

🆓 0. ฟรีและโอเพนซอร์สสำหรับทุกคน

จินดา LLM 4B ฟรีและโอเพนซอร์สอย่างสมบูรณ์ ช่วยให้ผู้พัฒนา นักวิจัย และธุรกิจสามารถสร้างแอปพลิเคชัน AI ภาษาไทยได้โดยไม่มีข้อจำกัด

🧠 1. โมเดลการคิดวิเคราะห์ขั้นสูง

  • คะแนนสูงสุดในบรรดาโมเดลภาษาไทยขนาด 4 พันล้านพารามิเตอร์
  • สลับระหว่างโหมดการคิดและไม่คิดได้อย่างราบรื่น
  • ความสามารถในการให้เหตุผลที่เหนือกว่าสำหรับปัญหาที่ซับซ้อน
  • สามารถปิดการใช้งานเพื่อการสนทนาแบบทั่วไปที่มีประสิทธิภาพ

🇹🇭 2. ความแม่นยำของภาษาไทยที่ยอดเยี่ยม

  • ความแม่นยำ 98.4% ในการสร้างผลลัพธ์ภาษาไทย
  • ป้องกันการสร้างผลลัพธ์ภาษาจีนและภาษาต่างประเทศที่ไม่ต้องการ
  • ปรับแต่งโดยเฉพาะสำหรับรูปแบบภาษาไทย

🆕 3. สถาปัตยกรรมล่าสุด

  • ใช้โมเดล Qwen3-4B ที่ล้ำสมัย
  • รวมความก้าวหน้าล่าสุดในการสร้างแบบจำลองภาษา
  • ปรับให้เหมาะสมทั้งด้านประสิทธิภาพและความมีประสิทธิภาพ

📜 4. ใบอนุญาต Apache 2.0

  • อนุญาตให้ใช้ในเชิงพาณิชย์
  • อนุญาตให้แก้ไขและแจกจ่าย
  • ไม่มีข้อจำกัดในการใช้งานส่วนตัว

📊 ผลการทดสอบประสิทธิภาพ

จินดา LLM 4B แสดงให้เห็นถึงประสิทธิภาพที่เหนือกว่าเมื่อเทียบกับโมเดลภาษาไทยอื่นๆ ในประเภทเดียวกัน:

การทดสอบภาษาจินดา LLM 4Bทางเลือกอื่น*
AIME24อังกฤษ0.5330.100
ไทย0.1000.000
LiveCodeBenchอังกฤษ0.6650.209
ไทย0.1980.144
MATH500อังกฤษ0.9080.702
ไทย0.6120.566
IFEVALอังกฤษ0.8490.848
ไทย0.6830.740
ความแม่นยำของภาษาไทย0.9840.992
OpenThaiEvalไทย0.6510.544
ค่าเฉลี่ย0.5690.414

*ทางเลือกอื่น: scb10x_typhoon2.1-gemma3-4b

info

ทดสอบโดย Skythought และ Evalscope Benchmark Libraries โดยทีมงานไอแอพพ์เทคโนโลยี ผลการทดสอบแสดงให้เห็นว่า Chinda LLM 4B มีประสิทธิภาพโดยรวมดีกว่าทางเลือกอื่นๆ ถึง 37%

✅ เหมาะสำหรับ

🔍 1. แอปพลิเคชัน RAG (AI อธิปไตย)

เหมาะอย่างยิ่งสำหรับการสร้างระบบ Retrieval-Augmented Generation ที่รักษาการประมวลผลข้อมูลไว้ภายในอธิปไตยของประเทศไทย

📱 2. แอปพลิเคชันบนมือถือและแล็ปท็อป

โมเดลภาษาขนาดเล็กที่เชื่อถือได้ ปรับให้เหมาะสมสำหรับการประมวลผลแบบ edge computing และอุปกรณ์ส่วนบุคคล

🧮 3. การคำนวณทางคณิตศาสตร์

ประสิทธิภาพที่ยอดเยี่ยมในการให้เหตุผลและแก้ปัญหาทางคณิตศาสตร์

💻 4. ผู้ช่วยเขียนโค้ด

ความสามารถที่แข็งแกร่งในการสร้างโค้ดและช่วยเหลือการเขียนโปรแกรม

5. ประสิทธิภาพการใช้ทรัพยากร

การอนุมานที่รวดเร็วมากด้วยการใช้หน่วยความจำ GPU น้อยที่สุด เหมาะสำหรับการใช้งานจริง

❌ ไม่เหมาะสำหรับ

📚 คำถามข้อเท็จจริงที่ไม่มีบริบท

ในฐานะโมเดลที่มีพารามิเตอร์ 4 พันล้านตัว อาจเกิดการหลงผิดเมื่อถูกถามเกี่ยวกับข้อเท็จจริงเฉพาะโดยไม่มีบริบทที่ให้มา ควรใช้ร่วมกับ RAG หรือให้บริบทที่เกี่ยวข้องสำหรับคำถามข้อเท็จจริงเสมอ

🛠️ เริ่มต้นใช้งานอย่างรวดเร็ว

การติดตั้ง

pip install transformers torch

การใช้งานพื้นฐาน

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "iapp/chinda-qwen3-4b"

# โหลด tokenizer และโมเดล
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)

# เตรียมข้อมูลอินพุตของโมเดล
prompt = "อธิบายเกี่ยวกับปัญญาประดิษฐ์ให้ฟังหน่อย"
messages = [
{"role": "user", "content": prompt}
]

text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True # เปิดใช้งานโหมดการคิดเพื่อการให้เหตุผลที่ดีขึ้น
)

model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

# สร้างการตอบสนอง
generated_ids = model.generate(
**model_inputs,
max_new_tokens=1024,
temperature=0.6,
top_p=0.95,
top_k=20,
do_sample=True
)

output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()

# วิเคราะห์เนื้อหาการคิด (ถ้าเปิดใช้งาน)
try:
# ค้นหาโทเค็น </think> (151668)
index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:
index = 0

thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")

print("🧠 การคิด:", thinking_content)
print("💬 การตอบสนอง:", content)

การสลับระหว่างโหมดการคิดและไม่คิด

เปิดใช้งานโหมดการคิด (ค่าเริ่มต้น)
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True # เปิดใช้งานการให้เหตุผลโดยละเอียด
)
ปิดใช้งานโหมดการคิด (เพื่อประสิทธิภาพ)
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=False # โหมดการตอบสนองที่รวดเร็ว
)

การใช้งาน API

ใช้ vLLM
pip install vllm>=0.8.5
vllm serve iapp/chinda-qwen3-4b --enable-reasoning --reasoning-parser deepseek_r1
ใช้ SGLang
pip install sglang>=0.4.6.post1
python -m sglang.launch_server --model-path iapp/chinda-qwen3-4b --reasoning-parser qwen3

ใช้ Ollama (ติดตั้งง่ายสำหรับใช้งานภายในเครื่อง)

การติดตั้ง:

# ติดตั้ง Ollama (หากยังไม่ได้ติดตั้ง)
curl -fsSL https://ollama.com/install.sh | sh

# ดาวน์โหลดโมเดล Chinda LLM 4B
ollama pull iapp/chinda-qwen3-4b

การใช้งานพื้นฐาน:

# เริ่มสนทนากับ Chinda LLM
ollama run iapp/chinda-qwen3-4b

# ตัวอย่างการสนทนา
ollama run iapp/chinda-qwen3-4b "อธิบายเกี่ยวกับปัญญาประดิษฐ์ให้ฟังหน่อย"

เซิร์ฟเวอร์ API:

# เริ่มเซิร์ฟเวอร์ Ollama API
ollama serve

# ใช้งานผ่าน curl
curl http://localhost:11434/api/generate -d '{
"model": "iapp/chinda-qwen3-4b",
"prompt": "สวัสดีครับ",
"stream": false
}'

ข้อมูลจำเพาะโมเดล:

  • ขนาด: 2.5GB (แบบบีบอัด)
  • หน้าต่างบริบท: 40K โทเค็น
  • สถาปัตยกรรม: เหมาะสำหรับการใช้งานภายในเครื่อง
  • ประสิทธิภาพ: การประมวลผลที่รวดเร็วบนฮาร์ดแวร์ทั่วไป

🔧 การกำหนดค่าขั้นสูง

การประมวลผลข้อความยาว

จินดา LLM 4B รองรับโทเค็นได้สูงสุด 32,768 โทเค็นโดยธรรมชาติ สำหรับบริบทที่ยาวกว่านั้น ให้เปิดใช้งานการปรับขนาด YaRN:

{
"rope_scaling": {
"rope_type": "yarn",
"factor": 4.0,
"original_max_position_embeddings": 32768
}
}

พารามิเตอร์ที่แนะนำ

สำหรับโหมดการคิด:

  • Temperature: 0.6
  • Top-P: 0.95
  • Top-K: 20
  • Min-P: 0

สำหรับโหมดไม่คิด:

  • Temperature: 0.7
  • Top-P: 0.8
  • Top-K: 20
  • Min-P: 0

📝 ความยาวของบริบทและรูปแบบเทมเพลต

การรองรับความยาวของบริบท

  • ความยาวบริบทดั้งเดิม: 32,768 โทเค็น
  • ความยาวบริบทที่ขยาย: สูงสุด 131,072 โทเค็น (ด้วยการปรับขนาด YaRN)
  • อินพุต + เอาต์พุต: ความยาวการสนทนารวมที่รองรับ
  • การใช้งานที่แนะนำ: ควรให้การสนทนาอยู่ภายใต้ 32,000 โทเค็นเพื่อประสิทธิภาพที่ดีที่สุด

รูปแบบเทมเพลตการสนทนา

จินดา LLM 4B ใช้รูปแบบเทมเพลตการสนทนาที่เป็นมาตรฐานเพื่อการโต้ตอบที่สอดคล้องกัน:

# โครงสร้างเทมเพลตพื้นฐาน
messages = [
{"role": "system", "content": "คุณเป็นผู้ช่วย AI ภาษาไทยที่เป็นประโยชน์"},
{"role": "user", "content": "สวัสดีครับ"},
{"role": "assistant", "content": "สวัสดีค่ะ! มีอะไรให้ช่วยเหลือบ้างคะ"},
{"role": "user", "content": "ช่วยอธิบายเรื่อง AI ให้ฟังหน่อย"}
]

# ใช้เทมเพลตพร้อมโหมดการคิด
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True
)

โครงสร้างเทมเพลต

เทมเพลตเป็นไปตามรูปแบบการสนทนาแบบมาตรฐาน:

<|im_start|>system
คุณเป็นผู้ช่วย AI ภาษาไทยที่เป็นประโยชน์<|im_end|>
<|im_start|>user
สวัสดีครับ<|im_end|>
<|im_start|>assistant
สวัสดีค่ะ! มีอะไรให้ช่วยเหลือบ้างคะ<|im_end|>
<|im_start|>user
ช่วยอธิบายเรื่อง AI ให้ฟังหน่อย<|im_end|>
<|im_start|>assistant

การใช้งานเทมเพลตขั้นสูง

# การสนทนาแบบหลายรอบพร้อมการควบคุมโหมดการคิด
def create_conversation(messages, enable_thinking=True):
# เพิ่มข้อความระบบหากไม่มี
if not messages or messages[0]["role"] != "system":
system_msg = {
"role": "system",
"content": "คุณเป็น AI ผู้ช่วยที่ฉลาดและเป็นประโยชน์ พูดภาษาไทยได้อย่างเป็นธรรมชาติ"
}
messages = [system_msg] + messages

# ใช้เทมเพลตการสนทนา
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=enable_thinking
)

return text

# ตัวอย่างการใช้งาน
conversation = [
{"role": "user", "content": "คำนวณ 15 × 23 = ?"},
]

prompt = create_conversation(conversation, enable_thinking=True)

การสลับโหมดแบบไดนามิก

คุณสามารถควบคุมโหมดการคิดภายในการสนทนาได้โดยใช้คำสั่งพิเศษ:

# เปิดใช้งานการคิดสำหรับปัญหาที่ซับซ้อน
messages = [
{"role": "user", "content": "/think แก้สมการ: x² + 5x - 14 = 0"}
]

# ปิดใช้งานการคิดสำหรับการตอบสนองที่รวดเร็ว
messages = [
{"role": "user", "content": "/no_think สวัสดี"}
]

แนวทางปฏิบัติที่ดีที่สุดในการจัดการบริบท

  1. ตรวจสอบจำนวนโทเค็น: ติดตามจำนวนโทเค็นทั้งหมด (อินพุต + เอาต์พุต)
  2. ตัดข้อความเก่า: ลบข้อความที่เก่าที่สุดเมื่อเข้าใกล้ขีดจำกัด
  3. ใช้ YaRN สำหรับบริบทที่ยาว: เปิดใช้งานการปรับขนาด rope สำหรับเอกสารที่มีมากกว่า 32,000 โทเค็น
  4. การประมวลผลแบบแบตช์: สำหรับข้อความที่ยาวมาก ให้พิจารณาการแบ่งเป็นส่วนๆ และประมวลผลเป็นชุดๆ
def manage_context(messages, max_tokens=30000):
"""ฟังก์ชันการจัดการบริบทอย่างง่าย"""
total_tokens = sum(len(tokenizer.encode(msg["content"])) for msg in messages)

while total_tokens > max_tokens and len(messages) > 2:
# เก็บข้อความระบบและลบคู่ผู้ใช้/ผู้ช่วยที่เก่าที่สุด
if messages[1]["role"] == "user":
messages.pop(1) # ลบข้อความผู้ใช้
if len(messages) > 1 and messages[1]["role"] == "assistant":
messages.pop(1) # ลบข้อความผู้ช่วยที่เกี่ยวข้อง

total_tokens = sum(len(tokenizer.encode(msg["content"])) for msg in messages)

return messages

🏢 การสนับสนุนองค์กร

สำหรับการใช้งานในองค์กร การฝึกอบรมแบบกำหนดเอง หรือการสนับสนุนเชิงพาณิชย์ ติดต่อเราได้ที่:

❓ คำถามที่พบบ่อย

🏷️ ทำไมถึงตั้งชื่อว่า "จินดา"?

ชื่อ "จินดา" มาจาก "จินดามณี" ซึ่งถือเป็นหนังสือเล่มแรกของไทยที่พระโหรทิโบดี (ศรีธรรมโศกราช) ทรงแต่งขึ้นในสมัยสุโขทัย เช่นเดียวกับที่จินดามณีเป็นตำราพื้นฐานสำหรับวรรณคดีและการเรียนรู้ของไทย จินดา LLM ก็เป็นรากฐานสำหรับ AI อธิปไตยของไทย - โมเดลที่เข้าใจและคิดเป็นภาษาไทยอย่างแท้จริง อนุรักษ์และพัฒนาความสามารถทางภาษาไทยในยุคดิจิทัล

⚖️ ฉันสามารถใช้ Chinda LLM 4B เพื่อการค้าได้หรือไม่?

ได้! จินดา LLM 4B เปิดตัวภายใต้ ใบอนุญาต Apache 2.0 ซึ่งอนุญาตให้:

  • การใช้งานเชิงพาณิชย์ - ใช้ในผลิตภัณฑ์และบริการเชิงพาณิชย์
  • การใช้งานเพื่อการวิจัย - แอปพลิเคชันทางวิชาการและการวิจัย
  • การแก้ไข - ปรับเปลี่ยนและแก้ไขโมเดล
  • การแจกจ่าย - แบ่งปันและแจกจ่ายโมเดล
  • การใช้งานส่วนตัว - ใช้สำหรับโครงการภายในบริษัท

ไม่มีข้อจำกัดในการใช้งานเชิงพาณิชย์ - สร้างและใช้งานได้อย่างอิสระ!

🧠 อะไรคือความแตกต่างระหว่างโหมดการคิดและไม่คิด?

โหมดการคิด (enable_thinking=True):

  • โมเดลแสดงกระบวนการให้เหตุผลในบล็อก <think>...</think>
  • ดีกว่าสำหรับปัญหาที่ซับซ้อน คณิตศาสตร์ การเขียนโค้ด การให้เหตุผลเชิงตรรกะ
  • การตอบสนองช้าลง แต่แม่นยำกว่า
  • แนะนำสำหรับงานที่ต้องการการวิเคราะห์เชิงลึก

โหมดไม่คิด (enable_thinking=False):

  • คำตอบโดยตรงโดยไม่แสดงการให้เหตุผล
  • การตอบสนองที่เร็วขึ้นสำหรับการสนทนาทั่วไป
  • ดีกว่าสำหรับคำถามง่ายๆ และแอปพลิเคชันการแชท
  • การใช้ทรัพยากรที่มีประสิทธิภาพมากขึ้น

คุณสามารถสลับระหว่างโหมดต่างๆ หรือให้ผู้ใช้ควบคุมได้แบบไดนามิกโดยใช้คำสั่ง /think และ /no_think

📊 จินดา LLM 4B เปรียบเทียบกับโมเดลภาษาไทยอื่นๆ อย่างไร?

จินดา LLM 4B มีประสิทธิภาพโดยรวมดีกว่าทางเลือกอื่นๆ ถึง 37%:

  • ค่าเฉลี่ยโดยรวม: 0.569 เทียบกับ 0.414 (ทางเลือกอื่น)
  • คณิตศาสตร์ (MATH500): 0.908 เทียบกับ 0.702 (อังกฤษ), 0.612 เทียบกับ 0.566 (ไทย)
  • โค้ด (LiveCodeBench): 0.665 เทียบกับ 0.209 (อังกฤษ), 0.198 เทียบกับ 0.144 (ไทย)
  • ความแม่นยำของภาษาไทย: 98.4% (ป้องกันการสร้างข้อความภาษาจีน/ต่างประเทศ)
  • OpenThaiEval: 0.651 เทียบกับ 0.544

ปัจจุบันเป็น โมเดลภาษาไทยที่มีคะแนนสูงสุดในประเภทพารามิเตอร์ 4 พันล้านตัว

💻 ข้อกำหนดของระบบในการใช้งาน Chinda LLM 4B คืออะไร?

ข้อกำหนดขั้นต่ำ:

  • GPU: VRAM 8GB (RTX 3070/4060 Ti หรือดีกว่า)
  • RAM: หน่วยความจำระบบ 16GB
  • ที่เก็บข้อมูล: พื้นที่ว่าง 8GB สำหรับดาวน์โหลดโมเดล
  • Python: 3.8+ พร้อม PyTorch

แนะนำสำหรับการใช้งานจริง:

  • GPU: VRAM 16GB+ (RTX 4080/A4000 หรือดีกว่า)
  • RAM: หน่วยความจำระบบ 32GB+
  • ที่เก็บข้อมูล: SSD สำหรับการโหลดที่เร็วขึ้น

โหมด CPU-Only: เป็นไปได้ แต่ช้ากว่ามาก (ไม่แนะนำสำหรับการใช้งานจริง)

🔧 ฉันสามารถปรับแต่ง Chinda LLM 4B สำหรับกรณีการใช้งานเฉพาะของฉันได้หรือไม่?

ได้! ในฐานะโมเดลโอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 คุณสามารถ:

  • ปรับแต่ง บนข้อมูลเฉพาะโดเมนของคุณ
  • ปรับแต่ง สำหรับงานหรืออุตสาหกรรมเฉพาะ
  • แก้ไข สถาปัตยกรรมหากจำเป็น
  • สร้างอนุพันธ์ สำหรับแอปพลิเคชันเฉพาะ

เฟรมเวิร์กการปรับแต่งยอดนิยมที่ใช้งานได้กับ Chinda:

  • Unsloth - เร็วและประหยัดหน่วยความจำ
  • LoRA/QLoRA - การปรับแต่งแบบประหยัดพารามิเตอร์
  • Hugging Face Transformers - การปรับแต่งแบบเต็มรูปแบบ
  • Axolotl - การกำหนดค่าการฝึกอบรมขั้นสูง

ต้องการความช่วยเหลือเกี่ยวกับการปรับแต่ง? ติดต่อทีมงานของเราได้ที่ sale@iapp.co.th

🌍 Chinda LLM 4B รองรับภาษาใดบ้าง?

ภาษาหลัก:

  • ภาษาไทย - ความเข้าใจและการสร้างภาษาในระดับเจ้าของภาษา (ความแม่นยำ 98.4%)
  • ภาษาอังกฤษ - ประสิทธิภาพที่แข็งแกร่งในทุกการทดสอบ

ภาษาเพิ่มเติม:

  • รองรับมากกว่า 100 ภาษา (สืบทอดมาจากฐาน Qwen3-4B)
  • เน้นการปรับให้เหมาะสมสำหรับงานสองภาษา ไทย-อังกฤษ
  • การสร้างโค้ดในหลายภาษาโปรแกรม

คุณสมบัติพิเศษ:

  • การสลับภาษา ระหว่างไทยและอังกฤษ
  • การแปล ระหว่างไทยและภาษาอื่นๆ
  • ความสามารถในการให้เหตุผลแบบหลายภาษา
🔍 ข้อมูลการฝึกอบรมเปิดเผยต่อสาธารณะหรือไม่?

น้ำหนักของโมเดลเป็นโอเพนซอร์ส แต่ชุดข้อมูลการฝึกอบรมเฉพาะไม่ได้เปิดเผยต่อสาธารณะ อย่างไรก็ตาม:

  • โมเดลพื้นฐาน: สร้างขึ้นบน Qwen3-4B (ฐานโอเพนซอร์สของอาลีบาบา)
  • การปรับแต่งภาษาไทย: การจัดทำชุดข้อมูลแบบกำหนดเองสำหรับงานภาษาไทย
  • เน้นคุณภาพ: เนื้อหาภาษาไทยคุณภาพสูงที่คัดสรรมาอย่างดี
  • ปฏิบัติตามนโยบายความเป็นส่วนตัว: ไม่มีข้อมูลส่วนบุคคลหรือข้อมูลที่ละเอียดอ่อน

สำหรับการวิจัยร่วมกันหรือสอบถามเกี่ยวกับชุดข้อมูล ติดต่อทีมวิจัยของเรา

🆘 ฉันจะได้รับการสนับสนุนหรือรายงานปัญหาได้อย่างไร?

สำหรับปัญหาทางเทคนิค:

  • GitHub Issues: รายงานข้อบกพร่องและปัญหาทางเทคนิค
  • Hugging Face: คำถามและการอภิปรายเฉพาะโมเดล
  • เอกสารประกอบ: ตรวจสอบคู่มือฉบับสมบูรณ์ของเรา

สำหรับการสนับสนุนเชิงพาณิชย์:

  • อีเมล: sale@iapp.co.th
  • การสนับสนุนองค์กร: การฝึกอบรมแบบกำหนดเอง การช่วยเหลือในการใช้งาน
  • การให้คำปรึกษา: บริการการผสานรวมและการเพิ่มประสิทธิภาพ

การสนับสนุนชุมชน:

  • ชุมชน AI ไทย: เข้าร่วมการอภิปรายเกี่ยวกับการพัฒนา AI ภาษาไทย
  • ฟอรัมนักพัฒนา: เชื่อมต่อกับผู้ใช้ Chinda รายอื่น
📥 ขนาดการดาวน์โหลดโมเดลมีขนาดเท่าใดและอยู่ในรูปแบบใด?

ข้อมูลจำเพาะของโมเดล:

  • พารามิเตอร์: 4.02 พันล้าน (4B)
  • ขนาดการดาวน์โหลด: ~8GB (บีบอัด)
  • รูปแบบ: Safetensors (แนะนำ) และ PyTorch
  • ความแม่นยำ: BF16 (Brain Float 16)

ตัวเลือกการดาวน์โหลด:

  • Hugging Face Hub: huggingface.co/iapp/chinda-qwen3-4b
  • Git LFS: สำหรับการผสานรวมการควบคุมเวอร์ชัน
  • การดาวน์โหลดโดยตรง: ไฟล์โมเดลแต่ละไฟล์
  • เวอร์ชันแบบ Quantized: พร้อมใช้งานเพื่อลดการใช้หน่วยความจำ (GGUF, AWQ)

ตัวเลือกการ Quantization:

  • 4-bit (GGUF): ~2.5GB, ใช้งานได้กับ VRAM 4GB
  • 8-bit: ~4GB, สมดุลระหว่างประสิทธิภาพ/หน่วยความจำ
  • 16-bit (ดั้งเดิม): ~8GB, ประสิทธิภาพเต็มรูปแบบ

📚 การอ้างอิง

หากคุณใช้ Chinda LLM 4B ในงานวิจัยหรือโครงการของคุณ โปรดอ้างอิง:

@misc{chinda-llm-4b,
title={Chinda LLM 4B: โมเดลภาษา AI อธิปไตยของไทย},
author={ไอแอพพ์เทคโนโลยี},
year={2025},
publisher={Hugging Face},
url={https://huggingface.co/iapp/chinda-qwen3-4b}
}

สร้างด้วย 🇹🇭 โดย ไอแอพพ์เทคโนโลยี - ยกระดับธุรกิจไทยด้วยความเป็นเลิศด้าน AI อธิปไตย

Powered by iApp Technology

Powered by iApp Technology

ข้อจำกัดความรับผิดชอบ: การตอบสนองที่ให้ไว้ไม่ได้รับประกัน