Skip to main content

DeepSeek V4 ใหม่

DeepSeek Logoขับเคลื่อนโดย DeepSeek AI — Flash & Pro บนปลายทางเดียว
ราคาตามโทเค็น — สองระดับ

deepseek-v4-flash — Input: 0.01 IC / 1K โทเค็น · Output: 0.02 IC / 1K โทเค็น (~10 / 20 บาท/1M)

deepseek-v4-pro — Input: 0.20 IC / 1K โทเค็น · Output: 0.40 IC / 1K โทเค็น (~200 / 400 บาท/1M)

v4 พร้อมใช้งาน POST /v3/llm/deepseek-v4/chat/completions

ยินดีต้อนรับสู่ iApp DeepSeek V4 API — ปลายทางเดียวที่เข้ากันได้กับ OpenAI พร้อมโมเดลสองระดับ: Flash สำหรับงานทั่วไปที่รวดเร็วในราคาเดียวกับ V3.2 และ Pro สำหรับการใช้เหตุผลขั้นสูงสุด งานเขียนโค้ดที่ซับซ้อน และระบบ agent คุณเลือกระดับได้ในแต่ละ request ผ่านฟิลด์ model จึงสามารถผสมใช้งานในระบบ production ได้

เลือกระดับการใช้งาน

ระดับชื่อโมเดลเหมาะกับราคา (input / output ต่อ 1K โทเค็น)
Flashdeepseek-v4-flashแชท, RAG, จำแนกข้อความ, ร่างข้อความ, Q&A ภาษาไทย/อังกฤษทั่วไป0.01 / 0.02 IC
Prodeepseek-v4-proการให้เหตุผลขั้นสูง, agent หลายขั้นตอน, คณิตศาสตร์/โค้ดดิ้งระดับ IMO/IOI0.20 / 0.40 IC

Pro แพงกว่า Flash ประมาณ 20 เท่า แนะนำให้ใช้ Flash เป็นค่าเริ่มต้น และยกระดับไปใช้ Pro เฉพาะกรณีที่ต้องการความสามารถในการคิดที่ลึกขึ้นจริง ๆ

ลองใช้งานเดโม

ทดลองใช้ AI Demo

เข้าสู่ระบบหรือสร้างบัญชีฟรีเพื่อใช้งาน AI Demo และสำรวจ API ที่ทรงพลังของเรา

รับ 50 เครดิตฟรี (IC) เมื่อสมัครสมาชิก!

โปรโมชันหมดเขต 31 ธันวาคม 2568

DeepSeek V4 แชท

Start a conversation with the AI assistant

Type your message below and press Enter or click Send

ภาพรวม

DeepSeek V4 คือรุ่นถัดไปของตระกูล LLM โอเพนซอร์สจาก DeepSeek ต่อยอดจาก sparse-attention และ reinforcement learning ที่เปิดตัวใน V3.2 พร้อมเพิ่มระดับการให้เหตุผลที่ทรงพลังยิ่งขึ้น โมเดลทั้งสองระดับใช้ปลายทางเดียวกัน:

  • Flash ปรับแต่งเพื่อความเร็วและต้นทุนต่ำ เหมาะที่จะใช้แทน V3.2 ได้ทันที
  • Pro ปรับแต่งเพื่อความแม่นยำในปัญหายาก — คณิตศาสตร์หลายขั้นตอน, agent ที่ใช้เครื่องมือ, การ refactor โค้ดขนาดใหญ่

คุณสมบัติหลัก

  • สองระดับ ปลายทางเดียว: เลือกระดับต่อ request ผ่านฟิลด์ model ไม่ต้องแก้โค้ด
  • เข้ากันได้กับ OpenAI: รูปแบบ request/response เหมือนกัน — ใช้แทน client OpenAI ได้ทันที
  • รองรับ streaming: ส่งโทเค็นแบบ real-time
  • บริบทยาว: รองรับเอกสารยาวได้ดี
  • เน้นภาษาไทย: รองรับภาษาไทยเป็นอันดับแรก ควบคู่กับภาษาอังกฤษและจีน

เริ่มต้นใช้งาน

  1. ข้อกำหนดเบื้องต้น

    • API key จาก iApp Technology
    • มี IC คงเหลือเพียงพอ (request แบบ Pro มีราคาประมาณ 20 เท่าของ Flash โปรดเติมเครดิตให้เหมาะสม)
  2. เริ่มต้นอย่างรวดเร็ว

    • ปลายทาง REST เดียว, รูปแบบเข้ากันได้กับ OpenAI
    • รองรับทั้ง streaming และ non-streaming
  3. Rate Limits

    • 5 requests ต่อวินาที
    • 200 requests ต่อนาที
วิธีรับ API Key

เข้าไปที่ การจัดการ API Key เพื่อดู API key ที่มีอยู่หรือขอใหม่

ปลายทางนี้รับเฉพาะ deepseek-v4-flash และ deepseek-v4-pro เท่านั้น

หากส่งค่าอื่นในฟิลด์ model ระบบจะตอบกลับ HTTP 400 ทันที เพื่อป้องกันการเรียกโมเดลที่แพงกว่าโดยไม่ตั้งใจ

API Endpoints

EndpointMethodคำอธิบายราคา
/v3/llm/deepseek-v4/chat/completionsPOSTChat completions ทั้งสองระดับ (streaming & non-streaming)ตามราคาของแต่ละโมเดล

โมเดลที่รองรับ

Modelคำอธิบาย
deepseek-v4-flashระดับใช้งานทั่วไป รวดเร็ว ราคาต่ำ (แนะนำเป็นค่าเริ่มต้น)
deepseek-v4-proระดับพรีเมียมสำหรับปัญหาที่ยากที่สุด

ตัวอย่างโค้ด

cURL — Flash (non-streaming)

curl -X POST 'https://api.iapp.co.th/v3/llm/deepseek-v4/chat/completions' \
-H 'apikey: YOUR_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"model": "deepseek-v4-flash",
"messages": [
{"role": "user", "content": "สวัสดีครับ คุณช่วยอะไรได้บ้าง?"}
],
"max_tokens": 4096,
"temperature": 0.7,
"top_p": 0.9
}'

cURL — Pro (streaming)

curl -X POST 'https://api.iapp.co.th/v3/llm/deepseek-v4/chat/completions' \
-H 'apikey: YOUR_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"model": "deepseek-v4-pro",
"messages": [
{"role": "user", "content": "พิสูจน์ว่าผลรวมของจำนวนคี่สองจำนวนเป็นจำนวนคู่"}
],
"max_tokens": 4096,
"temperature": 0.0,
"top_p": 0.9,
"stream": true
}'

Python

import requests

url = "https://api.iapp.co.th/v3/llm/deepseek-v4/chat/completions"

payload = {
"model": "deepseek-v4-flash", # ใช้ "deepseek-v4-pro" สำหรับงานยาก
"messages": [
{"role": "user", "content": "สวัสดีครับ คุณช่วยอะไรได้บ้าง?"}
],
"max_tokens": 4096,
"temperature": 0.7,
"top_p": 0.9,
}

headers = {
"apikey": "YOUR_API_KEY",
"Content-Type": "application/json",
}

response = requests.post(url, headers=headers, json=payload)
print(response.json())

JavaScript / Node.js

const axios = require('axios');

const url = 'https://api.iapp.co.th/v3/llm/deepseek-v4/chat/completions';

const payload = {
model: 'deepseek-v4-flash', // หรือ 'deepseek-v4-pro'
messages: [
{ role: 'user', content: 'สวัสดีครับ คุณช่วยอะไรได้บ้าง?' }
],
max_tokens: 4096,
temperature: 0.7,
top_p: 0.9,
};

const config = {
headers: {
apikey: 'YOUR_API_KEY',
'Content-Type': 'application/json',
},
};

axios.post(url, payload, config)
.then(response => console.log(response.data.choices[0].message.content))
.catch(error => console.error(error.response?.data || error.message));

ราคา

ระดับโมเดลEndpointค่า IC
Flashdeepseek-v4-flash/v3/llm/deepseek-v4/chat/completions

Input: 0.01 IC / 1K โทเค็น (~10 บาท/1M)
Output: 0.02 IC / 1K โทเค็น (~20 บาท/1M)

Prodeepseek-v4-pro/v3/llm/deepseek-v4/chat/completions

Input: 0.20 IC / 1K โทเค็น (~200 บาท/1M)
Output: 0.40 IC / 1K โทเค็น (~400 บาท/1M)

สำหรับการใช้งานแบบ on-premise โปรดติดต่อเรา

การใช้งานที่แนะนำ

  • Flash: chatbot, RAG เอกสารภาษาไทย, จำแนก/สกัดข้อมูล, customer service
  • Pro: agent หลายขั้นตอน, การ refactor โค้ด, การให้เหตุผลทางคณิตศาสตร์, การประเมินผล

การสนับสนุน

สำหรับการสนับสนุนและคำถาม: