跳到主要内容

DeepSeek V4

DeepSeek Logo由 DeepSeek AI 驱动 — 单端点支持 Flash 与 Pro 两个版本
按 Token 计费 — 双层定价

deepseek-v4-flash — 输入: 0.01 IC / 1K tokens · 输出: 0.02 IC / 1K tokens (~10 / 20 泰铢/1M)

deepseek-v4-pro — 输入: 0.20 IC / 1K tokens · 输出: 0.40 IC / 1K tokens (~200 / 400 泰铢/1M)

v4 已上线 POST /v3/llm/deepseek-v4/chat/completions

欢迎使用 iApp DeepSeek V4 API。一个与 OpenAI 兼容的端点同时提供两个模型层级:Flash 用于快速、日常的任务,价格与 V3.2 相同;Pro 用于最难的推理、编码与 agent 任务。每次请求通过 model 字段选择层级,因此可以在生产环境中混合使用。

选择层级

层级模型名称适用场景价格(每 1K tokens 输入 / 输出)
Flashdeepseek-v4-flash聊天、RAG、分类、起草、日常中泰英问答0.01 / 0.02 IC
Prodeepseek-v4-pro复杂推理、多步 agent、IMO/IOI 级数学与编码0.20 / 0.40 IC

Pro 大约是 Flash 的 20 倍价格。建议默认使用 Flash,只在确实需要更深层思考的请求时升级到 Pro。

试用 Demo

试用 AI 演示

登录或创建免费账户来使用此 AI 服务演示并探索我们强大的 API。

注册即可获得 100 积分 (IC) 免费赠送!

优惠截止至 2025 年 12 月 31 日

DeepSeek V4 聊天

Start a conversation with the AI assistant

Type your message below and press Enter or click Send

概述

DeepSeek V4 是 DeepSeek 开源 LLM 系列的下一代,延续了 V3.2 中引入的稀疏注意力与强化学习成果,并增加了更强的推理层。两个模型层级共用一个端点:

  • Flash 针对延迟与成本进行优化,可作为 V3.2 chat 的直接升级。
  • Pro 针对难题准确度优化 — 多步数学、agent 工具使用、大规模代码重构。

主要特性

  • 双层、单端点: 每个请求通过 model 字段选择层级,无需更改代码。
  • OpenAI 兼容: 请求/响应格式相同 — 可直接替换 OpenAI 客户端。
  • 流式支持: 实时 token 流式响应,提升用户体验。
  • 长上下文: 支持长文档。
  • 泰语优先: 在英语和中文之外为泰语提供一流支持。

开始使用

  1. 前置条件

    • iApp Technology 的 API key
    • 充足的 IC 余额(Pro 请求约为 Flash 的 20 倍 — 请相应充值)
  2. 快速开始

    • 单一 REST 端点,OpenAI 兼容格式
    • 同时支持流式和非流式
  3. 速率限制

    • 每秒 5 个请求
    • 每分钟 200 个请求
如何获取 API Key?

访问 API Key 管理 查看现有 API key 或申请新的 key。

此端点只接受 deepseek-v4-flashdeepseek-v4-pro

model 字段中传入其他值会返回 HTTP 400。这可以保护您不会因输入错误而调用更昂贵的模型。

API 端点

端点方法描述费用
/v3/llm/deepseek-v4/chat/completionsPOSTV4 双层 chat completions(流式 & 非流式)按所选模型计费

可用模型

模型描述
deepseek-v4-flash快速、低成本日常层级(推荐默认)
deepseek-v4-pro适合最难问题的高级推理层级

代码示例

cURL — Flash(非流式)

curl -X POST 'https://api.iapp.co.th/v3/llm/deepseek-v4/chat/completions' \
-H 'apikey: YOUR_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"model": "deepseek-v4-flash",
"messages": [
{"role": "user", "content": "你好,你能帮我什么?"}
],
"max_tokens": 4096,
"temperature": 0.7,
"top_p": 0.9
}'

cURL — Pro(流式)

curl -X POST 'https://api.iapp.co.th/v3/llm/deepseek-v4/chat/completions' \
-H 'apikey: YOUR_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"model": "deepseek-v4-pro",
"messages": [
{"role": "user", "content": "证明两个奇数之和为偶数。"}
],
"max_tokens": 4096,
"temperature": 0.0,
"top_p": 0.9,
"stream": true
}'

Python

import requests

url = "https://api.iapp.co.th/v3/llm/deepseek-v4/chat/completions"

payload = {
"model": "deepseek-v4-flash", # 难题用 "deepseek-v4-pro"
"messages": [
{"role": "user", "content": "你好,你能帮我什么?"}
],
"max_tokens": 4096,
"temperature": 0.7,
"top_p": 0.9,
}

headers = {
"apikey": "YOUR_API_KEY",
"Content-Type": "application/json",
}

response = requests.post(url, headers=headers, json=payload)
print(response.json())

JavaScript / Node.js

const axios = require('axios');

const url = 'https://api.iapp.co.th/v3/llm/deepseek-v4/chat/completions';

const payload = {
model: 'deepseek-v4-flash', // 或 'deepseek-v4-pro'
messages: [
{ role: 'user', content: '你好,你能帮我什么?' }
],
max_tokens: 4096,
temperature: 0.7,
top_p: 0.9,
};

const config = {
headers: {
apikey: 'YOUR_API_KEY',
'Content-Type': 'application/json',
},
};

axios.post(url, payload, config)
.then(response => console.log(response.data.choices[0].message.content))
.catch(error => console.error(error.response?.data || error.message));

价格

层级模型端点IC 费用
Flashdeepseek-v4-flash/v3/llm/deepseek-v4/chat/completions

输入: 0.01 IC / 1K tokens (~10 泰铢/1M)
输出: 0.02 IC / 1K tokens (~20 泰铢/1M)

Prodeepseek-v4-pro/v3/llm/deepseek-v4/chat/completions

输入: 0.20 IC / 1K tokens (~200 泰铢/1M)
输出: 0.40 IC / 1K tokens (~400 泰铢/1M)

如需 DeepSeek V4 本地部署,请联系我们

应用场景

  • Flash: chatbot、泰语文档 RAG、分类与抽取、客服
  • Pro: 多步 agent、代码重构、数学推理、评估打分

支持

支持与咨询: