跳到主要内容

DeepSeek-V3.2

DeepSeek Logo由 DeepSeek AI 提供支持
按 Token 计价
输入:0.01 IC / 1K tokens (约 10 泰铢/1M, 约 $0.30/1M)输出:0.02 IC / 1K tokens (约 20 泰铢/1M, 约 $0.60/1M)
v3.2 已上线 POST /v3/llm/deepseek-3p2/chat/completions

欢迎使用 iApp DeepSeek-V3.2 API,由最新的 DeepSeek-V3.2 模型提供支持。此 API 提供对最先进的开源大语言模型之一的访问,具有卓越的推理能力、与 GPT-4 和 Claude Sonnet 相当的性能,以及完全兼容 OpenAI 的接口。

基准测试结果

DeepSeek-V3.2 在多个基准测试中表现出色:

DeepSeek-V3.2 基准测试结果

核心性能亮点

  • 685B 参数:具有最先进能力的大规模模型
  • 128K 上下文长度:支持长文档的扩展上下文窗口
  • 推理模式:使用 deepseek-reasoner 模型内置链式思维推理
  • 兼容 OpenAI:可直接替代 OpenAI API
  • 金牌级表现:在国际数学奥林匹克(IMO)和国际信息学奥林匹克(IOI)中达到金牌水平

试用演示

DeepSeek-V3.2 聊天

Start a conversation with the AI assistant

Type your message below and press Enter or click Send

概述

DeepSeek-V3.2 代表了一种先进的以推理为中心的模型,旨在将高计算效率与卓越的推理和代理性能相协调。它引入了三项核心创新:

  1. DeepSeek Sparse Attention (DSA):一种高效的注意力机制,在保持扩展上下文性能的同时降低计算复杂度
  2. 可扩展强化学习框架:用于增强推理能力的后训练方法
  3. 代理任务合成管道:将推理能力集成到工具使用场景中

主要功能

  • 高级推理:内置思考模式,提供明确的推理过程
  • 兼容 OpenAI:遵循 OpenAI API 格式,便于集成
  • 流式支持:实时 token 流式传输,适用于响应式应用
  • 128K 上下文:支持最多 128,000 tokens 的上下文长度
  • 泰语和英语:支持泰语和英语
  • 性价比高:企业级 AI 的竞争性定价

快速开始

  1. 前提条件

    • iApp Technology 的 API key
    • 互联网连接
  2. 快速入门

    • 简单的 REST API 接口
    • 兼容 OpenAI 格式
    • 支持流式和非流式
  3. 速率限制

    • 每秒 5 个请求
    • 每分钟 200 个请求
如何获取 API Key?

请访问 API Key 管理 页面查看现有的 API key 或申请新的。

API 端点

端点方法描述费用
/v3/llm/deepseek-3p2/chat/completionsPOSTChat completions(流式和非流式)0.01 IC/1K 输入 + 0.02 IC/1K 输出

可用模型

模型描述
deepseek-reasoner带有明确推理的思考模式(推荐)
deepseek-chat无思考模式,响应更快

代码示例

cURL - 非流式

curl -X POST 'https://api.iapp.co.th/v3/llm/deepseek-3p2/chat/completions' \
-H 'apikey: YOUR_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"model": "deepseek-reasoner",
"messages": [
{"role": "user", "content": "你好,你能帮我什么?"}
],
"max_tokens": 4096,
"temperature": 0.7,
"top_p": 0.9
}'

cURL - 流式

curl -X POST 'https://api.iapp.co.th/v3/llm/deepseek-3p2/chat/completions' \
-H 'apikey: YOUR_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"model": "deepseek-reasoner",
"messages": [
{"role": "user", "content": "你好,你能帮我什么?"}
],
"max_tokens": 4096,
"temperature": 0.7,
"top_p": 0.9,
"stream": true
}'

响应示例(带推理的非流式)

使用 deepseek-reasoner 时,响应包含 reasoning_content 字段,显示模型的思考过程:

{
"id": "233c1fa8-e6ea-4b4f-86b5-2bbccb39fd9e",
"object": "chat.completion",
"created": 1764635256,
"model": "deepseek-reasoner",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!我可以帮助你很多事情。",
"reasoning_content": "用户用"你好"问候我。这是一个基本的问候,我应该友好地回应并提供帮助..."
},
"logprobs": null,
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 12,
"completion_tokens": 109,
"total_tokens": 121
}
}

Python

import requests
import json

url = "https://api.iapp.co.th/v3/llm/deepseek-3p2/chat/completions"

payload = {
"model": "deepseek-reasoner",
"messages": [
{"role": "user", "content": "你好,你能帮我什么?"}
],
"max_tokens": 4096,
"temperature": 0.7,
"top_p": 0.9
}

headers = {
'apikey': 'YOUR_API_KEY',
'Content-Type': 'application/json'
}

response = requests.post(url, headers=headers, json=payload)
print(response.json())

JavaScript / Node.js

const axios = require('axios');

const url = 'https://api.iapp.co.th/v3/llm/deepseek-3p2/chat/completions';

const payload = {
model: 'deepseek-reasoner',
messages: [
{ role: 'user', content: '你好,你能帮我什么?' }
],
max_tokens: 4096,
temperature: 0.7,
top_p: 0.9
};

const config = {
headers: {
'apikey': 'YOUR_API_KEY',
'Content-Type': 'application/json'
}
};

axios.post(url, payload, config)
.then(response => {
console.log(response.data.choices[0].message.content);
})
.catch(error => {
console.error(error);
});

API 参考

请求头

参数类型必需描述
apikeyString您的 API key
Content-TypeStringapplication/json

请求体参数

参数类型必需描述
modelString模型名称:deepseek-reasonerdeepseek-chat
messagesArray包含 rolecontent 的消息对象数组
max_tokensInteger生成的最大 tokens(默认:4096,最大:128000)
streamBoolean启用流式响应(默认:false)
temperatureFloat采样温度 0-2(默认:0.7)
top_pFloat核采样(默认:0.9)

消息对象

字段类型描述
roleStringsystemuserassistant
contentString消息内容

响应字段

字段类型描述
contentString生成的响应
reasoning_contentString(仅限 deepseek-reasoner)推理过程

推荐的温度设置

用例温度
编程 / 数学0.0
数据分析1.0
一般对话1.3
翻译1.3
创意写作1.5

模型信息

属性
模型名称deepseek-reasoner / deepseek-chat
基础模型DeepSeek-V3.2
参数685B
上下文长度128,000 tokens
支持语言泰语、英语、中文等
许可证MIT

应用场景

  • 高级推理:复杂问题解决、数学证明、逻辑推导
  • 编程辅助:代码生成、调试、代码解释
  • 内容生成:多语言文章、报告、创意写作
  • 翻译:泰语、英语和其他语言之间的高质量翻译
  • 问答系统:具有推理能力的智能问答
  • 数据分析:数据解读和洞察生成

定价

AI API 服务名称端点IC 费用本地部署
DeepSeek-V3.2 [v3.2]/v3/llm/deepseek-3p2/chat/completions

输入:0.01 IC / 1K tokens(约 10 泰铢/1M,约 $0.30/1M)
输出:0.02 IC / 1K tokens(约 20 泰铢/1M,约 $0.60/1M)

联系我们

支持

如需支持和咨询: