跳到主要内容

Chinda 泰语大模型 4B

免费(至2025年12月31日)
Input: 0.00 IC / 1K tokens (~0.0 泰铢/1M, ~$0.00/1M)
Output: 0.00 IC / 1K tokens (~0.0 泰铢/1M, ~$0.00/1M)
v1.0 可用 POST /v3/llm/chinda-thaillm-4b/chat/completions

欢迎使用Chinda泰语大模型4B API,这是由iApp Technology与AIEAT(泰国人工智能工程协会)合作开发的开源泰语大语言模型。Chinda基于Qwen3 4B架构,专门针对泰语理解和生成进行了优化。

演示

与 Chinda Thai LLM 4B 对话

Start a conversation with the AI assistant

Type your message below and press Enter or click Send

概述

Chinda(จินดา)是泰国首个社区驱动的开源LLM,旨在提供强大的泰语AI能力。该模型支持流式和非流式推理的聊天补全功能。

主要特点

  • 泰语优化:专门针对泰语理解和生成进行微调
  • 开源:可通过API访问和本地部署
  • OpenAI兼容:遵循OpenAI API格式,易于集成
  • 流式支持:实时token流式传输,实现快速响应
  • 40K上下文:支持最多40,960个tokens的上下文长度
  • 免费访问:至2025年12月31日前免费

快速开始

  1. 前提条件

    • iApp Technology的API密钥
    • 互联网连接
  2. 快速开始

    • 简单的REST API接口
    • OpenAI兼容格式
    • 支持流式和非流式
  3. 速率限制

    • 每秒5个请求
    • 每分钟200个请求
如何获取API密钥?

请访问API密钥管理页面查看现有的API密钥或申请新的。

API端点

端点方法描述费用
/v3/llm/chinda-thaillm-4b/chat/completionsPOST聊天补全(流式和非流式)免费(0 IC)
/v3/llm/chinda-thaillm-4b/completionsPOST文本补全免费(0 IC)
/v3/llm/chinda-thaillm-4b/modelsGET列出可用模型免费(0 IC)

代码示例

cURL - 非流式

curl -X POST 'https://api.iapp.co.th/v3/llm/chinda-thaillm-4b/chat/completions' \
-H 'apikey: YOUR_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"model": "chinda-qwen3-4b",
"messages": [
{"role": "user", "content": "สวัสดีครับ คุณช่วยอะไรได้บ้าง?"}
],
"max_tokens": 4096
}'

cURL - 流式

curl -X POST 'https://api.iapp.co.th/v3/llm/chinda-thaillm-4b/chat/completions' \
-H 'apikey: YOUR_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"model": "chinda-qwen3-4b",
"messages": [
{"role": "user", "content": "อธิบายเกี่ยวกับ AI ให้หน่อย"}
],
"max_tokens": 4096,
"stream": true
}'

响应(非流式)

{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1700000000,
"model": "chinda-qwen3-4b",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "สวัสดีครับ! ผมเป็น Chinda ผู้ช่วย AI ภาษาไทย ผมสามารถช่วยคุณได้หลายอย่าง เช่น:\n\n1. ตอบคำถามทั่วไป\n2. ช่วยเขียนข้อความ\n3. อธิบายเรื่องต่างๆ\n4. แปลภาษา\n5. ช่วยคิดไอเดีย\n\nมีอะไรให้ช่วยไหมครับ?"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 15,
"completion_tokens": 89,
"total_tokens": 104
}
}

Python

import requests
import json

url = "https://api.iapp.co.th/v3/llm/chinda-thaillm-4b/chat/completions"

payload = {
"model": "chinda-qwen3-4b",
"messages": [
{"role": "user", "content": "สวัสดีครับ คุณช่วยอะไรได้บ้าง?"}
],
"max_tokens": 4096
}

headers = {
'apikey': 'YOUR_API_KEY',
'Content-Type': 'application/json'
}

response = requests.post(url, headers=headers, json=payload)
print(response.json())

Python - 流式

import requests
import json

url = "https://api.iapp.co.th/v3/llm/chinda-thaillm-4b/chat/completions"

payload = {
"model": "chinda-qwen3-4b",
"messages": [
{"role": "user", "content": "อธิบายเกี่ยวกับ AI"}
],
"max_tokens": 4096,
"stream": True
}

headers = {
'apikey': 'YOUR_API_KEY',
'Content-Type': 'application/json'
}

response = requests.post(url, headers=headers, json=payload, stream=True)

for line in response.iter_lines():
if line:
line = line.decode('utf-8')
if line.startswith('data: '):
data = line[6:]
if data != '[DONE]':
chunk = json.loads(data)
content = chunk['choices'][0]['delta'].get('content', '')
print(content, end='', flush=True)

JavaScript / Node.js

const axios = require('axios');

const url = 'https://api.iapp.co.th/v3/llm/chinda-thaillm-4b/chat/completions';

const payload = {
model: 'chinda-qwen3-4b',
messages: [
{ role: 'user', content: 'สวัสดีครับ คุณช่วยอะไรได้บ้าง?' }
],
max_tokens: 4096
};

const config = {
headers: {
'apikey': 'YOUR_API_KEY',
'Content-Type': 'application/json'
}
};

axios.post(url, payload, config)
.then(response => {
console.log(response.data.choices[0].message.content);
})
.catch(error => {
console.error(error);
});

PHP

<?php

$curl = curl_init();

$payload = json_encode([
'model' => 'chinda-qwen3-4b',
'messages' => [
['role' => 'user', 'content' => 'สวัสดีครับ คุณช่วยอะไรได้บ้าง?']
],
'max_tokens' => 4096
]);

curl_setopt_array($curl, [
CURLOPT_URL => 'https://api.iapp.co.th/v3/llm/chinda-thaillm-4b/chat/completions',
CURLOPT_RETURNTRANSFER => true,
CURLOPT_POST => true,
CURLOPT_POSTFIELDS => $payload,
CURLOPT_HTTPHEADER => [
'apikey: YOUR_API_KEY',
'Content-Type: application/json'
],
]);

$response = curl_exec($curl);
curl_close($curl);

$result = json_decode($response, true);
echo $result['choices'][0]['message']['content'];

API参考

请求头

参数类型必需描述
apikeyString您的API密钥
Content-TypeStringapplication/json

请求体参数

参数类型必需描述
modelString模型名称:chinda-qwen3-4b
messagesArray包含rolecontent的消息对象数组
max_tokensInteger生成的最大tokens数(默认:4096,最大:40960)
streamBoolean启用流式响应(默认:false)
temperatureFloat采样温度0-2(默认:0.7)
top_pFloat核采样(默认:0.9)

消息对象

字段类型描述
roleStringsystemuserassistant
contentString消息内容

模型信息

属性
模型名称chinda-qwen3-4b
基础模型Qwen3 4B
上下文长度40,960 tokens
语言泰语、英语
许可证开源

使用场景

  • 聊天机器人:构建会说泰语的AI对话助手
  • 内容生成:为文章、社交媒体和营销生成泰语内容
  • 翻译:泰语和英语之间的翻译
  • 问答系统:用泰语回答问题
  • 代码助手:帮助解答编程问题(带泰语解释)
  • 教育:泰语教学和解释

开源

Chinda也可作为开源模型本地运行:

本地运行Chinda的教程:

定价

AI API服务名称端点IC费用本地部署
Chinda泰语大模型4B [v1.0]/v3/llm/chinda-thaillm-4b/chat/completions

免费(至2025年12月31日)

Input: 0.00 IC / 1K tokens
Output: 0.00 IC / 1K tokens

联系我们

支持

如需支持和问题咨询: