使用 Chinda LLM 4B 和 OpenWebUI - 完整用户指南
🎯 简介
Chinda LLM 4B 是由 iApp Technology 团队开发的开源泰语语言模型,它能够使用最新的 Qwen3-4B 架构以高精度进行泰语思考和响应。
OpenWebUI 是一个美观、用 户友好的 Ollama 的 Web 界面,为本地 AI 模型提供类似 ChatGPT 的体验。它提供了一个直观的聊天界面,具有对话历史、模型管理和可自定义设置等功能。

OpenWebUI 的最新版本(v0.6.13)包含令人兴奋的新功能,例如 Azure OpenAI 嵌入支持、更智能的自定义参数处理、通用的后端重构以及对多种语言的本地化改进。
🚀 第 1 步:安装 Docker
安装 Docker
如果您没有安装 Docker:
- Windows/Mac: 从 https://www.docker.com/products/docker-desktop 下载
- Linux: 遵循您发行版的 Docker 安装指南
GPU 支持设置(可选但推荐)
对于 NVIDIA GPU:
安装 NVIDIA Container Toolkit 以启用 GPU 加速:
Ubuntu/Debian:
# 添加 NVIDIA 包仓库
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
# 安装 nvidia-container-toolkit
sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker
对于其他 Linux 发行版、macOS 或 Windows: 遵循 NVIDIA Container Toolkit 安装指南
📱 第 2 步:运行集成 Ollama 的 OpenWebUI
方法 1:OpenWebUI 与内置 Ollama (推荐)
此方法在单个容器设置中运行 OpenWebUI 和 Ollama:
对于没有 GPU 的系统:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
对于有 NVIDIA GPU 的系统:
docker run -d -p 3000:8080 --gpus all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
方法 2:使用 Docker Compose (高级)
创建一个 docker-compose.yml 文件:
version: '3.8'
services:
open-webui:
image: ghcr.io/open-webui/open-webui:ollama
container_name: open-webui
ports:
- "3000:8080"
volumes:
- ollama:/root/.ollama
- open-webui:/app/backend/data
restart: always
# 取消注释下面的行以支持 GPU
# deploy:
# resources:
# reservations:
# devices:
# - driver: nvidia
# count: all
# capabilities: [gpu]
volumes:
ollama:
open-webui:
运行:
docker-compose up -d
访问 OpenWebUI
- 打开您的网页浏览器
- 前往
http://localhost:3000 - 您应该会看到 OpenWebUI 的欢迎屏幕

🔍 第 3 步:下载 Chinda LLM 4B 模型
使用 OpenWebUI 界面 (推荐)
OpenWebUI 运行后,您可以直接通过 Web 界面下载 Chinda LLM 4B 模型:
- 打开浏览器并前往
http://localhost:3000 - 完成初始设置(创建账户)
- 在模型搜索框中键入
iapp/chinda-qwen3-4b来搜索模型

- 点击 从 Ollama.com 拉取 "iapp/chinda-qwen3-4b"
- 等待下载完成(大约 2.5GB)

- 模型下载完成后,您会收到成功通知

使用 Docker Exec (替代方案)
您也可以使用 Docker exec 下载模型:
# 下载 Chinda LLM 4B 模型
docker exec -it open-webui ollama pull iapp/chinda-qwen3-4b
# 验证模型是否已下载
docker exec -it open-webui ollama list
🔍 第 4 步:初始设置
创建您的账户
- 首次访问时,您会看到一个 注册 表单
- 输入您偏好的电子邮件和密码
- 点击 创建账户

- 您将自动登录
注意: 这是一个仅用于您电脑的本地账户 - 没有任何数据发送到外部服务器。
⚙️ 第 5 步:使用 Chinda LLM 4B
选择模型
- 在聊天界面中,查看顶部的 模型 下拉菜单
- 从列表中选择
chinda-qwen3-4b:latest - 如果您没有看到它,请确保您已按照上述步骤下载了模型

开始您的第一次对话
- 在聊天框中输入您的泰语消息
- 按 Enter 键或点击发送按钮
- Chinda LLM 将用泰语回复

对话示例:
如上面的截图所示,Chinda LLM 自然地用泰语回复,并介绍自己是由 iApp Technology Co., Ltd. 开发的 AI 助手。该模型展示了它理解上下文并在泰语中提供深思熟虑的响应的能力。
数学问题:
您:ช่วยแก้สมการ 3x + 7 = 22 ให้หน่อย
Chinda:ผมจะช่วยแก้สมการ 3x + 7 = 22 ให้คุณครับ
ขั้นตอนการแก้:
1) 3x + 7 = 22
2) 3x = 22 - 7
3) 3x = 15
4) x = 15 ÷ 3
5) x = 5
ดังนั้น x = 5 ครับ
文档写作:
您:ช่วยเขียนอีเมลขอบคุณลูกค้าให้หน่อย
Chinda:ผมจะช่วยเขียนอีเมลขอบคุณลูกค้าให้คุณครับ
เรื่อง: ขอบพระคุณสำหรับการใช้บริการ
เรียน คุณลูกค้าที่เคารพ,
ทางบริษัทฯ ขอขอบพระคุณอย่างสูงสำหรับการให้ความไว้วางใจและใช้บริการของเรา...
🎨 第 6 步:高级功能
对话管理
创建新聊天:
- 点击 + 按钮开始新的对话
- 每个对话都会单独保存
- 您可以随时在对话之间切换
重命名对话:
- 点击对话标题
- 输入新名称以整理您的聊天记录
导出对话:
- 点击对话设置(三个点)
- 选择 导出 以 JSON 或 Markdown 格式保存