让企业 5 分钟拥有自己的 AI 大模型,数据不出内网。
- 🔧 一键安装,自动检测环境(GPU/CPU/内存)
- 🖥️ 自带 Web 聊天界面,开箱即用
- 🔒 完全私有化,数据不出服务器
- 📡 兼容 OpenAI API 格式,无缝对接现有应用
- 🐳 支持 Docker 和原生两种部署方式
- 📊 内置监控面板,实时查看资源占用
| 模型 | 参数量 | 最低显存 | 推荐场景 |
|---|---|---|---|
| DeepSeek-R1-1.5B | 1.5B | 2GB | 轻量对话、测试 |
| DeepSeek-R1-7B | 7B | 6GB | 日常办公、客服 |
| DeepSeek-R1-14B | 14B | 12GB | 专业写作、编程 |
| DeepSeek-R1-32B | 32B | 24GB | 企业级应用 |
| DeepSeek-R1-70B | 70B | 48GB | 高端推理 |
| DeepSeek-V3 | 671B | 多卡/集群 | 旗舰级 |
curl -fsSL https://raw.githubusercontent.com/LingLin6/deepseek-deploy/main/install.sh | bashgit clone https://github.com/LingLin6/deepseek-deploy.git
cd deepseek-deploy
chmod +x install.sh
./install.sh安装完成后访问 http://localhost:3000 即可使用。
# 安装部署
./install.sh
# 启动服务
./deepseek.sh start
# 停止服务
./deepseek.sh stop
# 查看状态
./deepseek.sh status
# 切换模型
./deepseek.sh model deepseek-r1-14b
# 查看日志
./deepseek.sh logs部署完成后,兼容 OpenAI API 格式:
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="not-needed"
)
response = client.chat.completions.create(
model="deepseek-r1",
messages=[{"role": "user", "content": "你好"}]
)
print(response.choices[0].message.content)参见 集成指南
- 操作系统:Ubuntu 20.04+ / CentOS 7+ / Windows WSL2
- 内存:最低 8GB(推荐 16GB+)
- 硬盘:最低 20GB 可用空间
- GPU(可选):NVIDIA GPU + CUDA 11.8+(大幅提升速度)
- 网络:安装时需要联网,运行时可离线
┌─────────────────────────────────────┐
│ Web 聊天界面 │
│ (localhost:3000) │
├─────────────────────────────────────┤
│ API 网关 (兼容 OpenAI) │
│ (localhost:8000) │
├─────────────────────────────────────┤
│ Ollama 推理引擎 │
│ (localhost:11434) │
├─────────────────────────────────────┤
│ DeepSeek 模型 (本地存储) │
└─────────────────────────────────────┘
需要更专业的部署方案?我们提供:
- 🔧 远程一对一部署支持
- 📚 企业知识库搭建(RAG)
- 🤖 智能客服系统定制
- 🔗 与现有系统集成(OA/ERP/CRM)
- 📊 多模型管理与负载均衡
👉 联系我们:微信客服
MIT License - 免费使用,商用无限制。
如果这个项目帮到了你,请给个 Star ⭐ 支持一下!