DeepChat是一个功能丰富的开源AI聊天平台,支持多种云端和本地大语言模型,提供强大的搜索增强和工具调用能力。
DeepChat是一个功能强大的开源AI聊天平台,为用户提供与多种大语言模型交互的统一界面。无论是云端API如OpenAI、Gemini、Anthropic,还是本地部署的Ollama模型,DeepChat都能提供流畅的用户体验。
作为一个跨平台的AI助手应用,DeepChat不仅支持基础的聊天功能,还提供了搜索增强、工具调用、多模态交互等高级特性,让AI能力的应用更加便捷和高效。
|
|
与其他AI工具相比,DeepChat具有以下独特优势:
- 多模型统一管理:一个应用支持几乎所有主流LLM,无需在多个应用间切换
- 本地模型无缝集成:内置Ollama支持,无需命令行操作即可管理和使用本地模型
- 高级工具调用:内置MCP支持,无需额外配置即可使用代码执行、网络访问等工具
- 强大的搜索增强:支持多种搜索引擎,让AI回答更加准确和及时,提供了非标网页搜索范式,可以快速定制
- 注重隐私保护:本地数据存储,支持网络代理,减少信息泄露风险
- 开源友好:基于 Apache License 2.0 协议,适合商业和个人使用
- 🌐 多种云端LLM提供商支持:DeepSeek、OpenAI、Silicon Flow、Grok、Gemini、Anthropic等
- 🏠 本地模型部署支持:
- 集成Ollama,提供全面的管理功能
- 无需命令行操作即可控制和管理Ollama模型的下载、部署和运行
- 🚀 丰富易用的聊天功能
- 完整的Markdown渲染,代码块渲染基于业界顶级的 CodeMirror 实现
- 多窗口+多Tab架构,各个维度支持多会话并行运行,就像使用浏览器一样使用大模型,无阻塞的体验带来了优异的效率
- 支持 Artifacts 渲染,多样化结果展示,MCP集成后显著节省token消耗
- 消息支持重试生成多个变体;对话可自由分支,确保总有合适的思路
- 支持渲染图像、Mermaid图表等多模态内容;支持GPT-4o,Gemini,Grok的文本到图像功能
- 支持在内容中高亮显示搜索结果等外部信息源
- 🔍 强大的搜索扩展能力
- 通过MCP模式内置集成博查搜索、Brave Search等 领先搜索API,让模型智能决定何时搜索
- 通过模拟用户网页浏览,支持Google、Bing、百度、搜狗公众号搜索等主流搜索引擎,使LLM能像人类一样阅读搜索引擎
- 支持读取任何搜索引擎;只需配置搜索助手模型,即可连接各种搜索源,无论是内部网络、无API的引擎,还是垂直领域搜索引擎,作为模型的信息源
- 🔧 出色的MCP(Model Context Protocol)支持
- 完整支持了 MCP 协议中 Resources/Prompts/Tools 三大核心能力
- 支持语义工作流,通过理解任务的意义和上下文,实现更复杂和智能的自动化
- 极其用户友好的配置界面
- 美观清晰的工具调用显示
- 详细的工具调用调试窗口,自动格式化工具参数和返回数据
- 内置 Node.js 运行环境;类似 npx/node 的服务无需额外配置开箱即用
- 支持 StreamableHTTP/SSE/Stdio 协议 Transports
- 支持 inMemory 服务,内置代码执行、网络信息获取、文件操作等实用工具;开箱即用,无需二次安装即可满足大多数常见用例
- 通过内置 MCP 服务,将视觉模型能力转换为任何模型都可通用的函数
- 💻 多平台支持:Windows、macOS、Linux
- 🎨 美观友好的界面,以用户为中心的设计,精心设计的明暗主题
- 🔗 丰富的DeepLink支持:通过链接发起对话,与其他应用无缝集成。还支持一键安装MCP服务,简单快速
- 🚑 安全优先设计:聊天数据和配置数据预留加密接口和代码混淆能力
- 🛡️ 隐私保护:支持屏幕投影隐藏、网络代理等隐私保护方法,降低信息泄露风险
- 💰 商业友好:
- 拥抱开源,基于 Apache License 2.0 协议,企业使用安心无忧
- 企业集成只需要修改极少配置代码即可使用预留的加密混淆的安全能力
- 代码结构清晰,无论是模型供应商还是 MCP 服务都高度解耦,可以随意进行增删定制,成本极低
- 架构合理,数据交互和UI行为分离,充分利用 Electron 的能力,拒绝简单的网页套壳,性能优异
|
Ollama |
Deepseek |
Silicon |
DashScope |
|
Doubao |
MiniMax |
Fireworks |
PPIO |
|
OpenAI |
Gemini |
GitHub Models |
Moonshot |
|
OpenRouter |
Azure OpenAI |
Qiniu |
Grok |
|
智谱 |
LM Studio |
AIHubMix |
混元 |
DeepChat适用于多种AI应用场景:
- 日常助手:回答问题、提供建议、辅助写作和创作
- 开发辅助:代码生成、调试、技术问题解答
- 学习工具:概念解释、知识探索、学习辅导
- 内容创作:文案撰写、创意激发、内容优化
- 数据分析:数据解读、图表生成、报告撰写
从GitHub Releases页面下载适合您系统的最新版本:
- Windows:
.exe安装文件 - macOS:
.dmg安装文件 - Linux:
.AppImage或.deb安装文件
- 启动DeepChat应用
- 点击设置图标
- 选择"模型提供商"选项卡
- 添加您的API密钥或配置本地Ollama
- 点击"+"按钮创建新对话
- 选择您想使用的模型
- 开始与AI助手交流
请阅读贡献指南
Windows和Linux通过GitHub Action打包。 对于Mac相关的签名和打包,请参考Mac发布指南。
$ npm install
$ npm run installRuntime
# 如果出现错误:No module named 'distutils'
$ pip install setuptools
# 对于Windows x64
$ npm install --cpu=x64 --os=win32 sharp
# 对于Mac Apple Silicon
$ npm install --cpu=arm64 --os=darwin sharp
# 对于Mac Intel
$ npm install --cpu=x64 --os=darwin sharp
# 对于Linux x64
$ npm install --cpu=x64 --os=linux sharp$ npm run dev# Windows
$ npm run build:win
# macOS
$ npm run build:mac
# Linux
$ npm run build:linux
# 指定架构打包
$ npm run build:win:x64
$ npm run build:win:arm64
$ npm run build:mac:x64
$ npm run build:mac:arm64
$ npm run build:linux:x64
$ npm run build:linux:arm64DeepChat是一个活跃的开源社区项目,我们欢迎各种形式的贡献:
查看贡献指南了解更多参与项目的方式。
感谢您考虑为deepchat做出贡献!贡献指南可以在贡献指南中找到。

