-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy pathconfig.yaml.example
More file actions
56 lines (51 loc) · 4.37 KB
/
config.yaml.example
File metadata and controls
56 lines (51 loc) · 4.37 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
# 配置文件,更改配置文件需重启后端以使更改生效
# 管理员账户邮箱地址
# ===============================================================
# 确保这是一个格式合法的邮箱地址,否则可能无法登录
admin_email: "admin@example.com"
# JWT 配置
# ===============================================================
# 用于生成和验证 JWT 的密钥,必须更改以确保安全,建议使用长度至少为32字节的随机字符串
jwt_secret: "your-secret-key-change-in-production"
# JWT 签名算法,默认使用 HS256,如无特殊需求请勿更改
jwt_algorithm: "HS256"
# Access Token 有效时间(以分钟为单位,默认值30,不建议设置超过1440分钟的有效时间,以控制安全风险)
jwt_expire_minutes: 30
# Refresh Token 有效时间(以天为单位,推荐设置为7-90天,默认值30)
refresh_token_expire_days: 30
# BYOK 安全配置
# ===============================================================
# 用户注册开关(默认为false,改为true开启),开启后用户注册时必须提供一个有效的邀请码,邀请码由管理员/授信用户创建和管理
registration_enabled: false
# 用于AES-256-GCM加密用户apikey的32字节长度加密密钥,用于加密存储用户的 API Key,必须更改以确保安全
# 对大小写、空格、符号和其他特殊字符敏感,超长则截断处理,短于32字节将影响安全性
# 妥善保管此密钥,切勿泄露,否则无法确保用户 API Key 的静态安全;同时,密钥丢失将导致无法解密用户 API Key,因此请务必备份和安全存储此密钥
api_key_encryption_key: "your-api-key-encryption-key-change-in-production"
# LLM API Configuration 服务器主配置(阿里云百炼平台),仅对管理员用户生效
# ===============================================================
# 出于稳定性、安全性和成本考虑,系统[不会]验证此处的配置,必须确保api key有效且端点正确,未能正确配置时,管理员将无法使用对话功能,其他BYOK用户不受影响,他们可以使用自己的API Key进行对话
# API Key: 从环境变量 DASHSCOPE_API_KEY 读取,如果不存在则使用此处的配置
dashscope_api_key: "sk-xxx"
# Base URL: 阿里云百炼OpenAI Chat API 兼容模式 Endpoint
dashscope_base_url: "https://dashscope.aliyuncs.com/compatible-mode/v1"
# LLM 模型配置,全局默认配置,适用于所有用户,包括对话、历史摘要和标题生成
# ===============================================================
# 默认主 LLM 模型,未设置时默认值为 "qwen3.5-plus",必须确保配置一个./dynamic_config/models.json中存在的模型ID,否则将导致错误,可能无法进行对话
# 应使用支持思考模式开关的千问系列模型,否则思考模式将无法使用,建议使用内置web_search工具的模型(如 qwen3-max 或 qwen3.5-plus)以获得更好的体验
main_llm_model: "qwen3.5-plus"
# 默认辅助 LLM 模型(轻量模型),用于对话摘要和标题生成,未设置时默认值为 "qwen3.5-flash"
# 必须使用正确的模型id,否则将无法生成标题或进行摘要
# 应当使用千问系列支持结构化输出的轻量级模型,否则摘要或标题生成可能无法正确解析
lite_llm_model: "qwen3.5-flash"
# 对话历史滚动摘要配置
# ===============================================================
# 当 history_recent 超过此轮数时,开始对队头对话进行摘要,建议设置为一个合理的值(如 6-12 ),以平衡上下文精度和成本,默认值为 6
# 高于 10 的设置可能会极大增加每次对话的token消耗并延长首token响应时间
max_recent_rounds: 6
# 当 history_recent 超过此轮数时,强制出队(直接存储全量对话,不再等待摘要),建议设置为一个合理的值(如 16-22),以防止队列积压导致性能问题,默认值为 16
# 不要设置低于max_recent_rounds的值,否则会导致摘要逻辑失效
force_dequeue_rounds: 16
# 摘要请求超时时间(秒),默认值为 60 秒,根据实际情况调整,过短可能导致摘要失败,过长可能导致网络资源占用,建议设置为 60-120 秒
compress_timeout: 60
# 摘要请求最大重试次数,默认值为 2,根据实际情况调整,过高或过低都可能影响成本、性能和成功率,建议设置为 2-4 次
compress_max_retries: 2