跳转到主要内容

概述

Zeus 支持灵活的模型配置,用户可以使用自有 API Key 接入任意 OpenAI 兼容模型,也可以使用 Zeus 预置模型。

配置来源

模型配置按以下优先级选择:用户自定义配置 > 请求参数 > 系统默认配置。

Zeus 预置模型

Zeus 内置三个预置模型层级,每个对应特定的供应商和模型:
预置实际模型供应商最大 Tokens层级
zeus-1.5kimi-k2.5Moonshot262,144标准
zeus-1.5-proclaude-opus-4-5-20251101UnifyLLM200,000专业
zeus-1.5-litegemini-2.5-proUnifyLLM1,048,576轻量
用户在界面中选择预置层级,系统自动路由到对应的供应商和模型。使用预置模型时无需配置 API Key。

LLMManager

LLM 模型管理器负责创建模型实例。_init_model() 接收前端传递的 LLM 配置(包含 Base URL、API Key、模型名、温度等参数),创建 ChatOpenAI 实例。 首先检查是否存在用户自定义模型配置(包含自有 API Key 和 Base URL),如果没有则检查 Zeus 预置模型选择,路由到对应的供应商。最终回退到系统默认配置。支持任何 OpenAI 兼容 API(OpenAI、Anthropic via proxy、本地模型等)。

Model Profiles

系统内置 200+ 模型的上下文窗口配置,用于 SummarizationMiddleware 的触发阈值计算:
模型max_input_tokens摘要触发 (85%)
gpt-4o128,000108,800
claude-3.5-sonnet200,000170,000
gpt-4-turbo128,000108,800
默认64,00054,400
当模型不在预定义列表中时,使用默认配置。