跳转到内容

添加自定义模型

当你希望 OpAgent 使用自己的模型服务、公司网关或 OpenAI-compatible endpoint,而不是只使用 OpAgent 托管模型时,就可以添加自定义模型。

常见场景:

  • 你已经有 OpenAI、Anthropic、Gemini 或兼容服务的账号;
  • 团队内部有统一模型网关;
  • 你希望为成本、速度或隐私原因使用单独模型。

点击标题栏左上角 OpAgent logo 打开应用菜单,然后选择 Models

如果还没有登录,先登录。OpAgent 需要通过模型目录来选择 model ID 和能力信息。

  1. 刷新模型列表

    如果 OpAgent 模型列表为空或不是最新,先点击 refresh。

  2. 选择 provider target

    选择 New provider 创建新的 endpoint,或选择已有 provider,在它下面继续添加模型。

  3. 填写 Provider name

    使用容易识别的名称,比如 OpenAICompany GatewayLocal Proxy

  4. 选择 Model

    从 OpAgent 模型目录中选择 model ID。这个 ID 应该和你的 endpoint 实际提供的模型对应。

  5. 选择 API protocol

    根据 endpoint 支持的协议选择:

    • OpenAI Completions:用于 /chat/completions 兼容接口;
    • OpenAI Responses:用于 /responses 兼容接口;
    • Anthropic Messages:用于 Anthropic 原生 Messages 接口;
    • Gemini Native:用于 Google Gemini 原生接口。
  6. 填写 Base URL 和 API key

    输入服务商提供的 base URL 和 API key。

  7. 点击 Add model

    添加后确认模型处于 enabled 状态。

添加模型后,在模型行点击 Set default。默认模型会在对话或 Agent 没有指定模型时使用。

你也可以在单个对话面板里临时切换到其他模型。

根据服务商要求填写:

  • OpenAI-compatible:https://api.openai.com/v1
  • Anthropic native:https://api.anthropic.com/v1
  • Gemini native:https://generativelanguage.googleapis.com
  • 公司网关:填写团队提供的 base URL

如果请求失败,优先检查 API protocol 和 Base URL 是否匹配。例如 OpenAI-compatible proxy 通常应该选择 OpenAI CompletionsOpenAI Responses,而不是 Anthropic Messages

  • 聊天里看不到模型:确认模型已经 enabled。
  • 自动补全里不能选择这个模型:确认模型已经 enabled。
  • 请求立刻失败:检查 API key 和 Base URL。
  • 服务商返回协议错误:换一个 API protocol。
  • 看不到 model ID 列表:先登录并刷新 OpAgent 模型目录。