跳转至

模型管理

这页先解决一个最实际的问题:

第一次使用,到底要先配什么,才能把 Prompt Optimizer 真正跑起来。

如果你还在走第一次上手流程,建议和 快速开始 一起看。

入口就在右上角 模型管理

Note

第一次使用,先不要同时配很多模型。先配 1 个能跑通的文本模型,比一开始堆很多 provider 更重要。

第一次使用,只做这 3 步

  1. 先新增 1 个文本模型
  2. 先在一个文本工作区里跑通 优化 / 测试 / 评估
  3. 跑通后,再决定要不要补第 2 个文本模型或图像模型

大多数新用户一开始并不需要配很多模型。

最低可用配置

你的目标 最低配置
只想开始用文本工作区 1 个文本模型
想做结果对比 2 个文本模型
想用图像工作区 1 个文本模型 + 1 个图像模型

先这样理解就够了

第一层:文本模型 vs 图像模型

  • 文本模型:负责左侧分析、优化、迭代,也负责文本工作区右侧测试和评估
  • 图像模型:只负责图像工作区右侧真正生成图片

第二层:左侧模型 vs 右侧模型

在文本工作区里,模型通常分成两类用途:

  • 左侧优化模型:用来分析、优化、迭代提示词
  • 右侧测试 / 评估模型:用来真实执行提示词、生成结果并参与评估

这两者可以相同,也可以不同。

第一次使用怎么配

情况 A:你只是想先把产品用起来

先配 1 个文本模型即可。

这 1 个模型就能先用来:

  • 左侧分析 / 优化
  • 右侧测试
  • 右侧结果评估
  • 右侧对比评估

情况 B:你已经想开始做结果对比

建议配 2 个文本模型:

  • 1 个主模型
  • 1 个对照模型

这样右侧做多列测试时,你更容易看出差异来自提示词,还是来自模型本身。

情况 C:你要进入图像工作区

至少配:

  • 1 个文本模型
  • 1 个图像模型

原因很简单:

  • 左侧分析和优化图像提示词时,仍然依赖文本模型
  • 右侧真正生成图片时,才使用图像模型

新手最推荐的配置顺序

第 1 步:先加一个文本模型

优先选择你最容易连通、最熟悉的 provider。

第 2 步:先把连接测通

新增后,先做一次 测试连接

第 3 步:回到任意文本工作区跑一次

建议先选:

只要能跑通一次:

  • 左侧优化
  • 右侧测试
  • 右侧评估

就说明你的最小配置已经成立。

第 4 步:再补第二个模型

只有当你已经要做结果对比,或者要进入图像工作区时,再继续加模型。

最常见的 3 种接法

1. 公开模型平台

例如 OpenAI、Gemini、DeepSeek、SiliconFlow。

你通常只需要:

  1. 选择 provider
  2. 填 API Key
  3. 选模型
  4. 测试连接

2. Ollama

如果你本机跑的是 Ollama,优先直接选择内置的 Ollama provider。

特点:

  • 默认地址是 http://localhost:11434/v1
  • 通常不强制要求 API Key
  • 模型列表可以跟随本地已安装模型刷新

3. Custom

如果你的服务兼容 OpenAI Chat Completions 或类似接口,可以走 Custom

典型场景:

  • LM Studio
  • 企业内网网关
  • 自建 OpenAI 兼容服务
  • 需要手动指定特殊 Base URL 或附加参数

示例:

提供商:Custom
Base URL:https://your-api.example.com/v1
模型:your-model-name
API Key:按你的服务要求填写

如果连接失败,再看部署与连接环境

Web / 在线站

浏览器会直接向模型服务发请求,所以你会遇到:

  • CORS
  • HTTPS 页面访问 HTTP 本地接口的 Mixed Content

桌面版

更适合:

  • Ollama
  • LM Studio
  • 局域网或内网接口
  • 需要长期稳定连接自定义网关的场景

Docker

Docker 更像“把 Web 页面和 MCP 一起打包部署”。

它适合自托管,但前端页面本身依然是浏览器访问模型服务,所以:

  • 浏览器限制不会凭空消失
  • 如果要让容器访问宿主机模型服务,需要额外处理 host.docker.internal 一类地址

对应文档:

当前支持哪些文本 provider

当前代码内置支持这些文本 provider:

  • OpenAI
  • Gemini
  • Anthropic
  • DeepSeek
  • SiliconFlow
  • 智谱 AI
  • DashScope
  • OpenRouter
  • ModelScope
  • MiniMax
  • Ollama
  • Custom(任意 OpenAI 兼容接口)

当前模型管理器能做什么

除了基本的新增、编辑、删除之外,当前模型管理器还支持:

  • 测试连接
  • 克隆配置
  • 刷新模型列表
  • 配置高级参数
  • 部分 provider 的 API Key 外链入口

图像模型管理器则主要支持:

  • 新增、编辑、克隆、删除
  • 启用 / 禁用
  • 测试连接
  • 测试图预览
  • provider / model / 能力标签展示

一套更稳的测试策略

如果你不确定该怎么配右侧测试模型,先按这个原则来:

比版本差异

固定模型,只比较:

  • 原始
  • 工作区
  • v1 / v2 / vN

比模型差异

固定提示词版本,只比较:

  • 不同文本模型
  • 或不同图像模型

这样你更容易判断,差异到底来自提示词,还是来自模型本身。

更完整的说明见 模型选择与测试策略

怎么判断自己已经“配好了”

满足下面这 3 条,就可以先不再折腾模型配置:

  1. 至少有 1 个文本模型能测试连接成功
  2. 你能在一个文本工作区里跑出真实结果
  3. 你能继续做一次结果评估或对比评估

配置保存在哪里

  • Web / 在线站:保存在当前浏览器本地
  • 桌面版:保存在本机应用目录
  • 扩展版:保存在扩展自己的本地存储空间

如果你要备份或迁移,优先使用 数据管理

常见问题

“测试连接”通过了,为什么运行时还失败

最常见的原因仍然是:

  • 请求额度不足
  • 模型名写错
  • 浏览器版被 CORS / Mixed Content 拦截
  • 左侧优化模型和右侧测试模型不是同一个

我是不是一开始就要配很多模型

不用。大多数情况下:

  • 文本工作区先配 1 个文本模型就能开始
  • 需要做结果对比时再补第 2 个文本模型
  • 进入图像工作区时再加图像模型

为什么我明明配了模型,还是跑不起来

优先检查这几件事:

  1. 连接测试有没有真的成功
  2. 选的模型是不是文本模型
  3. 当前是不是浏览器环境下访问本地 HTTP 接口
  4. 当前工作区是否还需要图像模型或额外输入

Note

图像工作区是双模型结构。左侧分析和优化图像提示词时,仍然使用文本模型;右侧真正出图时,使用图像模型。

相关页面