连接问题¶
这页只处理一类问题:
为什么连不上模型服务。
如果你的问题不是“连不通”,而是页面、按钮、数据状态异常,去看 故障排除。
先判断你在哪个环境里使用¶
| 使用方式 | 适合连接什么 | 最常见限制 |
|---|---|---|
| 在线站 / Web 版 | 公开 HTTPS API | CORS、Mixed Content |
| 本机自部署 Web | 公开 HTTPS API、本机 HTTP 接口 | 仍可能受 CORS 影响 |
| 桌面版 | 本地模型、内网 API、自定义网关 | 主要是模型配置和网络本身问题 |
| Chrome 插件 | 轻量浏览器入口 | 仍然是浏览器环境 |
最常见的 4 类原因¶
1. API Key 本身有问题¶
表现:
401invalid api keyauthentication failed
先检查:
- Key 有没有多余空格
- 账户有没有额度
- 你填的是不是对应 provider 的 Key
2. 模型名或 Base URL 写错¶
表现:
404model not found- 测试连接能过,但执行时报错
先检查:
- Base URL 是否已经带
/v1 - 模型名是否和服务端实际暴露的一致
- 自定义接口是否兼容 OpenAI 风格
3. 浏览器跨域限制¶
表现:
- 浏览器控制台出现 CORS 报错
Network Error- 请求根本没到模型服务
这类问题在 Web / 在线版最常见。
4. HTTPS 页面访问 HTTP 本地接口¶
表现:
- 浏览器控制台出现 Mixed Content
- 在线站无法连接
http://localhost:...
这是因为浏览器默认不允许 HTTPS 页面访问不安全的 HTTP 接口。
本地模型怎么连更稳¶
Ollama¶
常见配置:
提供商:Ollama
Base URL:http://localhost:11434/v1
模型:qwen2.5:7b
API Key:通常可留空
如果你已经在用内置 Ollama provider,就不需要再为了本地模型额外走 Custom。
只有在这些情况下,才更适合继续用 Custom:
- 你的接口不是标准 Ollama
- 你前面还有一层 OpenAI 兼容网关
- 你想手动控制特殊 Base URL 或额外参数
LM Studio¶
常见配置:
提供商:Custom
Base URL:http://localhost:1234/v1
模型:填写 LM Studio 当前模型名
API Key:任意非空字符串
结论¶
如果你主要用本地模型,优先选 桌面版。
自定义 / 企业接口怎么连¶
如果你的接口是下面这些情况之一:
- 企业内网地址
- 自签名证书
- 需要公司代理
- 限制浏览器跨域
推荐顺序:
- 桌面版
- 你自己的网关或中转层
- 本机 / 局域网自部署 Web
当前公开版本没有“内置代理开关”可以直接帮你绕过这些限制。
一张快速判断表¶
| 你的目标 | 推荐方案 |
|---|---|
| 连接 OpenAI / Gemini 这类公开 HTTPS API | 在线站或 Web 版 |
| 连接 Ollama / LM Studio | 桌面版 |
| 连接公司内网模型网关 | 桌面版优先 |
| 连接自建 OpenAI 兼容服务 | 桌面版或你自己的网关 |
最实用的排查顺序¶
- 先点 测试连接
- 再核对 Base URL 和模型名
- 查看浏览器控制台或桌面日志
- 判断是不是浏览器限制
- 决定要不要换成桌面版
什么时候不要继续卡在这页¶
如果你已经能连上模型,但问题变成:
- 页面空白
- 按钮不可用
- 工作区状态不对
- 历史或设置像丢了一样
那就不再是连接问题了,去看 故障排除。