LobeChat 接入
如果你在 LobeChat 中走 OpenAI 兼容 provider,可以把 UniGateway 作为后端接入。
需要配置的内容
LobeChat 的 provider 配置支持覆盖 OpenAI 请求的基础地址。
- Provider:OpenAI 兼容路径
- API key:你的 UniGateway key
- Base URL / proxy URL:
https://api.unigateway.ai/v1 - 模型列表:使用
GET /v1/models返回的精确模型 ID
推荐配置顺序
- 先在 LobeChat 中配置 OpenAI provider。
- 覆盖 provider 的 base URL,让请求打到 UniGateway,而不是默认 OpenAI 端点。
- 先只启用
GET /v1/models里一个稳定模型。 - 先验证普通聊天,再逐步放开更多模型和高级能力。
配置说明
| 项目 | 建议 |
|---|---|
| Base URL 后缀 | 确认当前部署是否要求在代理地址中显式带上 /v1 |
| 模型展示 | UI 里显示的模型列表要和 UniGateway 实时目录保持一致 |
| 共享部署 | staging 和 production 使用不同 key |
| 高级能力 | tools、files、多模态路线都要独立验证,不要混在普通聊天里默认通过 |
常见失败场景
| 问题 | 处理方式 |
|---|---|
| 聊天界面正常但输出为空 | 先检查代理/base URL,尤其是 /v1 后缀是否正确 |
| 看不到模型 | 检查 API key,并直接确认 GET /v1/models 可用 |
| 某个模型可用,另一个不可用 | 模型可用性和账号相关,不要当成全局固定能力 |
| 有些 OpenAI 风格功能不稳定 | 每类端点单独验证,不要假设全部能力天然等价 |