核心 API/模型查询

列出可用模型,并在接入前确认稳定的 model ID。

模型查询(Models)

该接口用于查询当前可用模型列表。

  • 方法:GET
  • 路径:/v1/models
  • 完整地址:https://api.unigateway.ai/v1/models

cURL

curl https://api.unigateway.ai/v1/models \
  -H "Authorization: Bearer $UNIGATEWAY_API_KEY"

常见响应结构

{
  "object": "list",
  "data": [
    { "id": "gpt-5.2", "object": "model" },
    { "id": "claude-sonnet-4-6", "object": "model" },
    { "id": "gemini-3-pro-preview", "object": "model" }
  ]
}

返回格式说明

GET /v1/models 默认返回主流 SDK 常用的列表结构。 特定兼容请求头会触发 Anthropic/Gemini 风格返回。 如果没有明确需求,建议统一使用默认列表结构。

该响应应该重点关注什么

  • id:实际可用于请求的精确模型 ID。
  • 账号内可用性:以实时返回为准,不要依赖外部截图或过期示例。
  • 能力判断:有些环境会暴露更多元数据,但最稳妥的集成锚点仍然是精确 id

按场景选型

请先读取实时模型列表,再按工作负载选择精确模型 ID。

场景优先模型家族原因操作建议
通用对话与 AgentGPT / Claude 类模型指令跟随和工具调用更稳优先选择非预览、较稳定的 ID
均衡型生产流量GPT / Claude / Gemini 中档模型更容易跨家族回退请求体先保持保守兼容
低延迟交互账号内更快的模型变体交互体感更好全量切流前先验证质量
多语言生成GPT / Claude / Gemini 通用模型语言覆盖更广切换家族后回归提示词效果
向量或重排实时列表中的专用模型与聊天接口契约不同上线前确认端点支持
视频生成独立的视频调用面使用任务型厂商接口不要假设与 /v1/chat/completions 共用模型

选型流程

  1. 先读取 GET /v1/models
  2. 按工作负载整理候选模型:聊天、向量、多模态或厂商专用任务。
  3. 对每个候选模型做一次真实请求验证。
  4. 选定主模型,再准备 1 到 2 个回退模型。
  5. 在短周期缓存或发版边界重新校验模型可用性。

选型建议

  • 启动时或短周期缓存拉取模型列表。
  • 按业务场景固定模型 ID。
  • 配置跨模型家族 fallback 提升稳定性。

示例 fallback 链路:

  1. gpt-5.2
  2. claude-sonnet-4-6
  3. gemini-3-pro-preview

集成注意事项

  • 模型可用性是动态的。
  • 不要只靠模型名推断能力,关键链路要做真实请求验证。
  • 不同家族对参数支持存在差异。
  • 切换模型家族后要回归关键链路。

Example request

Run it in your stack

Pick the SDK style that matches your app and copy the snippet directly into your project.

from openai import OpenAI

client = OpenAI(
    api_key="<YOUR_UNIGATEWAY_API_KEY>",
    base_url="https://api.unigateway.ai/v1",
)

models = client.models.list()
for item in models.data:
    print(item.id)