ZtoApi 文档

目录

概述

这是一个为Z.ai GLM-4.5模型提供OpenAI兼容API接口的代理服务器。它允许你使用标准的OpenAI API格式与Z.ai的GLM-4.5模型进行交互,支持流式和非流式响应。

基础URL: 你的Worker URL,例如 https://your-worker.your-account.workers.dev/v1

注意: 请将示例中的 http://localhost:9090 替换为你的Cloudflare Worker部署地址。

身份验证

所有API请求都需要在请求头中包含有效的API密钥进行身份验证:

Authorization: Bearer your-api-key

默认的API密钥为 sk-your-key,可以通过环境变量 DEFAULT_KEY 进行修改。

API端点

获取模型列表

GET /v1/models

获取可用模型列表。

请求参数

{ "object": "list", "data": [ { "id": "GLM-4.5", "object": "model", "created": 1756788845, "owned_by": "z.ai" }, { "id": "GLM-4.5V", "object": "model", "created": 1756788845, "owned_by": "z.ai" } ] }

聊天完成

POST /v1/chat/completions

基于消息列表生成模型响应。支持流式和非流式两种模式。

请求体 (JSON)

参数名类型必需说明
modelstring要使用的模型ID,例如 "GLM-4.5" 或 "glm-4.5v"
messagesarray消息列表
streamboolean是否使用流式响应,默认为true (可通过环境变量 DEFAULT_STREAM 修改)

使用示例

Python示例 (使用 OpenAI SDK)

import openai client = openai.OpenAI( api_key="sk-your-key", # 对应环境变量 DEFAULT_KEY base_url="https://your-worker.your-account.workers.dev/v1" ) # 非流式请求 response = client.chat.completions.create( model="GLM-4.5", messages=[{"role": "user", "content": "你好"}], stream=False ) print(response.choices[0].message.content) # 流式请求 stream = client.chat.completions.create( model="GLM-4.5", messages=[{"role": "user", "content": "写一首关于宇宙的诗"}], stream=True ) for chunk in stream: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.content, end="")

cURL示例

# 流式请求 curl https://your-worker.your-account.workers.dev/v1/chat/completions -H "Content-Type: application/json" -H "Authorization: Bearer sk-your-key" -d '{ "model": "GLM-4.5", "messages": [{"role": "user", "content": "你好"}], "stream": true }'

错误处理

API使用标准HTTP状态码来表示请求的成功或失败:

状态码说明
200 OK请求成功
400 Bad Request请求格式错误或参数无效
401 UnauthorizedAPI密钥无效或缺失
502 Bad Gateway上游服务错误