通过兼容 OpenAI 的界面,为你提供了广泛的 AI 功能——聊天完成、图像生成、音频、视频、嵌入等。所有端点都接受JSON并返回JSON,所以你可以集成任何能发出HTTP请求的语言或框架。
基础网址
大多数请求使用主端点
https://aiapi.xiaoliu.fun/v1
每个请求都必须在头部包含你的API密钥:Authorization
Authorization: Bearer sk-your-api-key-here
切勿在客户端代码或公共仓库中暴露你的 API 密钥。把它存储在环境变量里,运行时读取。
请求与响应格式
把所有请求主体都以 JSON 形式发送,并带有头部。响应也是 JSON。这里有一个简短的例子:Content-Type: application/json
curl https://api.qhaigc.net/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-your-api-key-here" \
-d '{
"model": "gpt-4o",
"messages": [{"role": "user", "content": "Hello"}]
}'
成功的应对方式如下:
{
"id": "chatcmpl-123",
"object": "chat.completion",
"created": 1677652288,
"model": "gpt-4o",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "Hello! How can I help you today?"
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 9,
"completion_tokens": 12,
"total_tokens": 21
}
}
流媒体
大多数文本生成终端支持服务器发送事件(SSE)流。在您的请求体中设置,在代币生成时接收:"stream": true
import openai
client = openai.OpenAI(
api_key="sk-your-api-key-here",
base_url="https://api.qhaigc.net/v1"
)
stream = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "Tell me a story"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
错误代码
该 API 使用标准的 HTTP 状态码。当请求失败时,响应体包含一个带有人类可读消息的对象:error
{
"error": {
"message": "Invalid API key provided",
"type": "invalid_request_error",
"code": "invalid_api_key"
}
}
| 状态代码 | 含义 |
|---|
200 | 成功——请求正常完成 |
400 | 糟糕的请求——检查你的请求参数 |
401 | 认证失败——您的API密钥无效或缺失 |
429 | 超出费率限制——放慢速度或升级您的套餐 |
500 | 服务器错误——短暂延迟后再次尝试 |
速率限制
Qhaigc 根据你的账户等级执行三个维度的速率限制:
- RPM — 每分钟请求
- RPD — 每日请求
- TPM — 每分钟代币数
具体的限额取决于你的账户等级。如果需要更高的限额,请联系客服。
SDK 设置
Qhaigc 与 OpenAI SDK 完全兼容。安装它并指向 Qhaigc 端点:base_url
from openai import OpenAI
client = OpenAI(
api_key="sk-your-api-key-here",
base_url="https://aiapi.xiaoliu.fun/v1"
)
你也可以在 LangChain、LlamaIndex 和 Dify 中使用 Qhaigc 作为 AI 提供者——在每个工具的设置中配置兼容 OpenAI 的基础 URL。
最佳实践
当你收到 or 错误时,请等待再重试。每次尝试的等待时间加倍,以避免重击 API:429500import time
from openai import OpenAI
client = OpenAI(
api_key="sk-your-api-key-here",
base_url="https://api.qhaigc.net/v1"
)
def call_with_retry(max_retries=3):
for attempt in range(max_retries):
try:
return client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "Hello"}]
)
except Exception as e:
if attempt == max_retries - 1:
raise
time.sleep(2 ** attempt)
一定要指定限制输出长度。无界发电可能消耗远超预期的代币,并增加账单:max_tokensclient.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "Summarize this article"}],
max_tokens=512
)
对于回复较长,启用流式传输功能,让用户能在内容到达时看到,而不是等待完整回复。使用并迭代这些区块。stream=True
如果你的应用程序反复发送相同的提示——例如固定系统提示——考虑在你这边缓存响应,以避免重复的API调用。
API 分类
聊天
使用OpenAl、Claude或Gemini风格的请求格式,使用大型语言模型生成文本。
图片
使用qh-draw-x2-preview、DALL-E3和NanoBanana2等模型,从文本提示创建和编辑图像。
音频与配音
将文本转换为自然语音,将音频转录为文本,并克隆自定义语音模型。
视频与音乐
用Sora生成视频,并用AI作曲模型创作音乐曲目。
嵌入
将文本转换为向量嵌入,并重新排序RAG管道的搜索结果。
实用工具API
列出可用型号,检查账户余额,管理API密钥使用。