Chat Completions API
最常用的对话接口,兼容 OpenAI SDK。
基本请求
发送一个标准的对话请求。
curl
curl https://api.fastai.run/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o",
"messages": [
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "用一句话介绍 Fast AI"}
]
}'流式输出
设置 stream: true 可以逐 token 接收响应,适用于实时打字效果。网关内部始终使用流式与上游通信,无论客户端是否设置 stream: true,均可正常工作。
curl (stream)
curl https://api.fastai.run/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o",
"stream": true,
"messages": [
{"role": "user", "content": "讲一个笑话"}
]
}'SDK 示例
使用主流编程语言的 OpenAI SDK 接入 Fast AI。
1
Python
使用 openai Python SDK。
Python
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.fastai.run/v1",
)
# 非流式请求
response = client.chat.completions.create(
model="claude-sonnet-4-20250514",
messages=[
{"role": "user", "content": "你好!"}
],
)
print(response.choices[0].message.content)
# 流式请求
stream = client.chat.completions.create(
model="claude-sonnet-4-20250514",
messages=[
{"role": "user", "content": "写一首关于代码的短诗"}
],
stream=True,
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")2
Node.js
使用 openai Node.js SDK。
Node.js
import OpenAI from 'openai'
const client = new OpenAI({
apiKey: 'YOUR_API_KEY',
baseURL: 'https://api.fastai.run/v1',
})
const response = await client.chat.completions.create({
model: 'gpt-4o',
messages: [
{ role: 'user', content: '你好!' }
],
})
console.log(response.choices[0].message.content)可用模型
通过 /models 接口查看你当前套餐可以使用的模型。
提示
模型列表根据你的套餐权益动态返回。升级套餐后可使用更多模型。
curl
curl https://api.fastai.run/v1/models \
-H "Authorization: Bearer YOUR_API_KEY"