控制台

Chat Completions API

最常用的对话接口,兼容 OpenAI SDK。

基本请求

发送一个标准的对话请求。

curl
curl https://api.fastai.run/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [
      {"role": "system", "content": "你是一个有帮助的助手。"},
      {"role": "user", "content": "用一句话介绍 Fast AI"}
    ]
  }'

流式输出

设置 stream: true 可以逐 token 接收响应,适用于实时打字效果。网关内部始终使用流式与上游通信,无论客户端是否设置 stream: true,均可正常工作。

curl (stream)
curl https://api.fastai.run/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "stream": true,
    "messages": [
      {"role": "user", "content": "讲一个笑话"}
    ]
  }'

SDK 示例

使用主流编程语言的 OpenAI SDK 接入 Fast AI。

1
Python
使用 openai Python SDK。
Python
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://api.fastai.run/v1",
)

# 非流式请求
response = client.chat.completions.create(
    model="claude-sonnet-4-20250514",
    messages=[
        {"role": "user", "content": "你好!"}
    ],
)
print(response.choices[0].message.content)

# 流式请求
stream = client.chat.completions.create(
    model="claude-sonnet-4-20250514",
    messages=[
        {"role": "user", "content": "写一首关于代码的短诗"}
    ],
    stream=True,
)
for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")
2
Node.js
使用 openai Node.js SDK。
Node.js
import OpenAI from 'openai'

const client = new OpenAI({
  apiKey: 'YOUR_API_KEY',
  baseURL: 'https://api.fastai.run/v1',
})

const response = await client.chat.completions.create({
  model: 'gpt-4o',
  messages: [
    { role: 'user', content: '你好!' }
  ],
})
console.log(response.choices[0].message.content)

可用模型

通过 /models 接口查看你当前套餐可以使用的模型。

提示
模型列表根据你的套餐权益动态返回。升级套餐后可使用更多模型。
curl
curl https://api.fastai.run/v1/models \
  -H "Authorization: Bearer YOUR_API_KEY"