跳转到主要内容
POST
/
v1
/
llm
/
generations
curl --request POST \
  --url https://api.foxapi.cc/v1/llm/generations \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "gpt-5.4",
  "messages": [
    {
      "role": "user",
      "content": "count 1 to 3"
    }
  ],
  "stream": false,
  "max_tokens": 32
}
'
{
  "id": "task-llm-1776874481-rj6bs3yb",
  "object": "llm.generation.task",
  "type": "llm",
  "model": "gpt-5.4",
  "status": "pending",
  "progress": 0,
  "created": 1776874481,
  "stream": null,
  "results": null,
  "error": null
}

Documentation Index

Fetch the complete documentation index at: https://docs.foxapi.cc/llms.txt

Use this file to discover all available pages before exploring further.

授权

Authorization
string
header
必填

所有接口均需要使用 Bearer Token 进行认证。在请求头中添加:

Authorization: Bearer YOUR_API_KEY

YOUR_API_KEY 为 API Token(sk-... 格式)。

请求体

application/json

messages[] 形态的请求体(OpenAI Chat 兼容)。除下列字段外,其他 OpenAI 兼容参数(temperaturetop_pstopfrequency_penalty 等)按 OpenAI Chat 规范使用。

model
enum<string>
必填

模型名,严格白名单,未列出的值返回 422 model_not_supported

特殊行为

模型备注
gpt-5.4max_tokens 传入时必须 ≥ 16
gpt-5.5max_tokens 传入时必须 ≥ 16
kimi-k2.6thinking 模型:SSE 正确透传 delta.reasoning_content,但 GET /v1/tasks/{task_id}results[0].message.content 不累积 reasoning_content
claude-opus-4-6 / claude-opus-4-7 / claude-sonnet-4-6max_tokens 必填
gemini-3-pro-preview / gemini-3.1-pro-preview
可用选项:
gpt-5.4,
gpt-5.5,
kimi-k2.6,
claude-opus-4-6,
claude-opus-4-7,
claude-sonnet-4-6,
gemini-3-pro-preview,
gemini-3.1-pro-preview
示例:

"claude-opus-4-7"

messages
object[]
必填

对话消息数组。messages[*].content 可为 string(纯文本)或 array(多模态块)。多模态块 type ∈ {text, image_url, video_url, audio_url, file_url};不是所有模型都支持所有类型,不支持时返回 422 unsupported_content_type

content 类型支持

模型textimage_urlvideo_urlaudio_urlfile_url
gpt-5.4 / gpt-5.5 / kimi-k2.6
claude-*
gemini-*
示例:
[
{ "role": "user", "content": "count 1 to 3" }
]
stream
boolean
默认值:false

是否流式。

行为差异:

Submit 响应 stream 字段SSE 端点
falsenull不可用
true{"url": "/v1/llm/generations/{task_id}/stream"}可用;同时 task.data 累积完整响应
示例:

false

max_tokens
integer | null

生成 token 上限。模型约束:

  • gpt-5.4 / gpt-5.5 传入时必须 ≥ 16,否则 422
  • claude-* 必填,缺失时 422
  • kimi-k2.6 / gemini-* 可选
示例:

64

temperature
number | null

采样温度。

top_p
number | null

nucleus sampling。

stop

停止序列。

响应

任务已创建

Submit 响应,对齐统一任务标准形状。results / error 在 submit 阶段固定为 null,任务完成/失败后通过 GET /v1/tasks/{task_id} 返回

id
string
必填

任务 ID,格式 task-llm-{timestamp}-{8random}。用于 GET /v1/tasks/{task_id} 查询或 GET /v1/llm/generations/{task_id}/stream 订阅 SSE

示例:

"task-llm-1776874565-yq3szvcu"

object
enum<string>
必填

对象类型,固定 llm.generation.task

可用选项:
llm.generation.task
示例:

"llm.generation.task"

type
enum<string>
必填

媒体类型,固定 llm

可用选项:
llm
示例:

"llm"

model
string
必填

客户端提交的模型名(原样回显)

示例:

"claude-opus-4-7"

status
enum<string>
必填

任务状态,submit 阶段固定 pending

可用选项:
pending
示例:

"pending"

progress
integer
必填

进度 0-100,submit 阶段固定 0

示例:

0

created
integer
必填

创建时间(Unix 秒)

示例:

1776874565

stream
object

stream=true 时返回 {url: ...}stream=false 时为 null。客户端据此决定是否连接 SSE

results
object[] | null

submit 阶段固定 null;任务完成后通过 GET /v1/tasks/{task_id} 返回,results[0] 为完整 OpenAI ChatCompletion 响应。

已知限制model=kimi-k2.6(thinking 模型)的 reasoning_content 不累积到最终 message.content,因此 results[0].message.content 可能为空字符串

示例:

null

error
object

submit 阶段固定 null;任务失败时通过 GET /v1/tasks/{task_id} 返回

示例:

null