使用返回的任务 ID 进行查询 获取最终结果。
Documentation Index
Fetch the complete documentation index at: https://docs.foxapi.cc/llms.txt
Use this file to discover all available pages before exploring further.
所有接口均需要使用 Bearer Token 进行认证。在请求头中添加:
Authorization: Bearer YOUR_API_KEY
YOUR_API_KEY 为 API Token(sk-... 格式)。
模型名,常用视频模型:
gemini-2.5-pro(建议使用)nemotron-3-nano-omni(仅单视频)"gemini-2.5-pro"
"nemotron-3-nano-omni"
用户提示词,最多 100,000 字符。
100000"What is happening in this video?"
视频源数组(1–10 个)。每个元素接受以下两种形式:
data:video/<type>;base64,<payload> data URI(base64 内联,注意视频体积大)URL 格式约束(基于 fal openrouter 实测,2026-05-13):
.mp4 / .mpeg / .mpg / .mov / .webmhttps://www.youtube.com/watch?v=<id> 和 https://youtu.be/<id>(仅 gemini-* 模型可用)https://www.youtube.com/shorts/<id>),上游会返回 422。客户端可将 <id> 改写为 watch?v=<id> 形式后再调用模型限制:
gemini-2.5-pro:支持多视频nemotron-3-nano-omni:仅支持单视频,video_urls.length > 1 → 422成本提示:视频按帧 + 时间编码,30s 视频可能 20K+ tokens。建议短片段或低帧率源。
1 - 10 elements[
"https://storage.googleapis.com/cloud-samples-data/video/animals.mp4"
]同步模式(参见 llm-text schema)。
false
是否流式(参见 llm-text schema)。
false
生成 token 上限。可选。
x >= 1128
采样温度,区间 [0, 2]。可选。
0 <= x <= 2系统指令。可选。
10000是否包含 reasoning tokens。gemini-2.5-pro 等思考模型可能需设为 true。
任务已创建(async 模式)/ 完整响应(sync 模式)
Submit 响应,对齐统一任务标准形状。results / error 在 submit 阶段固定为 null,任务完成/失败后通过 GET /v1/tasks/{task_id} 返回。sync=true, stream=false 模式下端点直接返回完整 OpenAI ChatCompletion JSON。
任务 ID,格式 task-llmrouter-{timestamp}-{8random}。
"task-llmrouter-1776874565-yq3szvcu"
llm.generation.task "llm.generation.task"
llm "llm"
客户端提交的模型名(原样回显)
"gemini-2.5-pro"
pending "pending"
0
1776874565
stream=true 时返回 {url: ...};stream=false 时为 null。
submit 阶段固定 null;任务完成后通过 GET /v1/tasks/{task_id} 返回,results[0] 为完整 OpenAI ChatCompletion 响应。
null
submit 阶段固定 null;任务失败时通过 GET /v1/tasks/{task_id} 返回。
null