# FoxAPI ## Docs - [Cohere Transcribe 语音识别](https://docs.foxapi.cc/pages/zh/api-manual/audio-series/cohere-transcribe/cohere-transcribe.md): - Cohere Transcribe 录音文件识别模型 - 支持 14 种语言(en/fr/de/it/es/pt/el/nl/pl/zh/ja/ko/vi/ar) - 可选标点输出与每块最大 token 控制 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 识别结果会在任务详情的 `results` 字段中返回 - [Scribe V2 语音识别](https://docs.foxapi.cc/pages/zh/api-manual/audio-series/elevenlabs/scribe-v2.md): - Scribe V2 录音文件识别模型 - 支持语言指定、说话人分离、音频事件标注与 keyterms 偏置词增强 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 识别结果会在任务详情的 `results` 字段中返回 - [Lyria 3 音乐生成](https://docs.foxapi.cc/pages/zh/api-manual/audio-series/lyria/lyria.md): - Lyria 3 AI 音乐生成模型,支持通过自然语言描述生成高保真立体声音乐 - 支持结构标签(`[Verse]`、`[Chorus]`、`[Bridge]` 等)与时间戳控制 - 可选参考图片输入(最多 10 张),用于影响音乐的氛围与风格 - 生成 44.1kHz 高保真立体声 `mp3` 音频 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的音频链接,有效期为24小时,请尽快保存 - [MiniMax 音乐生成](https://docs.foxapi.cc/pages/zh/api-manual/audio-series/minimax-music/minimax-music.md): - MiniMax Music AI 音乐生成模型 - 支持文本描述生成音乐,可选歌词输入 - 支持纯器乐和含人声两种模式 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的音频链接,有效期为24小时,请尽快保存 - [MiniMax Speech 文本转语音](https://docs.foxapi.cc/pages/zh/api-manual/audio-series/minimax-speech/minimax-speech.md): - Speech 2.8 文本转语音模型 - 高质量与极速两种变体(HD / Turbo),支持多种音色和情感控制 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的音频链接,有效期为24小时,请尽快保存 - [MiniMax 预设音色清单](https://docs.foxapi.cc/pages/zh/api-manual/audio-series/minimax-speech/preset-voice-id.md): - 返回 MiniMax **扩展**预设音色清单(每种语言 673 条),用于 `speech-2.8-hd` / `speech-2.8-turbo` 等 MiniMax 系语音合成模型的 `voice_setting.voice_id` 字段 - 数据来源:minimax.io 国际站 (669) ∪ hailuoai.com 中文站 (599),两站均为 MiniMax 官方 - 直接取返回数组中任意一项的 `voice_id` 填入语音合成请求即可 - 通过 `language` query 参数选择文案语言: - `zh`(默认):对 595 条重叠 + 4 条 hailuoa… - [Paraformer V2 语音识别](https://docs.foxapi.cc/pages/zh/api-manual/audio-series/paraformer/paraformer-v2.md): - Paraformer V2 录音文件识别模型,支持中文(含方言)、英文、日语等多语种 - 支持说话人分离、热词定制、语气词过滤 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 识别结果会在任务详情的 `results` 字段中返回 - [Base64 文件上传](https://docs.foxapi.cc/pages/zh/api-manual/file-management/upload-base64.md): - 支持 Base64 编码和 Data URL 格式 - 可自动识别文件类型并分类存储 - 返回可访问的文件 URL - 文件会在 72 小时后过期 - 存储空间不足时默认自动清理最早上传的文件(可通过 auto_cleanup=false 关闭) - [文件流上传](https://docs.foxapi.cc/pages/zh/api-manual/file-management/upload-stream.md): - 使用 multipart/form-data 格式上传文件 - 适用于直接上传本地文件 - 文件会在 72 小时后过期 - 存储空间不足时默认自动清理最早上传的文件(可通过 auto_cleanup=false 关闭) - [URL 文件上传](https://docs.foxapi.cc/pages/zh/api-manual/file-management/upload-url.md): - 通过提供远程文件 URL 进行上传 - 系统会自动下载远程文件并存储 - 文件会在 72 小时后过期 - 存储空间不足时默认自动清理最早上传的文件(可通过 auto_cleanup=false 关闭) - [Gemini 3 Pro 图像生成](https://docs.foxapi.cc/pages/zh/api-manual/image-series/gemini/gemini-3-pro-image-preview.md): - Gemini 3 Pro Image Preview 图像生成模型,支持文生图、图像编辑和多分辨率输出 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的图像链接,有效期为24小时,请尽快保存 - [GPT Image 2 图像生成](https://docs.foxapi.cc/pages/zh/api-manual/image-series/gpt-image-2/gpt-image-2.md): - GPT Image 2 图像生成与编辑模型,支持文生图和图生图 - 完整版 `gpt-image-2` 暴露 `quality` / `mask_url` / `output_format` / `background`,支持 11 种 preset 和自定义分辨率 - 精简版 `gpt-image-2-limit` 仅支持基础字段、3 档标准分辨率(`1024x1024` / `1024x1536` / `1536x1024`)和 `num_outputs=1` - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/… - [Grok Imagine 图像生成](https://docs.foxapi.cc/pages/zh/api-manual/image-series/grok-imagine/grok-imagine-image.md): - Grok Imagine 图像生成模型,支持文生图和图像编辑 - 单次支持生成 1-4 张图片,编辑模式最多支持 3 张输入图 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的图像链接,有效期为24小时,请尽快保存 - [Nanobanana 图像生成](https://docs.foxapi.cc/pages/zh/api-manual/image-series/nanobanana/gemini-3.1-flash-image-preview.md): - Nano Banana 2 (gemini-3.1-flash-image-preview) 模型支持文本转图片、图生图、图像编辑等多种生成模式 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的图像链接,有效期为24小时,请尽快保存 - [Patina 材质生成](https://docs.foxapi.cc/pages/zh/api-manual/image-series/patina/patina-material.md): - PATINA Material 模型,生成可平铺纹理和 PBR maps - 支持文生材质和图生材质模式 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的图像链接,有效期为24小时,请尽快保存 - [Patina 材质提取](https://docs.foxapi.cc/pages/zh/api-manual/image-series/patina/patina-material-extract.md): - PATINA Material Extract 模型,从现有图像中提取纹理并生成完整 PBR material - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的图像链接,有效期为24小时,请尽快保存 - [Patina PBR Maps](https://docs.foxapi.cc/pages/zh/api-manual/image-series/patina/patina-pbr-maps.md): - PATINA PBR Maps 模型,从单张图片预测多张 PBR maps(法线、反照率、粗糙度等) - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的图像链接,有效期为24小时,请尽快保存 - [Phota Profile 创建](https://docs.foxapi.cc/pages/zh/api-manual/image-series/phota/phota-create-profile.md): - PHOTA Profile 创建模型,上传图片集合训练生成可复用 profile - 返回 profile_id 而非图片 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - `profile_id` 会在任务详情的 `results` 字段中返回 - [Phota 图像生成](https://docs.foxapi.cc/pages/zh/api-manual/image-series/phota/phota-image.md): - PHOTA 文生图模型 - 支持 1K / 4K 分辨率,可通过 prompt 中 `[[profile_id]]` 引用 profile - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的图像链接,有效期为24小时,请尽快保存 - [Phota 图像编辑](https://docs.foxapi.cc/pages/zh/api-manual/image-series/phota/phota-image-edit.md): - PHOTA 图像编辑模型 - 支持 1K / 4K 分辨率,支持 profile_ids - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的图像链接,有效期为24小时,请尽快保存 - [Phota 图像增强](https://docs.foxapi.cc/pages/zh/api-manual/image-series/phota/phota-image-enhance.md): - PHOTA 图像增强模型 - 支持创意度和相似度调节,支持 profile_ids - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的图像链接,有效期为24小时,请尽快保存 - [万象2.7 图像生成](https://docs.foxapi.cc/pages/zh/api-manual/image-series/wan2.7/wan-2.7-image.md): - Wan 2.7 图像生成与编辑模型,支持文生图和图像编辑 - 支持预设尺寸和显式宽高尺寸对象 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的图像链接,有效期为24小时,请尽快保存 - [错误码参考](https://docs.foxapi.cc/pages/zh/api-manual/task-management/error-codes.md) - [查询任务状态](https://docs.foxapi.cc/pages/zh/api-manual/task-management/get-task-detail.md): - 查询异步任务的当前状态和结果 - 任务状态流转:`pending` → `processing` → `completed` / `failed` - 可选传入 `sync_upstream=true`,对仍在执行中的任务先主动刷新一次最新状态 - 任务完成后,结果链接有效期为24小时,请尽快保存 - [Claude 格式 - 消息](https://docs.foxapi.cc/pages/zh/api-manual/text-series/claude-format/messages.md): - 适用于所有兼容 Claude 格式模型的通用 Anthropic Messages API 参考 - 最简化参数,快速上手 - 发送包含文本内容的结构化输入消息列表 - 系统提示词:自定义 AI 的角色和行为 - 支持流式和非流式响应 - [Claude 格式 - 调用工具消息](https://docs.foxapi.cc/pages/zh/api-manual/text-series/claude-format/tool-calling-messages.md): - 适用于所有兼容 Claude 格式模型的通用 Anthropic Messages API(含工具调用) - 工具调用:支持 Function Calling,定义模型可调用的工具 - 多模态输入:支持文本 + 图像混合输入 - 扩展思考:支持思维链推理模式 - 支持流式和非流式响应 - [免费模型](https://docs.foxapi.cc/pages/zh/api-manual/text-series/free-models/free-models.md) - [Gemini 格式 - 嵌入](https://docs.foxapi.cc/pages/zh/api-manual/text-series/gemini-format/embeddings.md): - 适用于所有兼容 Gemini 原生格式的嵌入 API - 将文本转换为高维向量表示 - 支持多种任务类型:检索、分类、聚类、语义相似度等 - 支持自定义输出维度(降维) - [Gemini 格式 - 内容生成](https://docs.foxapi.cc/pages/zh/api-manual/text-series/gemini-format/generate-content.md): - 适用于所有兼容 Gemini 原生格式模型的通用 generateContent API 参考 - 最简化参数,快速上手 - 文本对话:单轮或多轮上下文对话 - 多模态输入:支持文本 + 图像/音频/视频混合输入 - 生成配置:通过 generationConfig 控制温度、topP、topK、maxOutputTokens - [Gemini 格式 - 图像生成](https://docs.foxapi.cc/pages/zh/api-manual/text-series/gemini-format/image-generation.md): - 使用 Gemini 原生格式的 generateContent 接口生成图像 - 通过 `generationConfig.responseModalities` 设置为 `["TEXT", "IMAGE"]` 或 `["IMAGE"]` 启用图像输出 - 支持文生图:纯文本 prompt 生成图像 - 支持图生图:上传图片 + 文本 prompt 进行图像编辑 - 支持多轮对话方式迭代修改图像 - 通过 `generationConfig.imageConfig` 控制宽高比和图像分辨率 - 流式调用请使用 `/v1beta/models/{model}:streamGenerateCo… - [Gemini 格式 - 音乐生成](https://docs.foxapi.cc/pages/zh/api-manual/text-series/gemini-format/music-generation.md): - 使用 Gemini 原生格式的 generateContent 接口,通过 Lyria 3 模型生成音乐 - 通过 `generationConfig.responseModalities` 包含 `AUDIO` 启用音频输出;若同时包含 `TEXT`,响应会额外返回文本描述(歌词/结构) - 支持文本 prompt 和图片输入(最多 10 张),图片用于激发视觉灵感驱动的音乐创作 - 时长、结构(主歌/副歌/桥段)、风格等主要通过文本 prompt 控制 - `lyria-3-clip-preview`:固定生成 30 秒短片段,默认返回 MP3(`audio/mpeg`) - `lyr… - [Gemini 格式 - 流式输出](https://docs.foxapi.cc/pages/zh/api-manual/text-series/gemini-format/stream-generate-content.md) - [Gemini 格式 - 调用工具内容生成](https://docs.foxapi.cc/pages/zh/api-manual/text-series/gemini-format/tool-calling-generate-content.md): - 适用于所有兼容 Gemini 原生格式模型的通用 generateContent API(含工具调用) - 工具调用:支持函数声明,模型可调用定义的函数 - 多模态输入:支持文本 + 图像/音频/视频混合输入 - 生成配置:通过 generationConfig 控制温度、topP、topK、maxOutputTokens - 安全设置:可配置内容安全阈值 - 支持流式和非流式响应 - [音频理解](https://docs.foxapi.cc/pages/zh/api-manual/text-series/llm-async/llm-audio.md): 使用返回的任务 ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) 获取最终结果。 - [自定义格式](https://docs.foxapi.cc/pages/zh/api-manual/text-series/llm-async/llm-custom.md): 使用返回的任务 ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) 获取最终结果。 - [纯文本](https://docs.foxapi.cc/pages/zh/api-manual/text-series/llm-async/llm-text.md): 使用返回的任务 ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) 获取最终结果。 - [视频理解](https://docs.foxapi.cc/pages/zh/api-manual/text-series/llm-async/llm-video.md): 使用返回的任务 ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) 获取最终结果。 - [图像理解](https://docs.foxapi.cc/pages/zh/api-manual/text-series/llm-async/llm-vision.md): 使用返回的任务 ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) 获取最终结果。 - [OpenAI 格式 - 调用工具对话](https://docs.foxapi.cc/pages/zh/api-manual/text-series/openai-format/chat-completions.md): - 适用于所有兼容 OpenAI 格式模型的通用 Chat Completions API(含工具调用) - 工具调用:支持 Function Calling,定义模型可调用的工具 - 结构化输出:支持 JSON Object / JSON Schema 格式 - 多模态输入:支持文本 + 图像混合输入 - 支持流式和非流式响应 - [OpenAI 格式 - 嵌入](https://docs.foxapi.cc/pages/zh/api-manual/text-series/openai-format/embeddings.md): - 适用于所有兼容 OpenAI 格式嵌入模型的通用 Embeddings API 参考 - 将文本转换为向量表示 - 支持单条或批量输入 - 可配置输出维度和编码格式 - [OpenAI 格式 - 响应](https://docs.foxapi.cc/pages/zh/api-manual/text-series/openai-format/responses.md): - 适用于所有兼容 Responses API 格式模型的通用参考 - 服务端上下文存储:通过 previous_response_id 实现多轮对话,无需手动传历史消息 - 支持流式和非流式响应 - 多模态输入:支持文本 + 图像 + 文件混合输入 - 工具调用:支持 Function Calling 和内置工具 - 结构化输出:支持 JSON Schema 格式 - [OpenAI 格式 - 简单对话](https://docs.foxapi.cc/pages/zh/api-manual/text-series/openai-format/simple-chat.md): - 适用于所有兼容 OpenAI 格式模型的通用简单对话 API 参考 - 最简化参数,快速上手 - 文本对话:单轮或多轮上下文对话 - 系统提示词:自定义 AI 的角色和行为 - 支持流式和非流式响应 - [OpenAI 格式 - 语音识别](https://docs.foxapi.cc/pages/zh/api-manual/text-series/openai-format/transcriptions.md): - 适用于所有兼容 OpenAI 格式语音识别模型的通用 Transcriptions API 参考 - 将音频文件转换为文本 - 支持的模型:`whisper-1`(主推)、`gpt-4o-transcribe`、`gpt-4o-mini-transcribe`、`cohere-transcribe` - 支持指定语言、提示词引导风格与多种响应格式 - 各模型独有的字段(如时间戳粒度、流式、说话人分离、标点控制等)请参见页面下方的「模型参数说明」 - [Creatify Aurora](https://docs.foxapi.cc/pages/zh/api-manual/video-series/creatify-aurora/creatify-aurora.md): - Creatify Aurora 高保真口播数字人视频模型,输入人物图片和音频,生成棚拍风格口播视频 - 支持 `480p` / `720p` 两档分辨率 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Fabric 音画同步](https://docs.foxapi.cc/pages/zh/api-manual/video-series/fabric/fabric.md): - Fabric 1.0 人像说话视频生成模型,输入人像图片+语音音频,生成唇形同步的说话视频 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Grok Imagine 视频延长](https://docs.foxapi.cc/pages/zh/api-manual/video-series/grok-imagine-video/grok-imagine-video-extension.md): - Grok Imagine 视频延长模型,基于已有视频生成延续片段 - 输入视频需为 2-15 秒 MP4,延长片段时长支持 2-10 秒 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Grok Imagine 视频编辑](https://docs.foxapi.cc/pages/zh/api-manual/video-series/grok/grok-imagine-edit-video.md): - Grok Imagine 视频编辑模型 - 输入视频缩放到 854×480,截断到 8 秒 - 支持 `auto` / `480p` / `720p` 输出 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Grok Imagine 图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/grok/grok-imagine-image-to-video.md): - Grok Imagine 图生视频模型 - 支持 `480p` / `720p` 输出,1-15 秒时长 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Grok Imagine 参考图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/grok/grok-imagine-reference-to-video.md): - Grok Imagine 参考图生成视频模型 - 1-7 张参考图,支持 @Image1 引用 - 支持 `480p` / `720p` 输出,1-10 秒时长 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Grok Imagine 文生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/grok/grok-imagine-text-to-video.md): - Grok Imagine 文生视频模型 - 支持 `480p` / `720p` 输出,1-15 秒时长 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [HappyHorse 1.0 图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/happyhorse/happyhorse-1.0-image-to-video.md): - HappyHorse 1.0 图生视频模型,基于首帧图片生成视频,可选提示词补充镜头运动 - 支持 `720p` / `1080p` 输出,3-15 秒时长 - 输出宽高比由首帧图片决定 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [HappyHorse 1.0 参考视频生成](https://docs.foxapi.cc/pages/zh/api-manual/video-series/happyhorse/happyhorse-1.0-reference-to-video.md): - HappyHorse 1.0 多角色参考生视频模型,1-9 张参考图驱动视频生成 - prompt 中可使用 `@Image1` ~ `@Image9` 引用对应参考图 - 支持 `720p` / `1080p` 输出,3-15 秒时长 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [HappyHorse 1.0 文生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/happyhorse/happyhorse-1.0-text-to-video.md): - HappyHorse 1.0 文生视频模型,纯文本提示词生成视频 - 支持 `720p` / `1080p` 输出,3-15 秒时长 - 支持 `16:9` / `9:16` / `1:1` / `4:3` / `3:4` 多种宽高比 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [HappyHorse 1.0 视频编辑](https://docs.foxapi.cc/pages/zh/api-manual/video-series/happyhorse/happyhorse-1.0-video-edit.md): - HappyHorse 1.0 视频编辑模型,基于现有视频做风格迁移与编辑 - 输入视频 3-60 秒,可选 0-5 张参考图,prompt 中可使用 `@Image1` ~ `@Image5` 引用 - 支持自动或保留原音频策略,输出 `720p` / `1080p` - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [HeyGen Video Agent](https://docs.foxapi.cc/pages/zh/api-manual/video-series/heygen/heygen-video-agent.md): - HeyGen Video Agent 智能视频代理,仅需提示词即可自动完成数字人视频生成 - 可选指定头像、声音、风格和画面方向;视频时长由 Agent 自动决定 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [可灵-O3 图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/kling/kling-o3-image-to-video.md): - Kling O3 图生视频模型 - 以首帧图片驱动视频生成,可选尾帧 - 支持 720p / 1080p 两种分辨率 - 可选生成配套音频 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [可灵-O3 参考视频生成](https://docs.foxapi.cc/pages/zh/api-manual/video-series/kling/kling-o3-reference-to-video.md): - Kling O3 参考图视频模型 - 通过参考图片和主体元素驱动视频生成 - 支持 720p / 1080p 两种分辨率 - 可选生成配套音频 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [可灵-O3 文生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/kling/kling-o3-text-to-video.md): - Kling O3 文生视频模型 - 支持 720p / 1080p 两种分辨率 - 可选生成配套音频 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [可灵-O3 视频编辑](https://docs.foxapi.cc/pages/zh/api-manual/video-series/kling/kling-o3-video-to-video-edit.md): - Kling O3 视频编辑模型 - 基于参考视频进行内容编辑 - 支持 720p / 1080p 两种分辨率 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [可灵-O3 参考视频生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/kling/kling-o3-video-to-video-reference.md): - Kling O3 参考视频风格迁移模型 - 将参考视频的风格或运镜迁移到新生成的视频中 - 支持 720p / 1080p 两种分辨率 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [可灵-V3 图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/kling/kling-v3-image-to-video.md): - Kling V3 图生视频模型 - 以首帧图片驱动视频生成,可选尾帧 - 支持 720p / 1080p 两种分辨率 - 可选生成配套音频 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [可灵-V3 运动控制](https://docs.foxapi.cc/pages/zh/api-manual/video-series/kling/kling-v3-motion-control.md): - Kling 动作控制模型,将参考视频的动作迁移到图片人物上 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [可灵-V3 文生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/kling/kling-v3-text-to-video.md): - Kling V3 文生视频模型 - 支持 720p / 1080p 两种分辨率 - 可选生成配套音频 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Kling 创建音色](https://docs.foxapi.cc/pages/zh/api-manual/video-series/kling/kling-video-create-voice.md): - 将参考音频注册为可复用声音并返回 `voice_id` - 生成的视频主体元素可通过该 `voice_id` 绑定声音 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - `voice_id` 会在任务详情的 `results` 字段中返回 - [Lipsync 唇形同步](https://docs.foxapi.cc/pages/zh/api-manual/video-series/lipsync/lipsync-2.md): - Sync Lipsync 系列基于视频+音频生成唇形匹配的同步视频 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [OmniHuman 1.5 数字人视频生成](https://docs.foxapi.cc/pages/zh/api-manual/video-series/omnihuman/omnihuman-1.5-video-generate.md): - OmniHuman 1.5 音频驱动数字人视频生成模型 - 输入人像图片+音频,生成角色说话/唱歌/表演的同步视频 - 支持加速模式 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [PixVerse C1 图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/pixverse-c1/pixverse-c1-image-to-video.md): - PixVerse C1 图生视频模型,基于首帧图片生成视频 - 支持 540p / 720p 输出,可选音频生成 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [PixVerse C1 参考图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/pixverse-c1/pixverse-c1-reference-to-video.md): - PixVerse C1 参考图生视频模型,基于参考图列表生成一致性视频 - 支持 540p / 720p 输出,可选音频生成 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [PixVerse C1 文生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/pixverse-c1/pixverse-c1-text-to-video.md): - PixVerse C1 文生视频模型,基于文本生成视频 - 支持 540p / 720p 输出,可选音频生成 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [PixVerse C1 转场视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/pixverse-c1/pixverse-c1-transition.md): - PixVerse C1 转场视频模型,基于起始图片生成过渡视频,可选尾帧图片约束结尾画面 - 支持 540p / 720p 输出,可选音频生成 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [PixVerse V6 视频延长](https://docs.foxapi.cc/pages/zh/api-manual/video-series/pixverse-v6/pixverse-v6-extend.md): - PixVerse V6 视频延长模型,基于已有视频生成延续片段 - 支持 1-15 秒与 360p / 540p / 720p / 1080p 输出 - 支持风格化与音频生成 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [PixVerse V6 图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/pixverse-v6/pixverse-v6-image-to-video.md): - PixVerse V6 图生视频模型,基于首帧图片生成视频 - 支持 1-15 秒与 360p / 540p / 720p / 1080p 输出 - 支持风格化、音频生成、多镜头与提示词优化 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [PixVerse V6 文生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/pixverse-v6/pixverse-v6-text-to-video.md): - PixVerse V6 文生视频模型,基于文本生成视频 - 支持 1-15 秒与 360p / 540p / 720p / 1080p 输出 - 支持风格化、音频生成、多镜头与提示词优化 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [PixVerse V6 转场视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/pixverse-v6/pixverse-v6-transition.md): - PixVerse V6 转场视频模型,基于起始图片生成过渡视频,可选尾帧图片约束结尾画面 - 支持 1-15 秒与 360p / 540p / 720p / 1080p 输出 - 支持风格化、音频生成、多镜头与提示词优化 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Seedance 2.0 图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/seedance/seedance-2.0-image-to-video.md): - Seedance 2.0 图生视频模型,基于首帧图片(可选尾帧)生成视频 - 支持 `480p` / `720p`,4–15 秒时长,多种宽高比 - 支持同步音频生成 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Seedance 2.0 多模态参考生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/seedance/seedance-2.0-reference-to-video.md): - Seedance 2.0 多模态参考生视频模型,基于参考图片、视频、音频生成视频 - 参考图片最多 9 张、参考视频最多 3 段、参考音频最多 3 段,总数不超过 12 - 在 prompt 中使用 @Image1、@Video1、@Audio1 等引用参考素材 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Seedance 2.0 文生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/seedance/seedance-2.0-text-to-video.md): - Seedance 2.0 文生视频模型,纯文本提示词生成视频 - 支持 `480p` / `720p`,4–15 秒时长,多种宽高比 - 支持同步音频生成 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Sora-2 视频生成](https://docs.foxapi.cc/pages/zh/api-manual/video-series/sora2/sora-2.md): - Sora 2 视频生成模型,支持文生视频和图生视频 - 支持角色一致性(character_ids) - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Sora 角色生成](https://docs.foxapi.cc/pages/zh/api-manual/video-series/sora2/sora-2-character.md): - Sora 2 角色 ID 生成,从视频中提取角色用于后续视频生成的角色一致性 - 免费 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 角色 ID 会在任务详情的 `results` 字段中返回 - [Topaz 视频高清放大](https://docs.foxapi.cc/pages/zh/api-manual/video-series/topaz/topaz-upscale-video.md): - Topaz 视频增强模型,输入现有视频并输出放大后的增强版本 - 支持选择增强模型、放大倍数和插帧参数 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Veo3.1 视频延长](https://docs.foxapi.cc/pages/zh/api-manual/video-series/veo3.1/veo-3.1-extend.md): - VEO 3.1 视频延长模型,基于已有视频生成延续片段 - 固定延长 7 秒,支持生成配套音频 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Veo3.1 首尾帧生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/veo3.1/veo-3.1-first-last-frame-to-video.md): - VEO 3.1 首尾帧生视频模型(按模式拆分入口) - 输入起始帧 `first_image_url` 与结束帧 `last_image_url` - 标准版与 Fast 支持 `720p` / `1080p` / `4k`,Lite 仅支持 `720p` / `1080p` - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Veo3.1 图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/veo3.1/veo-3.1-image-to-video.md): - VEO 3.1 图生视频模型(按模式拆分入口) - 输入单张起始帧 `image_url` - 标准版与 Fast 支持 `720p` / `1080p` / `4k`,Lite 仅支持 `720p` / `1080p` - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Veo3.1 参考视频生成](https://docs.foxapi.cc/pages/zh/api-manual/video-series/veo3.1/veo-3.1-reference-to-video.md): - VEO 3.1 参考图生视频模型(按模式拆分入口) - 输入 1-3 张参考图 `reference_image_urls`,固定 `8` 秒 - 仅标准版与 Fast 可用,Lite 不支持参考图 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Veo3.1 文生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/veo3.1/veo-3.1-text-to-video.md): - VEO 3.1 文生视频模型(按模式拆分入口) - 仅 `prompt`,无图像输入 - 标准版与 Fast 支持 `720p` / `1080p` / `4k`,Lite 仅支持 `720p` / `1080p` - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Vidu Q3 视频生成](https://docs.foxapi.cc/pages/zh/api-manual/video-series/vidu/vidu-q3.md) - [万象2.7 图生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/wan2.7/wan-2.7-image-to-video.md): - Wan 2.7 图生视频模型,支持单图生视频、首尾帧过渡和视频续写 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [万象2.7 参考视频生成](https://docs.foxapi.cc/pages/zh/api-manual/video-series/wan2.7/wan-2.7-reference-to-video.md): - Wan 2.7 参考生视频模型,支持参考图、参考视频、多主体和多镜头分段 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [万象2.7 文生视频](https://docs.foxapi.cc/pages/zh/api-manual/video-series/wan2.7/wan-2.7-text-to-video.md): - Wan 2.7 文生视频模型,支持文本生成视频、音频驱动、可选提示词扩展与安全检查 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [万象2.7 视频编辑](https://docs.foxapi.cc/pages/zh/api-manual/video-series/wan2.7/wan-2.7-video-edit.md): - Wan 2.7 视频编辑模型,支持基于现有视频做风格迁移与参考图编辑 - 支持自动或保留原音频策略 - 异步处理模式,使用返回的任务ID [进行查询](/pages/zh/api-manual/task-management/get-task-detail) - 生成的视频链接,有效期为24小时,请尽快保存 - [Claude Code CLI](https://docs.foxapi.cc/pages/zh/integration-guide/claude-code-cli.md): 将 Claude Code CLI 连接到 FoxAPI - [CodeBuddy / WorkBuddy](https://docs.foxapi.cc/pages/zh/integration-guide/codebuddy-workbuddy.md): 通过 models.json 配置将 CodeBuddy 或 WorkBuddy 连接到 FoxAPI - [Codex CLI](https://docs.foxapi.cc/pages/zh/integration-guide/codex-cli.md): 将 OpenAI Codex CLI 连接到 FoxAPI - [Gemini CLI](https://docs.foxapi.cc/pages/zh/integration-guide/gemini-cli.md): 将 Gemini CLI 连接到 FoxAPI - [OpenClaw 手动安装](https://docs.foxapi.cc/pages/zh/integration-guide/openclaw.md): 手动安装和配置 OpenClaw 并连接 FoxAPI - [OpenClaw 一键安装](https://docs.foxapi.cc/pages/zh/integration-guide/openclaw-auto.md): 一键安装 OpenClaw 并连接 FoxAPI - [OpenClaw + 飞书](https://docs.foxapi.cc/pages/zh/integration-guide/openclaw-feishu.md): 在飞书上部署 OpenClaw 机器人,接入 FoxAPI - [OpenClaw + Telegram](https://docs.foxapi.cc/pages/zh/integration-guide/openclaw-telegram.md): 在 Telegram 上部署 OpenClaw 机器人,接入 FoxAPI - [OpenCode](https://docs.foxapi.cc/pages/zh/integration-guide/opencode.md): 将 OpenCode 连接到 FoxAPI - [Skills](https://docs.foxapi.cc/pages/zh/skills/skills.md): 使用 FoxAPI Skills 扩展你的 AI 编程助手 - [FoxAPI](https://docs.foxapi.cc/pages/zh/user-guides/introduction.md): 企业级 AI 网关平台 - 统一接入 30+ 主流 AI 服务商 - [快速集成](https://docs.foxapi.cc/pages/zh/user-guides/quickstart.md): 几分钟即可开始使用 FoxAPI ## OpenAPI Specs - [z-image-turbo-image-generate](https://docs.foxapi.cc/openapi/zh/z-image-turbo-image-generate.json) - [wan2.6-text-to-video](https://docs.foxapi.cc/openapi/zh/wan2.6-text-to-video.json) - [wan2.6-reference-video](https://docs.foxapi.cc/openapi/zh/wan2.6-reference-video.json) - [wan2.6-reference-video-flash](https://docs.foxapi.cc/openapi/zh/wan2.6-reference-video-flash.json) - [wan2.6-image-to-video](https://docs.foxapi.cc/openapi/zh/wan2.6-image-to-video.json) - [wan2.6-image-to-video-flash](https://docs.foxapi.cc/openapi/zh/wan2.6-image-to-video-flash.json) - [wan2.5-text-to-video](https://docs.foxapi.cc/openapi/zh/wan2.5-text-to-video.json) - [wan2.5-text-to-image](https://docs.foxapi.cc/openapi/zh/wan2.5-text-to-image.json) - [wan2.5-image-to-video](https://docs.foxapi.cc/openapi/zh/wan2.5-image-to-video.json) - [wan2.5-image-to-image](https://docs.foxapi.cc/openapi/zh/wan2.5-image-to-image.json) - [wan-2.7-video-edit](https://docs.foxapi.cc/openapi/zh/wan-2.7-video-edit.json) - [wan-2.7-text-to-video](https://docs.foxapi.cc/openapi/zh/wan-2.7-text-to-video.json) - [wan-2.7-reference-to-video](https://docs.foxapi.cc/openapi/zh/wan-2.7-reference-to-video.json) - [wan-2.7-image](https://docs.foxapi.cc/openapi/zh/wan-2.7-image.json) - [wan-2.7-image-to-video](https://docs.foxapi.cc/openapi/zh/wan-2.7-image-to-video.json) - [voice-clone](https://docs.foxapi.cc/openapi/zh/voice-clone.json) - [vidu-q3-turbo-text-to-video](https://docs.foxapi.cc/openapi/zh/vidu-q3-turbo-text-to-video.json) - [vidu-q3-turbo-image-to-video](https://docs.foxapi.cc/openapi/zh/vidu-q3-turbo-image-to-video.json) - [vidu-q3-text-to-video](https://docs.foxapi.cc/openapi/zh/vidu-q3-text-to-video.json) - [vidu-q3-reference-to-video](https://docs.foxapi.cc/openapi/zh/vidu-q3-reference-to-video.json) - [vidu-q3-image-to-video](https://docs.foxapi.cc/openapi/zh/vidu-q3-image-to-video.json) - [veo3.1-pro-video-generate](https://docs.foxapi.cc/openapi/zh/veo3.1-pro-video-generate.json) - [veo3.1-fast-video-generate](https://docs.foxapi.cc/openapi/zh/veo3.1-fast-video-generate.json) - [veo-3.1](https://docs.foxapi.cc/openapi/zh/veo-3.1.json) - [veo-3.1-text-to-video](https://docs.foxapi.cc/openapi/zh/veo-3.1-text-to-video.json) - [veo-3.1-reference-to-video](https://docs.foxapi.cc/openapi/zh/veo-3.1-reference-to-video.json) - [veo-3.1-image-to-video](https://docs.foxapi.cc/openapi/zh/veo-3.1-image-to-video.json) - [veo-3.1-first-last-frame-to-video](https://docs.foxapi.cc/openapi/zh/veo-3.1-first-last-frame-to-video.json) - [veo-3.1-extend](https://docs.foxapi.cc/openapi/zh/veo-3.1-extend.json) - [topaz-upscale-video](https://docs.foxapi.cc/openapi/zh/topaz-upscale-video.json) - [suno-music-generation](https://docs.foxapi.cc/openapi/zh/suno-music-generation.json) - [speech-2.8](https://docs.foxapi.cc/openapi/zh/speech-2.8.json) - [sora2pro-video-generate](https://docs.foxapi.cc/openapi/zh/sora2pro-video-generate.json) - [sora-2](https://docs.foxapi.cc/openapi/zh/sora-2.json) - [sora-2-pro-remix](https://docs.foxapi.cc/openapi/zh/sora-2-pro-remix.json) - [sora-2-character](https://docs.foxapi.cc/openapi/zh/sora-2-character.json) - [sora-2-beta-max-video-generate](https://docs.foxapi.cc/openapi/zh/sora-2-beta-max-video-generate.json) - [seedream-5.0-lite-image-generate](https://docs.foxapi.cc/openapi/zh/seedream-5.0-lite-image-generate.json) - [seedream-4.5-image-generate](https://docs.foxapi.cc/openapi/zh/seedream-4.5-image-generate.json) - [seedream-4.0-image-generate](https://docs.foxapi.cc/openapi/zh/seedream-4.0-image-generate.json) - [seedance-2.0-text-to-video](https://docs.foxapi.cc/openapi/zh/seedance-2.0-text-to-video.json) - [seedance-2.0-reference-to-video](https://docs.foxapi.cc/openapi/zh/seedance-2.0-reference-to-video.json) - [seedance-2.0-image-to-video](https://docs.foxapi.cc/openapi/zh/seedance-2.0-image-to-video.json) - [seedance-1.5-pro-video-generate](https://docs.foxapi.cc/openapi/zh/seedance-1.5-pro-video-generate.json) - [seedance-1.0-pro-fast-video-generate](https://docs.foxapi.cc/openapi/zh/seedance-1.0-pro-fast-video-generate.json) - [scribe-v2](https://docs.foxapi.cc/openapi/zh/scribe-v2.json) - [qwen-image-edit](https://docs.foxapi.cc/openapi/zh/qwen-image-edit.json) - [qwen-image-edit-plus](https://docs.foxapi.cc/openapi/zh/qwen-image-edit-plus.json) - [pixverse-v6-transition](https://docs.foxapi.cc/openapi/zh/pixverse-v6-transition.json) - [pixverse-v6-text-to-video](https://docs.foxapi.cc/openapi/zh/pixverse-v6-text-to-video.json) - [pixverse-v6-image-to-video](https://docs.foxapi.cc/openapi/zh/pixverse-v6-image-to-video.json) - [pixverse-v6-extend](https://docs.foxapi.cc/openapi/zh/pixverse-v6-extend.json) - [pixverse-c1-transition](https://docs.foxapi.cc/openapi/zh/pixverse-c1-transition.json) - [pixverse-c1-text-to-video](https://docs.foxapi.cc/openapi/zh/pixverse-c1-text-to-video.json) - [pixverse-c1-reference-to-video](https://docs.foxapi.cc/openapi/zh/pixverse-c1-reference-to-video.json) - [pixverse-c1-image-to-video](https://docs.foxapi.cc/openapi/zh/pixverse-c1-image-to-video.json) - [phota-image](https://docs.foxapi.cc/openapi/zh/phota-image.json) - [phota-image-enhance](https://docs.foxapi.cc/openapi/zh/phota-image-enhance.json) - [phota-image-edit](https://docs.foxapi.cc/openapi/zh/phota-image-edit.json) - [phota-create-profile](https://docs.foxapi.cc/openapi/zh/phota-create-profile.json) - [patina-pbr-maps](https://docs.foxapi.cc/openapi/zh/patina-pbr-maps.json) - [patina-material](https://docs.foxapi.cc/openapi/zh/patina-material.json) - [patina-material-extract](https://docs.foxapi.cc/openapi/zh/patina-material-extract.json) - [paraformer-v2](https://docs.foxapi.cc/openapi/zh/paraformer-v2.json) - [omnihuman-1.5](https://docs.foxapi.cc/openapi/zh/omnihuman-1.5.json) - [nanobanana2-beta-image-generate](https://docs.foxapi.cc/openapi/zh/nanobanana2-beta-image-generate.json) - [nanobanana-pro-image-generate](https://docs.foxapi.cc/openapi/zh/nanobanana-pro-image-generate.json) - [nanobanana-pro-beta-image-generate](https://docs.foxapi.cc/openapi/zh/nanobanana-pro-beta-image-generate.json) - [nanobanana-image-generate](https://docs.foxapi.cc/openapi/zh/nanobanana-image-generate.json) - [minimax-voice-clone](https://docs.foxapi.cc/openapi/zh/minimax-voice-clone.json) - [minimax-music](https://docs.foxapi.cc/openapi/zh/minimax-music.json) - [lyria](https://docs.foxapi.cc/openapi/zh/lyria.json) - [llm-vision](https://docs.foxapi.cc/openapi/zh/llm-vision.json) - [llm-video](https://docs.foxapi.cc/openapi/zh/llm-video.json) - [llm-text](https://docs.foxapi.cc/openapi/zh/llm-text.json) - [llm-custom](https://docs.foxapi.cc/openapi/zh/llm-custom.json) - [llm-audio](https://docs.foxapi.cc/openapi/zh/llm-audio.json) - [live-avatar](https://docs.foxapi.cc/openapi/zh/live-avatar.json) - [lipsync-2](https://docs.foxapi.cc/openapi/zh/lipsync-2.json) - [kling-video-create-voice](https://docs.foxapi.cc/openapi/zh/kling-video-create-voice.json) - [kling-v3-text-to-video](https://docs.foxapi.cc/openapi/zh/kling-v3-text-to-video.json) - [kling-v3-motion-control](https://docs.foxapi.cc/openapi/zh/kling-v3-motion-control.json) - [kling-v3-image-to-video](https://docs.foxapi.cc/openapi/zh/kling-v3-image-to-video.json) - [kling-v2-6-video](https://docs.foxapi.cc/openapi/zh/kling-v2-6-video.json) - [kling-o3-video-to-video-reference](https://docs.foxapi.cc/openapi/zh/kling-o3-video-to-video-reference.json) - [kling-o3-video-to-video-edit](https://docs.foxapi.cc/openapi/zh/kling-o3-video-to-video-edit.json) - [kling-o3-video-edit](https://docs.foxapi.cc/openapi/zh/kling-o3-video-edit.json) - [kling-o3-text-to-video](https://docs.foxapi.cc/openapi/zh/kling-o3-text-to-video.json) - [kling-o3-reference-to-video](https://docs.foxapi.cc/openapi/zh/kling-o3-reference-to-video.json) - [kling-o3-image-to-video](https://docs.foxapi.cc/openapi/zh/kling-o3-image-to-video.json) - [kling-o1-video-edit](https://docs.foxapi.cc/openapi/zh/kling-o1-video-edit.json) - [kling-o1-video-edit-fast](https://docs.foxapi.cc/openapi/zh/kling-o1-video-edit-fast.json) - [kling-o1-image-to-video](https://docs.foxapi.cc/openapi/zh/kling-o1-image-to-video.json) - [kling-custom-element](https://docs.foxapi.cc/openapi/zh/kling-custom-element.json) - [heygen-video-agent](https://docs.foxapi.cc/openapi/zh/heygen-video-agent.json) - [happyhorse-1.0-video-edit](https://docs.foxapi.cc/openapi/zh/happyhorse-1.0-video-edit.json) - [happyhorse-1.0-text-to-video](https://docs.foxapi.cc/openapi/zh/happyhorse-1.0-text-to-video.json) - [happyhorse-1.0-reference-to-video](https://docs.foxapi.cc/openapi/zh/happyhorse-1.0-reference-to-video.json) - [happyhorse-1.0-image-to-video](https://docs.foxapi.cc/openapi/zh/happyhorse-1.0-image-to-video.json) - [hailuo-2-3-video-generate](https://docs.foxapi.cc/openapi/zh/hailuo-2-3-video-generate.json) - [hailuo-2-3-fast-video-generate](https://docs.foxapi.cc/openapi/zh/hailuo-2-3-fast-video-generate.json) - [hailuo-02-video-generate](https://docs.foxapi.cc/openapi/zh/hailuo-02-video-generate.json) - [grok-imagine-video-extension](https://docs.foxapi.cc/openapi/zh/grok-imagine-video-extension.json) - [grok-imagine-text-to-video](https://docs.foxapi.cc/openapi/zh/grok-imagine-text-to-video.json) - [grok-imagine-reference-to-video](https://docs.foxapi.cc/openapi/zh/grok-imagine-reference-to-video.json) - [grok-imagine-image](https://docs.foxapi.cc/openapi/zh/grok-imagine-image.json) - [grok-imagine-image-to-video](https://docs.foxapi.cc/openapi/zh/grok-imagine-image-to-video.json) - [grok-imagine-edit-video](https://docs.foxapi.cc/openapi/zh/grok-imagine-edit-video.json) - [gpt-image-2](https://docs.foxapi.cc/openapi/zh/gpt-image-2.json) - [gpt-image-1.5-lite-image-generation](https://docs.foxapi.cc/openapi/zh/gpt-image-1.5-lite-image-generation.json) - [gpt-image-1.5-image-generation](https://docs.foxapi.cc/openapi/zh/gpt-image-1.5-image-generation.json) - [gpt-image-1-image-generation](https://docs.foxapi.cc/openapi/zh/gpt-image-1-image-generation.json) - [gpt-4o-image-generation](https://docs.foxapi.cc/openapi/zh/gpt-4o-image-generation.json) - [get-task-detail](https://docs.foxapi.cc/openapi/zh/get-task-detail.json) - [gemini-3.1-flash-tts](https://docs.foxapi.cc/openapi/zh/gemini-3.1-flash-tts.json) - [gemini-3.1-flash-image-preview](https://docs.foxapi.cc/openapi/zh/gemini-3.1-flash-image-preview.json) - [gemini-3-pro-image-preview](https://docs.foxapi.cc/openapi/zh/gemini-3-pro-image-preview.json) - [fabric-1.0](https://docs.foxapi.cc/openapi/zh/fabric-1.0.json) - [fabric-1.0-text](https://docs.foxapi.cc/openapi/zh/fabric-1.0-text.json) - [creatify-aurora](https://docs.foxapi.cc/openapi/zh/creatify-aurora.json) - [cohere-transcribe](https://docs.foxapi.cc/openapi/zh/cohere-transcribe.json) - [vidu-q3](https://docs.foxapi.cc/openapi/en/vidu-q3.json) - [veo-3.1-fast](https://docs.foxapi.cc/openapi/en/veo-3.1-fast.json) - [veo-3.1-extend-fast](https://docs.foxapi.cc/openapi/en/veo-3.1-extend-fast.json) - [speech-2.8-turbo](https://docs.foxapi.cc/openapi/en/speech-2.8-turbo.json) - [sora-2-pro](https://docs.foxapi.cc/openapi/en/sora-2-pro.json) - [lipsync-2-pro](https://docs.foxapi.cc/openapi/en/lipsync-2-pro.json) - [kling-v3-omni-video](https://docs.foxapi.cc/openapi/en/kling-v3-omni-video.json) - [kling-v2-6-motion-control](https://docs.foxapi.cc/openapi/en/kling-v2-6-motion-control.json) - [openai-format-transcriptions](https://docs.foxapi.cc/openapi/zh/openai-format-transcriptions.json) - [configs-minimax-preset-voice-id](https://docs.foxapi.cc/openapi/zh/configs-minimax-preset-voice-id.json) - [llm_async1](https://docs.foxapi.cc/openapi/zh/llm_async1.json) - [llm_async](https://docs.foxapi.cc/openapi/zh/llm_async.json) - [gemini-format-tool-calling-generate-content](https://docs.foxapi.cc/openapi/zh/gemini-format-tool-calling-generate-content.json) - [gemini-format-stream-generate-content](https://docs.foxapi.cc/openapi/zh/gemini-format-stream-generate-content.json) - [gemini-format-music-generation](https://docs.foxapi.cc/openapi/zh/gemini-format-music-generation.json) - [gemini-format-image-generation](https://docs.foxapi.cc/openapi/zh/gemini-format-image-generation.json) - [gemini-format-generate-content](https://docs.foxapi.cc/openapi/zh/gemini-format-generate-content.json) - [gemini-format-embeddings](https://docs.foxapi.cc/openapi/zh/gemini-format-embeddings.json) - [seedance-2.0](https://docs.foxapi.cc/openapi/en/seedance-2.0.json) - [upload-url](https://docs.foxapi.cc/openapi/en/upload-url.json) - [upload-stream](https://docs.foxapi.cc/openapi/en/upload-stream.json) - [upload-base64](https://docs.foxapi.cc/openapi/en/upload-base64.json) - [openai-format-responses](https://docs.foxapi.cc/openapi/en/openai-format-responses.json) - [openai-format-embeddings](https://docs.foxapi.cc/openapi/en/openai-format-embeddings.json) - [openai-format-chat-completions](https://docs.foxapi.cc/openapi/en/openai-format-chat-completions.json) - [kling-v3-video](https://docs.foxapi.cc/openapi/en/kling-v3-video.json) - [claude-format-tool-calling-messages](https://docs.foxapi.cc/openapi/en/claude-format-tool-calling-messages.json) - [claude-format-messages](https://docs.foxapi.cc/openapi/en/claude-format-messages.json) - [openai-format-simple-chat](https://docs.foxapi.cc/openapi/zh/openai-format-simple-chat.json) - [minimax-m2.5-api](https://docs.foxapi.cc/openapi/zh/minimax-m2.5-api.json) - [kimi-k2-api](https://docs.foxapi.cc/openapi/zh/kimi-k2-api.json) - [get-credits](https://docs.foxapi.cc/openapi/zh/get-credits.json) - [doubao-seed-2.0-responses-reference](https://docs.foxapi.cc/openapi/zh/doubao-seed-2.0-responses-reference.json) - [doubao-seed-2.0-responses-quickstart](https://docs.foxapi.cc/openapi/zh/doubao-seed-2.0-responses-quickstart.json) - [doubao-seed-2.0-reference](https://docs.foxapi.cc/openapi/zh/doubao-seed-2.0-reference.json) - [doubao-seed-2.0-quickstart](https://docs.foxapi.cc/openapi/zh/doubao-seed-2.0-quickstart.json) - [deepseek-reference](https://docs.foxapi.cc/openapi/zh/deepseek-reference.json)