API Reference
协议格式说明、认证方式、各端点的请求参数与响应格式。
支持的协议格式
OpenAI 协议
Chat Completions / Embeddings / ModelsSDK Base URL
https://api.silvamux.com/v1OpenAI SDK 的 base_url 需包含 /v1 后缀
认证方式
Authorization: Bearer sk-your-api-keyAnthropic 协议
MessagesSDK Base URL
https://api.silvamux.comAnthropic SDK 的 base_url 不包含 /v1 后缀(SDK 会自动拼接)
认证方式
Authorization: Bearer sk-your-api-key协议差异对照
| 对比项 | OpenAI 协议 | Anthropic 协议 |
|---|---|---|
| Base URL(SDK) | https://api.silvamux.com/v1 | https://api.silvamux.com |
| 认证方式 | Authorization: Bearer sk-xxx | x-api-key: sk-xxx 或 Authorization: Bearer sk-xxx |
| 请求格式 | OpenAI 标准格式 | Anthropic Messages 格式 |
| 响应格式 | OpenAI Chat Completion | OpenAI Chat Completion(统一转换) |
| 流式格式 | data: {json} + data: [DONE] | event: message_start / content_block_delta / message_stop |
| 系统提示词 | messages 数组中 role=system | 独立的 system 参数 |
| max_tokens | 可选 | 必填 |
所有端点均需携带 API Key 进行认证。API Key 通过控制台创建。
OpenAI
Chat Completions / Embeddings / Models千木(SilvaMux)的主要协议。所有主流模型均通过 OpenAI 兼容接口暴露。使用 OpenAI SDK、LangChain、LiteLLM 等工具时,只需修改 base_url 即可接入。
Python SDK
import openai
client = openai.OpenAI(
base_url="https://api.silvamux.com/v1", # ← 注意 /v1 后缀
api_key="sk-your-api-key"
)
# 非流式
resp = client.chat.completions.create(
model="deepseek-v3.2",
messages=[{"role": "user", "content": "你好"}]
)
# 流式
stream = client.chat.completions.create(
model="deepseek-v3.2",
messages=[{"role": "user", "content": "你好"}],
stream=True,
)
for chunk in stream:
print(chunk.choices[0].delta.content, end="")curl
curl https://api.silvamux.com/v1/chat/completions \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3.2",
"messages": [{"role": "user", "content": "你好"}]
}'Anthropic
Messages兼容 Anthropic Messages API 协议的请求格式。适合使用 Anthropic SDK 的开发者接入。请求使用 Anthropic 格式(model, messages, max_tokens, system),响应统一转换为 OpenAI Chat Completion 格式。
Python SDK
import anthropic
client = anthropic.Anthropic(
base_url="https://api.silvamux.com", # ← 不含 /v1 后缀
api_key="sk-your-api-key"
)
resp = client.messages.create(
model="deepseek-v3.2",
max_tokens=1024,
messages=[{"role": "user", "content": "你好"}]
)curl
curl https://api.silvamux.com/v1/messages \
-H "Authorization: Bearer sk-your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3.2",
"max_tokens": 1024,
"messages": [{"role": "user", "content": "你好"}]
}'API 端点
各端点的详细请求参数和响应格式。
/v1/chat/completionsChat Completions
核心对话补全端点。支持非流式和流式(SSE),兼容 OpenAI SDK。支持多轮对话、temperature/top_p 参数透传、stop 序列等全部标准参数。
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| model | string | Yes | 模型 ID,如 deepseek-v3.2、qwen-max-latest、glm-5.1 |
| messages | array | Yes | 消息数组,每项包含 role (system/user/assistant) 和 content |
| max_tokens | integer | No | 最大生成 token 数 |
| temperature | float | No | 采样温度 (0-2),越高越随机 |
| top_p | float | No | 核采样参数 (0-1) |
| stop | array | No | 停止序列,遇到时停止生成 |
| stream | boolean | No | 是否启用流式响应 |
| user | string | No | 终端用户标识,用于计费追踪 |
请求示例
{
"model": "deepseek-v3.2",
"messages": [
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "你好"}
],
"max_tokens": 1000,
"temperature": 0.7,
"top_p": 0.9,
"stream": false
}响应示例
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1712345678,
"model": "deepseek-v3.2",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!有什么我可以帮助你的吗?"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 15,
"completion_tokens": 20,
"total_tokens": 35
}
}/v1/messagesMessages
Anthropic Messages API 协议端点。请求使用 Anthropic 格式(model, messages, max_tokens, system),响应统一转换为 OpenAI Chat Completion 格式。适合使用 Anthropic SDK 的开发者接入。
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| model | string | Yes | 模型 ID |
| messages | array | Yes | 消息数组,每项包含 role (user/assistant) 和 content (string 或 ContentBlock 数组) |
| max_tokens | integer | Yes | 最大生成 token 数(Anthropic 协议必填) |
| system | string | No | 系统提示词 |
| temperature | float | No | 采样温度 |
| top_p | float | No | 核采样参数 |
| stop_sequences | array | No | 停止序列 |
| stream | boolean | No | 是否启用流式响应(Anthropic SSE 格式) |
请求示例
{
"model": "deepseek-v3.2",
"max_tokens": 1024,
"system": "你是一个有帮助的助手。",
"messages": [
{"role": "user", "content": "你好"}
],
"stream": false
}响应示例
{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"created": 1712345678,
"model": "deepseek-v3.2",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!有什么我可以帮助你的吗?"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 25,
"completion_tokens": 20,
"total_tokens": 45
}
}/v1/embeddingsEmbeddings
文本向量化端点,将文本转换为稠密向量。支持单条和批量输入,返回浮点数组。常用于语义搜索、RAG、文本聚类等场景。
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| model | string | Yes | Embedding 模型 ID,如 text-embedding-v3 |
| input | string | array | Yes | 单条文本或文本数组(批量模式) |
| encoding_format | string | No | 向量格式,仅支持 "float" |
请求示例
{
"model": "text-embedding-v3",
"input": "hello world",
"encoding_format": "float"
}响应示例
{
"object": "list",
"data": [
{
"object": "embedding",
"embedding": [0.0123, -0.0456, 0.0789, ...],
"index": 0
}
],
"model": "text-embedding-v3",
"usage": {
"prompt_tokens": 2,
"total_tokens": 2
}
}/v1/modelsModels
获取当前可用的模型列表。返回 OpenAI SDK 兼容格式,包含模型 ID、显示名称、所属供应商等信息。通常在初始化 SDK 时调用一次。
请求参数
响应示例
{
"object": "list",
"data": [
{
"id": "deepseek-v3.2",
"object": "model",
"created": 1712345678,
"owned_by": "alibaba",
"display_name": "DeepSeek V3.2",
"capabilities": ["chat", "stream"]
}
]
}/api/v1/models无需认证Models (Public)
公开的模型列表端点,无需认证即可访问。返回所有可用模型及其配置信息。