API Reference

协议格式说明、认证方式、各端点的请求参数与响应格式。

支持的协议格式

OpenAI 协议

Chat Completions / Embeddings / Models

SDK Base URL

https://api.silvamux.com/v1

OpenAI SDK 的 base_url 需包含 /v1 后缀

认证方式

Authorization: Bearer sk-your-api-key

Anthropic 协议

Messages

SDK Base URL

https://api.silvamux.com

Anthropic SDK 的 base_url 不包含 /v1 后缀(SDK 会自动拼接)

认证方式

Authorization: Bearer sk-your-api-key

协议差异对照

对比项OpenAI 协议Anthropic 协议
Base URL(SDK)https://api.silvamux.com/v1https://api.silvamux.com
认证方式Authorization: Bearer sk-xxxx-api-key: sk-xxx 或 Authorization: Bearer sk-xxx
请求格式OpenAI 标准格式Anthropic Messages 格式
响应格式OpenAI Chat CompletionOpenAI Chat Completion(统一转换)
流式格式data: {json} + data: [DONE]event: message_start / content_block_delta / message_stop
系统提示词messages 数组中 role=system独立的 system 参数
max_tokens可选必填

所有端点均需携带 API Key 进行认证。API Key 通过控制台创建。

OpenAI

Chat Completions / Embeddings / Models

千木(SilvaMux)的主要协议。所有主流模型均通过 OpenAI 兼容接口暴露。使用 OpenAI SDK、LangChain、LiteLLM 等工具时,只需修改 base_url 即可接入。

Python SDK

import openai

client = openai.OpenAI(
    base_url="https://api.silvamux.com/v1",  # ← 注意 /v1 后缀
    api_key="sk-your-api-key"
)

# 非流式
resp = client.chat.completions.create(
    model="deepseek-v3.2",
    messages=[{"role": "user", "content": "你好"}]
)

# 流式
stream = client.chat.completions.create(
    model="deepseek-v3.2",
    messages=[{"role": "user", "content": "你好"}],
    stream=True,
)
for chunk in stream:
    print(chunk.choices[0].delta.content, end="")

curl

curl https://api.silvamux.com/v1/chat/completions \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3.2",
    "messages": [{"role": "user", "content": "你好"}]
  }'

Anthropic

Messages

兼容 Anthropic Messages API 协议的请求格式。适合使用 Anthropic SDK 的开发者接入。请求使用 Anthropic 格式(model, messages, max_tokens, system),响应统一转换为 OpenAI Chat Completion 格式。

Python SDK

import anthropic

client = anthropic.Anthropic(
    base_url="https://api.silvamux.com",  # ← 不含 /v1 后缀
    api_key="sk-your-api-key"
)

resp = client.messages.create(
    model="deepseek-v3.2",
    max_tokens=1024,
    messages=[{"role": "user", "content": "你好"}]
)

curl

curl https://api.silvamux.com/v1/messages \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3.2",
    "max_tokens": 1024,
    "messages": [{"role": "user", "content": "你好"}]
  }'

API 端点

各端点的详细请求参数和响应格式。

POST/v1/chat/completions

Chat Completions

核心对话补全端点。支持非流式和流式(SSE),兼容 OpenAI SDK。支持多轮对话、temperature/top_p 参数透传、stop 序列等全部标准参数。

请求参数

参数类型必填说明
modelstringYes模型 ID,如 deepseek-v3.2、qwen-max-latest、glm-5.1
messagesarrayYes消息数组,每项包含 role (system/user/assistant) 和 content
max_tokensintegerNo最大生成 token 数
temperaturefloatNo采样温度 (0-2),越高越随机
top_pfloatNo核采样参数 (0-1)
stoparrayNo停止序列,遇到时停止生成
streambooleanNo是否启用流式响应
userstringNo终端用户标识,用于计费追踪

请求示例

{
  "model": "deepseek-v3.2",
  "messages": [
    {"role": "system", "content": "你是一个有帮助的助手。"},
    {"role": "user", "content": "你好"}
  ],
  "max_tokens": 1000,
  "temperature": 0.7,
  "top_p": 0.9,
  "stream": false
}

响应示例

{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1712345678,
  "model": "deepseek-v3.2",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "你好!有什么我可以帮助你的吗?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 15,
    "completion_tokens": 20,
    "total_tokens": 35
  }
}
流式说明: 设置 `"stream": true` 后返回 SSE 格式。每个 chunk 为 `data: {json}`,最后以 `data: [DONE]` 结束。拼接所有 `choices[0].delta.content` 即可得到完整响应。
POST/v1/messages

Messages

Anthropic Messages API 协议端点。请求使用 Anthropic 格式(model, messages, max_tokens, system),响应统一转换为 OpenAI Chat Completion 格式。适合使用 Anthropic SDK 的开发者接入。

请求参数

参数类型必填说明
modelstringYes模型 ID
messagesarrayYes消息数组,每项包含 role (user/assistant) 和 content (string 或 ContentBlock 数组)
max_tokensintegerYes最大生成 token 数(Anthropic 协议必填)
systemstringNo系统提示词
temperaturefloatNo采样温度
top_pfloatNo核采样参数
stop_sequencesarrayNo停止序列
streambooleanNo是否启用流式响应(Anthropic SSE 格式)

请求示例

{
  "model": "deepseek-v3.2",
  "max_tokens": 1024,
  "system": "你是一个有帮助的助手。",
  "messages": [
    {"role": "user", "content": "你好"}
  ],
  "stream": false
}

响应示例

{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1712345678,
  "model": "deepseek-v3.2",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "你好!有什么我可以帮助你的吗?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 20,
    "total_tokens": 45
  }
}
流式说明: 设置 `"stream": true` 后返回 Anthropic SSE 格式(event: message_start / content_block_delta / message_stop),与 OpenAI SSE 的 `data: [DONE]` 格式不同。
POST/v1/embeddings

Embeddings

文本向量化端点,将文本转换为稠密向量。支持单条和批量输入,返回浮点数组。常用于语义搜索、RAG、文本聚类等场景。

请求参数

参数类型必填说明
modelstringYesEmbedding 模型 ID,如 text-embedding-v3
inputstring | arrayYes单条文本或文本数组(批量模式)
encoding_formatstringNo向量格式,仅支持 "float"

请求示例

{
  "model": "text-embedding-v3",
  "input": "hello world",
  "encoding_format": "float"
}

响应示例

{
  "object": "list",
  "data": [
    {
      "object": "embedding",
      "embedding": [0.0123, -0.0456, 0.0789, ...],
      "index": 0
    }
  ],
  "model": "text-embedding-v3",
  "usage": {
    "prompt_tokens": 2,
    "total_tokens": 2
  }
}
注意: OpenAI SDK 默认发送 encoding_format="base64",DashScope 上游仅支持 "float"。使用 SDK 时需显式传入 encoding_format="float"。
GET/v1/models

Models

获取当前可用的模型列表。返回 OpenAI SDK 兼容格式,包含模型 ID、显示名称、所属供应商等信息。通常在初始化 SDK 时调用一次。

请求参数

响应示例

{
  "object": "list",
  "data": [
    {
      "id": "deepseek-v3.2",
      "object": "model",
      "created": 1712345678,
      "owned_by": "alibaba",
      "display_name": "DeepSeek V3.2",
      "capabilities": ["chat", "stream"]
    }
  ]
}
GET/api/v1/models无需认证

Models (Public)

公开的模型列表端点,无需认证即可访问。返回所有可用模型及其配置信息。