请求推理 API
该接口完全兼容 OpenAI Chat Completions API。
接口信息
- URL:
https://api.magikcloud.cn/v1/chat/completions
- Method:
POST
- Content-Type:
application/json
请求参数
| 参数名 |
必选 |
说明 |
Authorization |
是 |
Bearer <API_KEY> |
Content-Type |
是 |
application/json |
Body
| 参数名 |
类型 |
必选 |
说明 |
model |
string |
是 |
模型 ID。 |
messages |
list |
是 |
包含对话历史的消息列表。 |
stream |
boolean |
否 |
是否流式返回。默认为 false。 |
temperature |
float |
否 |
采样温度,范围 0-2。默认为 1。 |
top_p |
float |
否 |
核采样概率。默认为 1。 |
n |
integer |
否 |
为每条输入消息生成的补全选项数量。默认为 1。 |
max_tokens |
integer |
否 |
生成的最大 token 数。 |
stop |
string/list |
否 |
停止生成的 token 序列。 |
presence_penalty |
float |
否 |
存在惩罚,范围 -2.0 到 2.0。 |
frequency_penalty |
float |
否 |
频率惩罚,范围 -2.0 到 2.0。 |
logit_bias |
map |
否 |
修改指定 token 出现的可能性。 |
user |
string |
否 |
代表终端用户的唯一标识符。 |
Message 对象
| 字段 |
类型 |
说明 |
role |
string |
system, user, assistant 或 tool。 |
content |
string |
消息内容。 |
响应结构
非流式 (stream=false)
{
"id": "chatcmpl-123",
"object": "chat.completion",
"created": 1677652288,
"model": "deepseek-v3",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "Hello!"
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 9,
"completion_tokens": 12,
"total_tokens": 21
}
}
流式 (stream=true)
响应为 Server-Sent Events (SSE) 格式。
data: {"id":"chatcmpl-123","object":"chat.completion.chunk","created":1694268190,"model":"deepseek-v3","choices":[{"index":0,"delta":{"role":"assistant","content":""},"finish_reason":null}]}
data: {"id":"chatcmpl-123","object":"chat.completion.chunk","created":1694268190,"model":"deepseek-v3","choices":[{"index":0,"delta":{"content":"Hello"},"finish_reason":null}]}
data: {"id":"chatcmpl-123","object":"chat.completion.chunk","created":1694268190,"model":"deepseek-v3","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]}
data: [DONE]