阅丞集团API服务接口
使用分配的API密钥访问以下接口,获取服务支持
API接口使用说明
API访问地址
https://yuechengjituan.vip/API/endpoint.php
支持的模型
DeepSeek Chat
通用对话模型,适用于日常对话和一般性问题解答
DeepSeek Reasoner
思考模式模型,适用于需要复杂推理和分析的任务
请求方式
使用POST方法发送请求,包含以下参数:
参数 | 类型 | 必填 | 说明 |
---|---|---|---|
api_key | String | 是 | 分配给您的API密钥 |
prompt | String | 是 | 您的请求内容 |
max_tokens | Integer | 否 | 最大返回tokens数量,默认100,最大2000 |
stream | Boolean | 否 | 是否启用流式输出,默认false |
model | String | 否 | 选择使用的模型,可选值:deepseek-chat(默认)或 deepseek-reasoner(思考模式) |
示例代码(Python - 普通模式)
import requests
url = "https://yuechengjituan.vip/API/endpoint.php"
data = {
"api_key": "您的API密钥",
"prompt": "您的请求内容",
"max_tokens": 100,
"model": "deepseek-chat" # 或 "deepseek-reasoner" 使用思考模式
}
response = requests.post(url, data=data)
print(response.json())
示例代码(Python - 思考模式)
import requests
url = "https://yuechengjituan.vip/API/endpoint.php"
data = {
"api_key": "您的API密钥",
"prompt": "需要复杂推理的问题内容",
"max_tokens": 500,
"model": "deepseek-reasoner" # 使用思考模式
}
response = requests.post(url, data=data)
print(response.json())
示例代码(Python - 流式模式)
import requests
url = "https://yuechengjituan.vip/API/endpoint.php"
data = {
"api_key": "您的API密钥",
"prompt": "您的请求内容",
"max_tokens": 100,
"stream": True,
"model": "deepseek-chat" # 或 "deepseek-reasoner" 使用思考模式
}
response = requests.post(url, data=data, stream=True)
for line in response.iter_lines():
if line:
decoded_line = line.decode('utf-8')
print(decoded_line)
响应格式(普通模式)
{
"success": true,
"answer": "API返回的内容",
"model": "deepseek-chat", // 显示实际使用的模型
"api_usage": {
"used_requests": 15,
"used_tokens": 85,
"remaining_requests": 85,
"remaining_tokens": 15
}
}
响应格式(流式模式)
data: {"success": true, "chunk": "返回内容的第一部分"}
data: {"success": true, "chunk": "返回内容的第二部分"}
data: {"success": true, "chunk": "返回内容的第三部分"}
data: {"success": true, "finished": true, "tokens_used": 42}
DeepSeek模型计费标准
计费类型 | 计费单位 | 单价(人民币) | 核心说明 |
---|---|---|---|
输入 Tokens (缓存未命中) |
每百万 Tokens | 4 元 | 适用于首次提交的输入内容、未被系统缓存的个性化输入,按实际消耗的 Token 数量计费 |
输入 Tokens (缓存命中) |
每百万 Tokens | 0.5 元 | 适用于重复提交的相同输入内容、已被系统缓存的标准化输入,享受优惠单价 |
输出 Tokens | 每百万 Tokens | 12 元 | 指模型根据用户输入生成的回复文本,按回复内容实际占用的 Token 数量计费 |
补充说明
- Token 计量规则:采用行业通用的 Token 计数标准,中文文本约每 2-3 个汉字对应 1 个 Token,英文单词约每 1 个单词对应 1 个 Token(含空格和标点)
- 缓存机制说明:系统缓存周期为 7 天,同一用户在 7 天内提交的完全一致输入内容,将优先匹配缓存数据并按"缓存命中"价格计费
- 扣费方式:费用按实际使用量实时结算,从用户在阅丞集团的服务账户余额中扣除
- 价格有效期:本计费标准自发布之日起生效,阅丞集团有权根据市场情况及模型服务成本调整价格
- 模型选择:所有模型(包括DeepSeek Chat和DeepSeek Reasoner)均采用相同的计费标准