使用指南
Dubrify API 详细使用说明,包含所有模型的调用方法和高级功能配置
API接口使用指南
Dubrify API提供统一的API接口标准,完全兼容OpenAI API格式,支持无缝切换。通过一个接口地址即可访问包括OpenAI、Claude、Gemini、Midjourney等在内的所有主流AI模型。
基础配置
API地址
将原始OpenAI API地址替换为Dubrify API地址:
原地址: https://api.openai.com
新地址: https://api.dubrify.com身份认证
在 ai.dubrify.com 生成您的专属 API 密钥
重要提示: 生成令牌时请注意选择分组,不同分组对应不同的服务渠道和计费标准
快速开始
前置要求
参考官方OpenAI文档进行开发环境配置:
Python SDK
安装依赖
pip install openai基础调用示例
from openai import OpenAI
# 初始化客户端
client = OpenAI(
base_url="https://api.dubrify.com/v1",
api_key="sk-your-api-key" # 替换为您的密钥
)
# 发起聊天请求
response = client.chat.completions.create(
model="gpt-4o-mini",
max_tokens=16384,
messages=[
{"role": "user", "content": "你好,介绍一下Dubrify平台"}
]
)
print(response.choices[0].message.content)HTTP 请求示例
标准聊天接口
curl --request POST \
--url https://api.dubrify.com/v1/chat/completions \
--header 'Authorization: Bearer sk-your-api-key' \
--header 'Content-Type: application/json' \
--data '{
"model": "gpt-4o-mini",
"max_tokens": 1024,
"temperature": 0.8,
"top_p": 1,
"presence_penalty": 0,
"messages": [
{
"role": "system",
"content": "你是一个专业的AI助手,擅长回答技术问题。"
},
{
"role": "user",
"content": "请解释一下什么是大语言模型?"
}
]
}'多模态图像理解
curl https://api.dubrify.com/v1/chat/completions \
--header 'Authorization: Bearer sk-your-api-key' \
--header 'Content-Type: application/json' \
--data '{
"model": "gpt-4o",
"max_tokens": 1024,
"messages": [
{
"role": "system",
"content": "你是一个专业的前端开发专家,擅长使用Tailwind CSS"
},
{
"role": "user",
"content": [
{
"type": "text",
"text": "请根据这张图片生成对应的网页代码,使用Tailwind CSS样式"
},
{
"type": "image_url",
"image_url": {
"url": "data:image/jpeg;base64,/9j/4AAQSkZJRgABAQAAAQABAAD/..."
}
}
]
}
]
}'模型支持
OpenAI 系列
支持所有 OpenAI 官方模型:
gpt-4o,gpt-4o-mini— 多模态模型gpt-4.1,gpt-4.1-mini,gpt-4.1-nano— 最新一代模型o3,o4-mini— 推理模型
Anthropic Claude
完全兼容 OpenAI API 格式,只需更换模型名称:
response = client.chat.completions.create(
model="claude-sonnet-4-6", # 使用 Claude 模型
messages=[{"role": "user", "content": "你好"}]
)支持的 Claude 模型:
claude-opus-4-6— 最强性能模型claude-sonnet-4-6— 平衡性能与速度claude-haiku-4-5— 快速响应模型
Google Gemini
同样支持 OpenAI API 格式调用:
response = client.chat.completions.create(
model="gemini-2.5-flash", # 使用 Gemini 模型
messages=[{"role": "user", "content": "Hello Gemini"}]
)支持的 Gemini 模型:
gemini-2.5-pro— 高性能推理模型gemini-2.5-flash— 快速响应模型
xAI Grok
response = client.chat.completions.create(
model="grok-3", # 使用 Grok 模型
messages=[{"role": "user", "content": "Hello Grok"}]
)高级功能
Gemini专属功能
联网搜索
为Gemini模型启用实时搜索功能:
curl -X POST https://api.dubrify.com/v1/chat/completions \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer sk-your-api-key' \
--data '{
"model": "gemini-2.5-flash",
"messages": [
{"role": "user", "content": "2024年最新的AI技术发展趋势是什么?"}
],
"tools": [
{
"type": "function",
"function": {
"name": "googleSearch",
"description": "Search the web for current information",
"parameters": {}
}
}
]
}'代码执行
启用Gemini的代码执行能力:
curl -X POST https://api.dubrify.com/v1/chat/completions \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer sk-your-api-key' \
--data '{
"model": "gemini-2.5-flash",
"messages": [
{"role": "user", "content": "请计算斐波那契数列的前20项,并绘制图表"}
],
"tools": [
{
"type": "function",
"function": {
"name": "codeExecution",
"description": "Execute Python code",
"parameters": {}
}
}
]
}'计费说明
计费模式
基于Token计费
适用于文本生成模型(OpenAI、Claude、Gemini等):
实际费用 = Token数量 × 模型官方单价 × 渠道折扣 × 用户等级折扣按次计费
适用于生成类模型(Midjourney、Suno等):
实际费用 = 调用次数 × 模型固定单价 × 渠道折扣 × 用户等级折扣优惠政策
- 🏢 企业客户: 享受商用优惠定价和专用高速通道
- 📈 大用量客户: 自动升级用户等级,享受更低折扣
- 🔄 动态定价: 价格根据市场情况和成本进行合理调整
最佳实践
性能优化
# 简单任务使用经济模型
simple_response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "翻译这个句子"}]
)
# 复杂任务使用高级模型
complex_response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "分析这份复杂的商业报告"}]
)# ❌ 低效提示
bad_prompt = "帮我写代码"
# ✅ 高效提示
good_prompt = """
作为一个专业的Python开发者,请帮我:
1. 编写一个处理CSV文件的函数
2. 包含错误处理和数据验证
3. 添加详细的注释和文档字符串
4. 返回处理结果的统计信息
"""# 启用流式响应提升用户体验
stream = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "写一篇长文章"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="")安全建议
API密钥管理
import os
from openai import OpenAI
# ✅ 使用环境变量存储密钥
client = OpenAI(
base_url="https://api.dubrify.com/v1",
api_key=os.getenv("API_KEY")
)
# ❌ 不要在代码中硬编码密钥
# api_key="sk-hardcoded-key-in-code" # 危险!内容过滤
# 实现内容安全检查
def safe_chat_completion(user_input):
# 检查输入内容
if contains_sensitive_content(user_input):
return {"error": "Content not allowed"}
# 正常调用API
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": user_input}]
)
return response常见问题
常见错误处理
身份认证失败
try:
response = client.chat.completions.create(...)
except Exception as e:
if "401" in str(e):
print("API密钥无效,请检查密钥是否正确")
elif "403" in str(e):
print("权限不足,请检查账户余额或权限设置")模型不可用
# 模型回退策略
def robust_chat_completion(messages, preferred_model="gpt-4o"):
models = [preferred_model, "gpt-4o-mini", "gpt-3.5-turbo"]
for model in models:
try:
return client.chat.completions.create(
model=model,
messages=messages
)
except Exception as e:
print(f"Model {model} failed: {e}")
continue
raise Exception("All models failed")