基础 URL: https://ai.megallm.io/v1 用于所有与 OpenAI 兼容的端点
可用端点
快速示例
from openai import OpenAI
# 初始化客户端
client = OpenAI(
base_url="https://ai.megallm.io/v1",
api_key="your-api-key"
)
# 简单的聊天补全
response = client.chat.completions.create(
model="gpt-4",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
temperature=0.7,
max_tokens=150
)
print(response.choices[0].message.content)
支持的模型
| 模型 | 上下文窗口 | 使用场景 |
|---|
gpt-4 | 8,192 tokens | 复杂推理、分析 |
gpt-4-32k | 32,768 tokens | 长文档、大量上下文 |
gpt-4-turbo | 128,000 tokens | 大规模处理 |
gpt-3.5-turbo | 16,385 tokens | 快速、经济高效的响应 |
功能特性
完全兼容
OpenAI API 的直接替代品 - 无需更改即可使用您现有的代码。
高性能
通过优化的基础设施实现快速响应时间。
使用跟踪
监控您的 API 使用情况和成本。
SDK 支持
MegaLLM 兼容所有 OpenAI 兼容的 SDK:
- Python:
openai 官方 SDK
- Node.js:
openai 官方 SDK
- Go:
go-openai
- Rust:
async-openai
- Java:
openai-java
- C#:
OpenAI-DotNet
速率限制
| 层级 | 请求/分钟 | 令牌/分钟 |
|---|
| 基础 | 60 | 90,000 |
| 专业 | 300 | 450,000 |
| 企业 | 自定义 | 自定义 |
迁移指南
从 OpenAI 迁移到 MegaLLM 很简单:
# 之前 (OpenAI)
client = OpenAI(api_key="sk-...")
# 之后 (MegaLLM)
client = OpenAI(
base_url="https://ai.megallm.io/v1",
api_key="your-api-key"
)
就是这样!您所有现有的代码都可以继续工作。
错误处理
MegaLLM 返回与 OpenAI 兼容的错误响应:
{
"error": {
"message": "Invalid request parameter",
"type": "invalid_request_error",
"param": "temperature",
"code": null
}
}
专业提示: 在开发期间使用 X-Debug: true 标头启用调试模式以获取详细的错误信息。
下一步