跳转到主要内容
基础 URL: https://ai.megallm.io/v1 用于所有与 OpenAI 兼容的端点

可用端点

快速示例

from openai import OpenAI

# 初始化客户端
client = OpenAI(
    base_url="https://ai.megallm.io/v1",
    api_key="your-api-key"
)

# 简单的聊天补全
response = client.chat.completions.create(
    model="gpt-4",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    temperature=0.7,
    max_tokens=150
)

print(response.choices[0].message.content)

支持的模型

模型上下文窗口使用场景
gpt-48,192 tokens复杂推理、分析
gpt-4-32k32,768 tokens长文档、大量上下文
gpt-4-turbo128,000 tokens大规模处理
gpt-3.5-turbo16,385 tokens快速、经济高效的响应

功能特性

完全兼容

OpenAI API 的直接替代品 - 无需更改即可使用您现有的代码。

高性能

通过优化的基础设施实现快速响应时间。

使用跟踪

监控您的 API 使用情况和成本。

SDK 支持

MegaLLM 兼容所有 OpenAI 兼容的 SDK:
  • Python: openai 官方 SDK
  • Node.js: openai 官方 SDK
  • Go: go-openai
  • Rust: async-openai
  • Java: openai-java
  • C#: OpenAI-DotNet

速率限制

层级请求/分钟令牌/分钟
基础6090,000
专业300450,000
企业自定义自定义

迁移指南

从 OpenAI 迁移到 MegaLLM 很简单:
# 之前 (OpenAI)
client = OpenAI(api_key="sk-...")

# 之后 (MegaLLM)
client = OpenAI(
    base_url="https://ai.megallm.io/v1",
    api_key="your-api-key"
)
就是这样!您所有现有的代码都可以继续工作。

错误处理

MegaLLM 返回与 OpenAI 兼容的错误响应:
{
  "error": {
    "message": "Invalid request parameter",
    "type": "invalid_request_error",
    "param": "temperature",
    "code": null
  }
}
专业提示: 在开发期间使用 X-Debug: true 标头启用调试模式以获取详细的错误信息。

下一步