基础 URL:
https://ai.megallm.io/v1 用于所有与 OpenAI 兼容的端点可用端点
Chat Completions
使用 GPT 模型生成对话响应
流式传输
使用服务器发送事件实现实时流式响应
函数调用
执行函数和工具,支持并行调用
模型
浏览可用的模型和功能
快速示例
支持的模型
| 模型 | 上下文窗口 | 使用场景 |
|---|---|---|
gpt-4 | 8,192 tokens | 复杂推理、分析 |
gpt-4-32k | 32,768 tokens | 长文档、大量上下文 |
gpt-4-turbo | 128,000 tokens | 大规模处理 |
gpt-3.5-turbo | 16,385 tokens | 快速、经济高效的响应 |
功能特性
完全兼容
OpenAI API 的直接替代品 - 无需更改即可使用您现有的代码。高性能
通过优化的基础设施实现快速响应时间。使用跟踪
监控您的 API 使用情况和成本。SDK 支持
MegaLLM 兼容所有 OpenAI 兼容的 SDK:- Python:
openai官方 SDK - Node.js:
openai官方 SDK - Go:
go-openai - Rust:
async-openai - Java:
openai-java - C#:
OpenAI-DotNet
速率限制
| 层级 | 请求/分钟 | 令牌/分钟 |
|---|---|---|
| 基础 | 60 | 90,000 |
| 专业 | 300 | 450,000 |
| 企业 | 自定义 | 自定义 |
迁移指南
从 OpenAI 迁移到 MegaLLM 很简单:错误处理
MegaLLM 返回与 OpenAI 兼容的错误响应:下一步
- 探索 Chat Completions 了解对话式 AI
- 了解 函数调用 以进行工具集成
- 实现 流式传输 以获得实时响应

