Базовый URL:
https://ai.megallm.io/v1 для всех OpenAI-совместимых эндпоинтовДоступные эндпоинты
Chat Completions
Генерируйте разговорные ответы с моделями GPT
Потоковая передача
Потоковые ответы в реальном времени с Server-Sent Events
Вызов функций
Выполняйте функции и инструменты с параллельной поддержкой
Модели
Просмотрите доступные модели и возможности
Быстрый пример
Поддерживаемые модели
| Модель | Контекстное окно | Применение |
|---|---|---|
gpt-4 | 8,192 токенов | Сложные рассуждения, анализ |
gpt-4-32k | 32,768 токенов | Длинные документы, обширный контекст |
gpt-4-turbo | 128,000 токенов | Масштабная обработка |
gpt-3.5-turbo | 16,385 токенов | Быстрые, экономичные ответы |
Возможности
Полная совместимость
Замена OpenAI API без изменений - используйте ваш существующий код без изменений.Высокая производительность
Быстрое время отклика с оптимизированной инфраструктурой.Отслеживание использования
Отслеживайте использование API и затраты.Поддержка SDK
MegaLLM работает со всеми OpenAI-совместимыми SDK:- Python: официальный SDK
openai - Node.js: официальный SDK
openai - Go:
go-openai - Rust:
async-openai - Java:
openai-java - C#:
OpenAI-DotNet
Ограничения скорости
| Уровень | Запросов/мин | Токенов/мин |
|---|---|---|
| Basic | 60 | 90,000 |
| Pro | 300 | 450,000 |
| Enterprise | Настраиваемо | Настраиваемо |
Руководство по миграции
Миграция с OpenAI на MegaLLM проста:Обработка ошибок
MegaLLM возвращает OpenAI-совместимые ответы об ошибках:Следующие шаги
- Изучите Chat Completions для разговорного ИИ
- Узнайте о вызове функций для интеграции инструментов
- Реализуйте потоковую передачу для ответов в реальном времени

