Перейти к основному содержанию

Изучите продвинутые функции

Изучите документацию

Создайте реальные приложения

1. Чат-бот

Создайте интеллектуального чат-бота:
from openai import OpenAI

client = OpenAI(
    base_url="https://ai.megallm.io/v1",
    api_key="your-key"
)

def chatbot(user_message, history=[]):
    history.append({"role": "user", "content": user_message})

    response = client.chat.completions.create(
        model="gpt-4",
        messages=history
    )

    assistant_message = response.choices[0].message.content
    history.append({"role": "assistant", "content": assistant_message})

    return assistant_message, history

2. Генератор контента

Генерируйте блог-посты, электронные письма или контент для социальных сетей:
def generate_content(topic, content_type="blog"):
    prompts = {
        "blog": f"Write a comprehensive blog post about {topic}",
        "email": f"Write a professional email about {topic}",
        "tweet": f"Write an engaging tweet about {topic}"
    }

    response = client.chat.completions.create(
        model="claude-3.5-sonnet",
        messages=[{"role": "user", "content": prompts[content_type]}],
        temperature=0.7
    )

    return response.choices[0].message.content

3. Ассистент по кодированию

Создайте помощника по программированию:
def code_assistant(task, language="python"):
    prompt = f"Write {language} code to {task}. Include comments and error handling."

    response = client.chat.completions.create(
        model="gpt-4",
        messages=[{"role": "user", "content": prompt}],
        temperature=0.2  # Более низкая температура для более детерминированного кода
    )

    return response.choices[0].message.content

4. Анализатор данных

Анализируйте данные и генерируйте идеи:
def analyze_data(data_description):
    prompt = f"""
    Analyze this data and provide insights:
    {data_description}

    Provide:
    1. Key findings
    2. Trends
    3. Recommendations
    """

    response = client.chat.completions.create(
        model="claude-opus-4-1-20250805",  # Лучше всего для анализа
        messages=[{"role": "user", "content": prompt}]
    )

    return response.choices[0].message.content

Лучшие практики

  • GPT-4: Лучше всего для сложных рассуждений
  • GPT-3.5 Turbo: Быстро и экономично
  • Claude Opus: Отлично для анализа и длинного контекста
  • Claude Sonnet: Сбалансированная производительность
  • Gemini Pro: Сильные мультимодальные возможности
См. каталог моделей для подробного сравнения.
  • Начните с более дешевых моделей для тестирования
  • Используйте max_tokens для ограничения длины ответа
  • Кэшируйте ответы, когда это возможно
  • Используйте потоковую передачу для улучшения воспринимаемой производительности
  • Отслеживайте использование в вашей панели управления
from openai import OpenAI, AuthenticationError, RateLimitError
import time

def make_request_with_retry(messages, max_retries=3):
    for attempt in range(max_retries):
        try:
            return client.chat.completions.create(
                model="gpt-4",
                messages=messages
            )
        except RateLimitError:
            if attempt < max_retries - 1:
                time.sleep(2 ** attempt)  # Экспоненциальная задержка
            else:
                raise
        except AuthenticationError:
            print("Invalid API key")
            raise
  • Будьте конкретны и ясны
  • Предоставляйте примеры при необходимости
  • Используйте системные сообщения для установки контекста
  • Разбивайте сложные задачи на шаги
  • Тестируйте разные настройки температуры
  • Отслеживайте историю разговора
  • Ограничивайте историю, чтобы избежать лимитов токенов
  • Суммируйте старые сообщения при необходимости
  • Используйте кэширование промптов для повторяющегося контента

Соображения для production

Безопасность

  • Храните API-ключи в переменных окружения
  • Никогда не коммитьте ключи в систему контроля версий
  • Используйте разные ключи для dev/staging/production
  • Регулярно меняйте ключи
  • Отслеживайте использование на предмет аномалий

Производительность

  • Используйте потоковую передачу для лучшего UX
  • Реализуйте кэширование там, где это уместно
  • Добавьте логику повторных попыток с экспоненциальной задержкой
  • Отслеживайте время ответа
  • Рассмотрите использование вебхуков для асинхронных операций

Мониторинг

  • Отслеживайте использование токенов
  • Мониторьте частоту ошибок
  • Логируйте API-запросы (без конфиденциальных данных)
  • Настройте оповещения для лимитов квот
  • Регулярно проверяйте затраты

Масштабирование

  • Реализуйте ограничение скорости
  • Используйте очереди для большого объема запросов
  • Кэшируйте общие ответы
  • Рассмотрите пакетирование запросов
  • Планируйте стратегии отказоустойчивости

Присоединяйтесь к сообществу

Получить помощь

Большинство распространенных вопросов отвечены в нашем FAQ.
Полные руководства доступны в документации для разработчиков.
Напишите нам на support@megallm.io для технической помощи.
Нашли баг? Сообщите об этом на GitHub.

Полезные ресурсы

Готовы создавать?

Начните создавать своё AI-приложение сегодня. Если вам нужна помощь, мы здесь для вас!