Codex и Windsurf используют формат конфигурации TOML и поддерживают только системную (глобальную) конфигурацию. CLI автоматически определяет, какой вариант у вас установлен.
Windsurf — это вариант Codex с расширенными функциями. Конфигурация идентична для обоих.
Файл конфигурации
Расположение : ~/.codex/config.toml
model_provider = "megallm"
model = "gpt-5"
[ model_providers . megallm ]
name = "OpenAI using Chat Completions"
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY"
query_params = {}
[ tools ]
web_search = true
file_browser = true
Codex/Windsurf поддерживает только системную конфигурацию. Конфигурация на уровне проекта недоступна.
Переменная окружения
Конфигурация ссылается на переменную окружения для API-ключа:
export MEGALLM_API_KEY = "sk-mega-your-api-key-here"
Она добавляется в файл конфигурации вашей оболочки:
~/.bashrc (bash)
~/.zshrc (zsh)
~/.config/fish/config.fish (fish)
Профиль PowerShell (Windows)
Проверка переменной окружения
echo $MEGALLM_API_KEY
# Вывод: sk-mega-your-api-key-here
Ручная настройка
Если вы предпочитаете не использовать CLI:
# 1. Создайте каталог
mkdir -p ~/.codex
# 2. Создайте файл конфигурации
cat > ~/.codex/config.toml << 'EOF'
model_provider = "megallm"
model = "gpt-5"
[model_providers.megallm]
name = "OpenAI using Chat Completions"
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY"
query_params = {}
[tools]
web_search = true
file_browser = true
EOF
# 3. Добавьте переменную окружения в конфигурацию оболочки
echo 'export MEGALLM_API_KEY="your-api-key"' >> ~/.bashrc
# 4. Перезагрузите оболочку
source ~/.bashrc
Параметры конфигурации
Выбор модели
Измените модель по умолчанию в конфигурации:
model = "claude-opus-4-1-20250805" # или любая поддерживаемая модель
Доступные модели:
gpt-5 - Последняя модель GPT
gpt-4 - GPT-4
gpt-4o - GPT-4 оптимизированная
claude-opus-4-1-20250805 - Claude Opus
claude-sonnet-4 - Claude Sonnet
gemini-2.5-pro - Gemini Pro
Смотрите Каталог моделей для полного списка
Настройки инструментов
Включите или отключите встроенные инструменты:
[ tools ]
web_search = true # Включить возможность веб-поиска
file_browser = true # Включить файловый браузер
terminal = true # Включить доступ к терминалу
code_execution = true # Включить выполнение кода
Расширенная конфигурация
model_provider = "megallm"
model = "gpt-5"
temperature = 0.7
max_tokens = 4096
top_p = 0.9
[ model_providers . megallm ]
name = "OpenAI using Chat Completions"
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY"
query_params = {}
[ tools ]
web_search = true
file_browser = true
terminal = true
[ ui ]
theme = "dark"
font_size = 14
show_line_numbers = true
Несколько API-ключей
Если вам нужны разные API-ключи для разных целей:
Использование переменных окружения
# Ключ разработки
export MEGALLM_API_KEY = "sk-mega-dev-key"
# Производственный ключ
export MEGALLM_API_KEY_PROD = "sk-mega-prod-key"
Переключение конфигураций
# Создайте резервную копию текущей конфигурации
cp ~/.codex/config.toml ~/.codex/config.toml.backup
# Конфигурация разработки
cat > ~/.codex/config.toml.dev << 'EOF'
model_provider = "megallm"
model = "gpt-4o-mini"
[model_providers.megallm]
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY_DEV"
EOF
# Производственная конфигурация
cat > ~/.codex/config.toml.prod << 'EOF'
model_provider = "megallm"
model = "gpt-5"
[model_providers.megallm]
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY_PROD"
EOF
# Переключиться на dev
cp ~/.codex/config.toml.dev ~/.codex/config.toml
# Переключиться на prod
cp ~/.codex/config.toml.prod ~/.codex/config.toml
Специфичные функции Windsurf
Windsurf включает дополнительные параметры конфигурации:
model_provider = "megallm"
model = "gpt-5"
[ model_providers . megallm ]
name = "OpenAI using Chat Completions"
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY"
query_params = {}
[ windsurf ]
cascade_mode = true # Включить функцию Cascade AI
multi_file_edit = true # Разрешить редактирование нескольких файлов
context_awareness = "enhanced" # enhanced, standard, minimal
[ tools ]
web_search = true
file_browser = true
terminal = true
supercomplete = true # Функция автодополнения Windsurf
Проверка
Проверка файла конфигурации
# Просмотр конфигурации
cat ~/.codex/config.toml
# Проверка синтаксиса TOML (если установлен toml-cli)
toml-check ~/.codex/config.toml
# Проверка прав доступа к файлу
ls -la ~/.codex/config.toml
Тест подключения к API
# Тест API с вашими учетными данными
curl -H "Authorization: Bearer $MEGALLM_API_KEY " \
-H "Content-Type: application/json" \
https://ai.megallm.io/v1/models
# Должен вернуть список доступных моделей
Тест Codex/Windsurf
# Запуск Codex/Windsurf
codex # или 'windsurf'
# Проверка версии
codex --version # или 'windsurf --version'
Устранение неполадок
Файл конфигурации не найден
Проверьте, существует ли каталог: Создайте, если отсутствует: mkdir -p ~/.codex
# Затем создайте config.toml
Проверьте путь к файлу: # Должен быть точно:
~ /.codex/config.toml
# Не:
~ /.config/codex/config.toml # <Icon icon="xmark" /> Неправильное расположение
Проверьте, что переменная окружения установлена: Если пусто: # Добавьте в конфигурацию оболочки
echo 'export MEGALLM_API_KEY="your-key"' >> ~/.bashrc
source ~/.bashrc
Проверьте формат ключа:
Должен начинаться с sk-mega-
Как минимум 20 символов
Без лишних пробелов или кавычек
Протестируйте ключ: curl -H "Authorization: Bearer $MEGALLM_API_KEY " \
https://ai.megallm.io/v1/models
Используется неправильный провайдер модели
Проверьте файл конфигурации: cat ~/.codex/config.toml | grep model_provider
# Должно показать: model_provider = "megallm"
Проверьте base_url: cat ~/.codex/config.toml | grep base_url
# Должно показать: base_url = "https://ai.megallm.io/v1"
Убедитесь в отсутствии опечаток: model_provider = "megallm" # <Icon icon="check" /> Правильно
# model_provider = "megalm" # <Icon icon="xmark" /> Неправильно (опечатка)
# model_provider = "openai" # <Icon icon="xmark" /> Неправильно (другой провайдер)
Проверьте синтаксис: # Если у вас установлен toml-cli
toml-check ~/.codex/config.toml
# Или используйте Python
python3 -c "import tomli; tomli.load(open('~/.codex/config.toml', 'rb'))"
Распространенные ошибки TOML: # <Icon icon="xmark" /> Неправильно - отсутствуют кавычки
model_provider = m egallm
# <Icon icon="check" /> Правильно
model_provider = "megallm"
# <Icon icon="xmark" /> Неправильно - неправильный синтаксис секции
model_providers.megallm
base_url = "..."
# <Icon icon="check" /> Правильно
[ model_providers . megallm ]
base_url = "..."
Codex/Windsurf не обнаруживает конфигурацию
Перезапустите Codex/Windsurf: # Закройте все экземпляры
pkill codex # или 'pkill windsurf'
# Запустите заново
codex # или 'windsurf'
Проверьте наличие нескольких файлов конфигурации: find ~ -name "config.toml" -path "*/.codex/*"
# Должен показать только один файл
Проверьте права доступа: chmod 644 ~/.codex/config.toml
Почему только системный уровень?
Codex и Windsurf не поддерживают конфигурацию на уровне проекта, потому что:
Единственный экземпляр - Codex/Windsurf работает как единственный экземпляр для всех проектов
Глобальные настройки - Настройки инструментов применяются в масштабах всей системы
Упрощенное управление - Одна конфигурация для управления
Обходной путь для ключей, специфичных для проекта:
Используйте переменные окружения в вашем проекте:
# В каталоге проекта
cat > .env << 'EOF'
MEGALLM_API_KEY=project-specific-key
EOF
# Загрузите перед запуском Codex
source .env && codex
Или создайте псевдонимы оболочки:
# В ~/.bashrc или ~/.zshrc
alias codex-project-a = 'MEGALLM_API_KEY="key-for-project-a" codex'
alias codex-project-b = 'MEGALLM_API_KEY="key-for-project-b" codex'
Лучшие практики
Резервная копия конфигурации Храните резервную копию config.toml перед внесением изменений
Используйте переменные окружения Храните API-ключи в переменных окружения, а не в файле конфигурации
Контроль версий Вы можете закоммитить config.toml, если используется env_key (без жестко закодированных ключей)
Регулярные обновления Поддерживайте Codex/Windsurf в актуальном состоянии для последних функций
Сравнение: Codex против Windsurf
Функция Codex Windsurf Базовая конфигурация Поддержка MegaLLM Расположение конфигурации ~/.codex/~/.codex/Cascade AI Supercomplete Редактирование нескольких файлов Базовое Расширенное
И Codex, и Windsurf используют одно и то же расположение и формат файла конфигурации.
Следующие шаги