Codex и Windsurf используют формат конфигурации TOML и поддерживают только конфигурацию системного уровня (глобальную). CLI автоматически определяет, какой вариант у вас установлен.
Windsurf - это вариант Codex с расширенными функциями. Конфигурация идентична для обоих.
Файл конфигурации
Расположение : ~/.codex/config.toml
model_provider = "megallm"
model = "gpt-5"
[ model_providers . megallm ]
name = "OpenAI using Chat Completions"
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY"
query_params = {}
[ tools ]
web_search = true
file_browser = true
Codex/Windsurf поддерживает только конфигурацию системного уровня. Конфигурация уровня проекта недоступна.
Переменная окружения
Конфигурация ссылается на переменную окружения для API ключа:
export MEGALLM_API_KEY = "sk-mega-your-api-key-here"
Это добавляется в файл конфигурации вашей оболочки:
~/.bashrc (bash)
~/.zshrc (zsh)
~/.config/fish/config.fish (fish)
Профиль PowerShell (Windows)
Проверка переменной окружения
echo $MEGALLM_API_KEY
# Вывод: sk-mega-your-api-key-here
Ручная настройка
Если вы предпочитаете не использовать CLI:
# 1. Создать каталог
mkdir -p ~/.codex
# 2. Создать файл конфигурации
cat > ~/.codex/config.toml << 'EOF'
model_provider = "megallm"
model = "gpt-5"
[model_providers.megallm]
name = "OpenAI using Chat Completions"
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY"
query_params = {}
[tools]
web_search = true
file_browser = true
EOF
# 3. Добавить переменную окружения в конфигурацию оболочки
echo 'export MEGALLM_API_KEY="your-api-key"' >> ~/.bashrc
# 4. Перезагрузить оболочку
source ~/.bashrc
Опции конфигурации
Выбор модели
Измените модель по умолчанию в конфигурации:
model = "claude-opus-4-1-20250805" # или любая поддерживаемая модель
Доступные модели:
gpt-5 - Последняя модель GPT
gpt-4 - GPT-4
gpt-4o - GPT-4 Optimized
claude-opus-4-1-20250805 - Claude Opus
claude-sonnet-4 - Claude Sonnet
gemini-2.5-pro - Gemini Pro
Смотрите Каталог моделей для полного списка
Настройки инструментов
Включите или отключите интегрированные инструменты:
[ tools ]
web_search = true # Включить возможность веб-поиска
file_browser = true # Включить браузер файлов
terminal = true # Включить доступ к терминалу
code_execution = true # Включить выполнение кода
Расширенная конфигурация
model_provider = "megallm"
model = "gpt-5"
temperature = 0.7
max_tokens = 4096
top_p = 0.9
[ model_providers . megallm ]
name = "OpenAI using Chat Completions"
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY"
query_params = {}
[ tools ]
web_search = true
file_browser = true
terminal = true
[ ui ]
theme = "dark"
font_size = 14
show_line_numbers = true
Множественные API ключи
Если вам нужны разные API ключи для разных целей:
Использование переменных окружения
# Ключ для разработки
export MEGALLM_API_KEY = "sk-mega-dev-key"
# Производственный ключ
export MEGALLM_API_KEY_PROD = "sk-mega-prod-key"
Переключение конфигураций
# Создать резервную копию текущей конфигурации
cp ~/.codex/config.toml ~/.codex/config.toml.backup
# Конфигурация для разработки
cat > ~/.codex/config.toml.dev << 'EOF'
model_provider = "megallm"
model = "gpt-4o-mini"
[model_providers.megallm]
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY_DEV"
EOF
# Производственная конфигурация
cat > ~/.codex/config.toml.prod << 'EOF'
model_provider = "megallm"
model = "gpt-5"
[model_providers.megallm]
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY_PROD"
EOF
# Переключить на разработку
cp ~/.codex/config.toml.dev ~/.codex/config.toml
# Переключить на производство
cp ~/.codex/config.toml.prod ~/.codex/config.toml
Функции специфичные для Windsurf
Windsurf включает дополнительные опции конфигурации:
model_provider = "megallm"
model = "gpt-5"
[ model_providers . megallm ]
name = "OpenAI using Chat Completions"
base_url = "https://ai.megallm.io/v1"
env_key = "MEGALLM_API_KEY"
query_params = {}
[ windsurf ]
cascade_mode = true # Включить функцию Cascade AI
multi_file_edit = true # Разрешить редактирование нескольких файлов
context_awareness = "enhanced" # enhanced, standard, minimal
[ tools ]
web_search = true
file_browser = true
terminal = true
supercomplete = true # Функция автодополнения Windsurf
Проверка
Проверка файла конфигурации
# Просмотр конфигурации
cat ~/.codex/config.toml
# Проверка синтаксиса TOML (если установлен toml-cli)
toml-check ~/.codex/config.toml
# Проверка разрешений файла
ls -la ~/.codex/config.toml
Проверка API подключения
# Проверить API с вашими учетными данными
curl -H "Authorization: Bearer $MEGALLM_API_KEY " \
-H "Content-Type: application/json" \
https://ai.megallm.io/v1/models
# Должен вернуть список доступных моделей
Проверка Codex/Windsurf
# Запустить Codex/Windsurf
codex # или 'windsurf'
# Проверить версию
codex --version # или 'windsurf --version'
Устранение неполадок
Файл конфигурации не найден
Проверьте, существует ли каталог: Создайте, если отсутствует: mkdir -p ~/.codex
# Затем создайте config.toml
Проверьте путь к файлу: # Должно быть точно:
~ /.codex/config.toml
# Не:
~ /.config/codex/config.toml # <Icon icon="xmark" /> Неправильное расположение
Проверьте, установлена ли переменная окружения: Если пусто: # Добавить в конфигурацию оболочки
echo 'export MEGALLM_API_KEY="your-key"' >> ~/.bashrc
source ~/.bashrc
Проверьте формат ключа:
Должен начинаться с sk-mega-
Не менее 20 символов
Без лишних пробелов или кавычек
Проверьте ключ: curl -H "Authorization: Bearer $MEGALLM_API_KEY " \
https://ai.megallm.io/v1/models
Используется неправильный провайдер модели
Проверьте файл конфигурации: cat ~/.codex/config.toml | grep model_provider
# Должно показать: model_provider = "megallm"
Проверьте base_url: cat ~/.codex/config.toml | grep base_url
# Должно показать: base_url = "https://ai.megallm.io/v1"
Убедитесь в отсутствии опечаток: model_provider = "megallm" # <Icon icon="check" /> Правильно
# model_provider = "megalm" # <Icon icon="xmark" /> Неправильно (опечатка)
# model_provider = "openai" # <Icon icon="xmark" /> Неправильно (другой провайдер)
Проверьте синтаксис: # Если у вас установлен toml-cli
toml-check ~/.codex/config.toml
# Или используйте Python
python3 -c "import tomli; tomli.load(open('~/.codex/config.toml', 'rb'))"
Частые ошибки TOML: # <Icon icon="xmark" /> Неправильно - отсутствуют кавычки
model_provider = m egallm
# <Icon icon="check" /> Правильно
model_provider = "megallm"
# <Icon icon="xmark" /> Неправильно - неверный синтаксис секции
model_providers.megallm
base_url = "..."
# <Icon icon="check" /> Правильно
[ model_providers . megallm ]
base_url = "..."
Codex/Windsurf не обнаруживает конфигурацию
П��резапустите Codex/Windsurf: # Закрыть все экземпляры
pkill codex # или 'pkill windsurf'
# Запустить заново
codex # или 'windsurf'
Проверьте наличие нескольких файлов конфигурации: find ~ -name "config.toml" -path "*/.codex/*"
# Должен показать только один файл
Проверьте разрешения: chmod 644 ~/.codex/config.toml
Почему только системный уровень?
Codex и Windsurf не поддерживают конфигурацию уровня проекта, потому что:
Единственный экземпляр - Codex/Windsurf запускается как единственный экземпляр для всех проектов
Глобальные настройки - Настройки инструментов применяются системно
Упрощенное управление - Одна конфигурация для управления
Обходной путь для ключей конкретных проектов:
Используйте переменные окружения в вашем проекте:
# В каталоге проекта
cat > .env << 'EOF'
MEGALLM_API_KEY=project-specific-key
EOF
# Загрузить перед запуском Codex
source .env && codex
Или создайте псевдонимы оболочки:
# В ~/.bashrc или ~/.zshrc
alias codex-project-a = 'MEGALLM_API_KEY="key-for-project-a" codex'
alias codex-project-b = 'MEGALLM_API_KEY="key-for-project-b" codex'
Лучшие практики
Резервная конфигурация Храните резервную копию config.toml перед внесением изменений
Используйте переменные окружения Храните API ключи в переменных окружения, а не в файле конфигурации
Контроль версий Вы можете коммитить config.toml, если используется env_key (без жестко закодированных ключей)
Регулярные обновления Поддерживайте Codex/Windsurf обновленными для последних функций
Сравнение: Codex vs Windsurf
Функция Codex Windsurf Базовая конфигурация Поддержка MegaLLM Расположение конфигурации ~/.codex/~/.codex/Cascade AI Supercomplete Редактирование нескольких файлов Базовое Расширенное
И Codex, и Windsurf используют одинаковое расположение и формат файла конфигурации.
Следующие шаги