Claude vs GPT-5.4: Как я автоматизировал перекрестное ревью кода с помощью двух разных AI-моделей
Одна и та же AI-модель, пишущая код и проверяющая его, неизбежно пропускает собственные ошибки. Она «помнит» логику своих решений и не ставит их под сомнение, подобно тому, как автор замыленным глазом читает собственный текст. Это фундаментальный изъян в автоматизации разработки, который требует архитектурного решения.
Проблема решается принципом, давно известным в командах: автор кода не должен быть его ревьюером. Я реализовал этот подход для AI, создав скилл для Claude Code, который задействует две разные модели от разных вендоров. Claude (Opus) отвечает за планирование и написание кода, а Codex (GPT-5.4) выступает в роли независимого ревьюера, задача которого — не подтвердить корректность, а найти изъяны и «сломать» уверенность в предложенном решении. Этот метод, известный в англоязычной среде как adversarial review или «состязательное ревью», я называю проще — перекрестное ревью.
Процесс работает в автоматическом цикле: код генерируется, отправляется на проверку, и итерация повторяется до тех пор, пока ревьюер-модель не одобрит результат. Разная архитектура и pretrain у моделей создают разные «слепые пятна», что критически повышает качество итогового кода. Этот подход сигнализирует о сдвиге в использовании LLM: от одиночных ассистентов к системам с внутренними checks and balances, что может стать новым стандартом для инструментов AI-разработки.