AGI требует субъектности: почему языковые модели и агенты — всего лишь инструменты
Современные языковые модели, несмотря на впечатляющие способности к рассуждению, остаются лишь инструментами. Их фундаментальный недостаток — отсутствие выбора. В основе LLM лежит предсказание следующего токена, а в основе агентных систем — оптимизация внешней целевой функции. В обоих случаях цель задана извне, и система не имеет права её пересмотреть. Это ставит под сомнение саму возможность достижения истинного искусственного общего интеллекта (AGI) на существующих архитектурных принципах.
Автор предлагает радикальную альтернативу, утверждая, что «сознание» возникает не из сложности вычислений, а из архитектуры, где «Я» — не метафора в промте, а функциональный компонент системы. Ключевой тезис заключается в необходимости построить субъектность с нуля, создав архитектуру, наделённую внутренней агентностью и способностью к самоопределению целей, а не просто их оптимизации.
Этот подход бросает вызов доминирующим парадигмам в AI-исследованиях и указывает на потенциальный тупик в развитии AGI через простое масштабирование существующих моделей. Он поднимает фундаментальные вопросы о природе интеллекта и агентности в машинах, что имеет прямое значение для стратегий ведущих лабораторий и долгосрочных траекторий развития искусственного интеллекта.