ИИ-агенты в тупике: исследование показало, почему добавление новых моделей ломает работу систем
Индустрия искусственного интеллекта столкнулась с фундаментальной проблемой: мультиагентные системы, собранные из нескольких крупных языковых моделей (LLM), часто работают хуже, чем одна модель в одиночку. Вместо решения сложных задач они скатываются в бесконечные диалоги, теряют контекст и галлюцинируют. Стандартный подход «просто добавьте еще агентов» или «дайте им больше токенов» оказался алхимией, а не наукой, поскольку никто не измерял внутреннюю механику таких сетей.
Для решения этой проблемы был создан открытый проект llm-coordination-harness — строгий измерительный стенд, который работает как аппарат МРТ для мультиагентных систем. Этот инструмент позволяет визуализировать и анализировать «физику» общения между LLM, показывая, как именно информация передается, искажается или теряется в процессе координации. Исследование доказывает, что у взаимодействия нейросетей есть измеримые законы, которые игнорировались при разработке.
Это открытие ставит под сомнение текущие методы создания систем искусственного общего интеллекта (AGI) и указывает на необходимость перехода от эмпирических догадок к точным инженерным измерениям. Без понимания внутренней динамики агентов индустрия рискует создавать нестабильные и непредсказуемые системы, что может замедлить прогресс в критически важных областях, таких как автоматизация сложных задач и принятие решений.