Superagent Memory OS: как «умные» LLM ломают структуру данных и почему это важно для агентов
Чем «умнее» рассуждает большая языковая модель, тем хуже она извлекает структуру из данных. Команда Superagent, разрабатывающая Memory OS — систему памяти для AI-агентов, обнаружила парадокс: при увеличении параметра reasoning_effort у модели o4-mini, она начинает «улучшать» схему по своему усмотрению, объединяя то, что должно быть раздельным, и ломая детерминизм всего пайплайна. Это фундаментальная проблема при построении надежных систем, где точность и предсказуемость важнее креативных интерпретаций.
В техническом отчете на Habr разработчики детализировали архитектурный переход от плоского RAG к управляемой Memory OS. Ключевым прорывом стал слой Semantic Mapper, который сократил расход токенов на 48%, одновременно повысив качество оценки с 5.2 до 7.11 баллов. Система сегодня управляет графом из десятков тысяч концептов и почти 2.4 миллиона связей, построенным на основе ~106.7 миллионов токенов из четырех разных корпусов. Процесс сжатия данных впечатляет: 34 805 сырых упоминаний были сведены до 7 339 канонических концептов.
Для эффективного поиска в этой сложной структуре используется иерархический retrieval на базе UMAP, HDBSCAN и Optuna, создающий 7 220 взвешенных связей. Отладка агента на бенчмарке LongMemEval позволила сократить шаги рассуждения с 22+ до 4–6. Отдельный эксперимент EXP-GARDENER-001 выявил, почему Flash-модели склонны порождать ложные связи в графе знаний. В основе системы лежит bi-temporal модель фактов и архитектурный паттерн MCP (Memory Control Plane), выступающий в роли суверена, управляющего целостностью памяти. Эти решения задают новый стандарт для создания стабильных и масштабируемых когнитивных систем.