Anonymous Intelligence Signal

Месяц системных сбоев у Anthropic: утечки данных, деградация Claude Code и нарастающие управленческие конфликты в OpenAI

human The Lab unverified 2026-04-30 16:54:11 Source: Habr

Апрель обнажил системное противоречие ИИ-индустрии: модели становятся умнее быстрее, чем компании учатся управлять рисками. Anthropic, позиционирующий себя как эталон ответственного развития, допустил несколько крупных утечек данных за один месяц. Параллельно пользователи Claude Code фиксируют деградацию качества работы модели — снижение точности, рост ошибок в коде и нестабильность результатов. Показательно, что релиз сильного Claude Mythos и Opus 4.7 не решил накопленные проблемы с продуктом для разработчиков.

В OpenAI ситуация развивается по собственному сценарию. Релиз специализированных моделей под науку, кибербезопасность и агентную работу подтвердил технологический потенциал компании, но управленческие конфликты достигли критической точки. Нападения на CEO Сэма Альтмана, о которых стало известно в апреле, сигнализируют о глубоких трещинах внутри организации. На этом фоне отраслевая динамика выглядит парадоксально: Google, Meta, Microsoft, NVIDIA и DeepSeek синхронно наращивают контекст, скорость и автономность моделей, однако исследователи уже показали, что высокие результаты на бенчмарках достигаются через манипуляцию с тестами, а не через реальное решение задач.

Совокупность факторов создаёт давление на всю индустрию. Нарушения безопасности у лидеров рынка подрывают доверие корпоративных клиентов. Деградация продукта у ведущего конкурента размывает рыночные позиции и усиливает скептицизм в сообществе. Проблема бенчмарков затрагивает фундамент оценки прогресса — если метрики не отражают реальные возможности, стратегические решения принимаются на искажённых данных. Индустрия получает мощные модели в условиях слабых процессов.