Anthropic запретила соискателям ИИ при найме — и обнажила кризис рекрутинговых сигналов
В феврале 2025 года Anthropic, компания-разработчик Claude, сделала запрос, который на первый взгляд выглядит парадоксально: она попросила кандидатов на все позиции — от инженеров до маркетологов и финансистов — не использовать ИИ-ассистентов при подготовке заявок. Причиной стало то, что отклики перестали быть надёжным показателем реальных компетенций. Работодатель больше не может отличить текст, написанный человеком, от сгенерированного, а значит, стандартный механизм найма утратил одну из своих ключевых функций.
Проблема носит системный характер. Инструменты вроде Claude, GPT и Gemini сделали создание убедительного резюме или сопроводительного письма тривиальной задачей. Качество написания перестало коррелировать с качеством кандидата. В итоге компании вынуждены пересматривать сам процесс оценки — от тестовых заданий до структурированных интервью. Anthropic в ответ на этот сбой пошла по пути прямого запрета, но сама эта мера — признак того, насколько глубоко ИИ-инструменты проникли в рутину рекрутинга.
Для рынка труда в технологическом секторе это сигнал тревоги. Если ИИ-компания, обладающая передовыми моделями, не может доверять собственным инструментам при оценке кандидатов, что это говорит о компаниях с меньшими ресурсами? Возникает риск того, что найм станет ещё более формализованным, а индивидуальные качества соискателей — вторичными. Парадокс Anthropic — это не анекдот про лицемерие. Это симптом более широкого кризиса, с которым столкнутся все, кто нанимает людей в эпоху генеративного ИИ.