Anthropic выпускает Mythos: ИИ-модель, признанная слишком опасной для публикации
Компания Anthropic PBC представила новую модель искусственного интеллекта Mythos, которую сама же классифицировала как слишком опасную для публичного использования. Этот шаг выходит за рамки отраслевой проблемы кибербезопасности для банков и представляет собой тревожный сигнал для всех секторов. Факт того, что разработчик сознательно ограничивает доступ к своей собственной технологии, указывает на выявление внутренних рисков, которые, по мнению создателей, перевешивают потенциальную пользу от широкого распространения.
Изначально угроза от Mythos могла восприниматься как узкоспециализированная проблема для финансовых институтов, где уязвимости ИИ могут привести к катастрофическим последствиям. Однако заявление Anthropic о чрезмерной опасности модели подразумевает наличие фундаментальных, неконтролируемых свойств, которые могут быть использованы злоумышленниками в самых разных областях. Это не просто очередное предупреждение о возможных уязвимостях; это демонстративный акт сдерживания со стороны самой компании-разработчика.
Ситуация создает прецедент и повышает давление на всю индустрию разработки ИИ. Действия Anthropic ставят под вопрос существующие практики ответственного раскрытия информации и границы этики в гонке технологий. Это также может спровоцировать более жесткий регуляторный скрининг в отношении других передовых моделей, заставляя компании доказывать безопасность своих систем до их выпуска, а не после. Риск заключается в том, что подобные «закрытые» модели могут стать инструментом в руках ограниченного круга лиц, что усилит асимметрию в доступе к мощным технологиям.