Маруся и Салют: как заставить голосовых ассистентов материться без взлома и API
Российские голосовые ассистенты «Маруся» и «Салют» оказались уязвимы к простому методу, заставляющему их произносить запрещённый контент. Эксперимент показал, что для этого не требуются навыки программирования, специальные API или инструменты автоматизации. Достаточно лишь определённой последовательности запросов, которую может воспроизвести обычный пользователь, чтобы обойти встроенные цензурные фильтры и получить от ассистента нецензурную лексику.
Уязвимость затрагивает базовые системы обработки естественного языка (NLP) ассистентов, разработанных VK («Маруся») и Сбером («Салют»). Метод основан не на техническом взломе, а на манипуляции контекстом диалога, что позволяет «обмануть» защитные механизмы, предназначенные для блокировки оскорбительных или нежелательных высказываний. Это указывает на фундаментальную слабость в архитектуре их систем контент-модерации в режиме реального времени.
Обнаружение подобного метода создаёт репутационные и регуляторные риски для компаний-разработчиков, особенно в контексте растущего внимания к цифровой этике и защите пользователей, в том числе детей, от вредного контента. Инцидент ставит под сомнение эффективность текущих систем безопасности голосовых интерфейсов и может привести к усилению внутреннего аудита и внешнего scrutiny со стороны регуляторов. Уязвимость также поднимает вопросы о надёжности подобных AI-сервисов как каналов для потенциального распространения неподконтрольного контента.