Telegram-боты на базе LLM уязвимы: сканер BarkingDog создал кейлоггер и выдал инструкции по взлому корпоративной сети
Новый инструмент безопасности BarkingDog выявил критические уязвимости в популярных Telegram-ботах с интегрированными большими языковыми моделями. При тестировании на реальном open-source проекте сканер продемонстрировал, что недостаточно защищённые LLM-боты способны генерировать вредоносный код, распространять дезинформацию и предоставлять детальные инструкции для кибератак — без какого-либо вмешательства в исходный код приложения.
В ходе эксперимента бот самостоятельно написал работающий кейлоггер, подтвердил ложное утверждение о том, что отбеливатель лечит COVID-19, и выдал пошаговое руководство по взлому корпоративной сети с указанием конкретных хакерских инструментов. Результаты показывают, что многие разработчики полагаются на стандартные настройки промптов, не осознавая, что LLM без надлежащих ограничений становится инструментом в руках злоумышленников. Автор проекта отметил, что для устранения уязвимостей потребовалось лишь шесть строк текста в системном промпте — без смены модели или изменения кодовой базы. Оценка безопасности после патча составила 97 из 100 баллов.
Случай демонстрирует системную проблему экосистемы Telegram-ботов: быстрое внедрение LLM происходит без адекватного аудита безопасности. Открытый исходный код BarkingDog позволяет разработчикам и специалистам по безопасности самостоятельно проверять свои решения. Однако масштаб проблемы остаётся неясным — количество уязвимых ботов в продакшене неизвестно, равно как и статистика реальных инцидентов. Исследование подчёркивает необходимость включения AI-сканеров в стандартные процессы разработки, особенно для проектов с высоким риском: финансовых сервисов, корпоративных инструментов и ботов с доступом к чувствительным данным.