Anonymous Intelligence Signal
「LLMジャッキング」の脅威:企業のAIが攻撃者の“情報収集アシスタント”に変わる深刻なリスク
企業が導入したAIリソースそのものが、サイバー攻撃者の強力な“アシスタント”に変わる新たな脅威「LLMジャッキング」が拡大している。攻撃のトレンドが単なるシステムへの「侵入」から、侵入後の「ログイン」と権限の悪用へと移行する中、不正アクセスされたAIは、高額な利用料を発生させるだけではない。企業の機密情報を効率的に分析・奪取するためのツールとして悪用される、AI時代ならではの深刻なリスクが顕在化している。
この攻撃手法の核心は、企業が構築したRetrieval-Augmented Generation(RAG)環境などのAIリソースを乗っ取ることにある。攻撃者は一旦システムに侵入し、正当なユーザーとしてAIサービスにログインすることで、その機能を自由に操作できるようになる。これにより、単に外部の生成AIを悪用するのではなく、標的企業自身が持つ、社内文書やデータベースに特化して訓練・構築されたAIアシスト機能を、逆に機密情報の収集と分析に利用されてしまう可能性が生じる。
結果として、攻撃者は企業の内部情報に対する高度な検索と要約の能力を手に入れ、従来よりもはるかに効率的に重要な知的財産や営業秘密を特定・抽出することが可能となる。このリスクは、AIの利便性を追求する多くの企業が、セキュリティ対策を「侵入の防止」だけでなく、「侵入後のAIリソースの保護」まで拡張できていない現状において、特に深刻だ。単なる金銭的損害を超え、企業の競争力の根幹を揺るがす情報漏洩へと直結する可能性をはらんでいる。