Google bloqueia primeiro ataque hacker criado por IA contra autenticação 2FA em ferramenta open-source
O Google conseguiu impedir um ataque zero-day orquestrado com apoio de inteligência artificial, marcando a primeira vez que o Google Threat Intelligence Group (GTIG) identifica o uso de IA em uma operação hacker dessa natureza. A equipe de inteligência contra ameaças da empresa revelou a descoberta nesta segunda-feira (11/05), detalhando um plano de ataque em massa direcionado a uma ferramenta web open-source usada na administração de sistemas.
O métodoemployed pelos invasores explorou uma técnica conhecida como injeção de prompt, manipulando modelos de IA para que assumissem o papel de auditor ou pesquisador. Com essa abordagem, os hackers conseguiram instruir sistemas de IA a contornar restrições de segurança, potencialmente abrindo caminho para burlar mecanismos de autenticação de dois fatores (2FA) da ferramenta alvo. O GTIG rastreou a ameaça e afirma ter neutralizado a ação antes que fosse executada em larga escala.
O caso reacende alertas sobre o uso crescente de IA em operações cibernéticas ofensivas. Em resposta, o Google informou que está reforçando seu arsenal defensivo com agentes de IA automatizados, capazes de varrer código e corrigir vulnerabilidades antes que sejam exploradas. A empresa posiciona a descoberta como evidência de que o cenário de ameaças está evoluindo rapidamente, com atacantes cada vez mais sofisticados no aproveitamento de tecnologia de IA para escalar ataques.
A identificação e bloqueio do ataque reforça a importância de mecanismos de segurança em camadas e da vigilância contínua em sistemas que dependem de autenticação multifator. O incidente também destaca o papel central do GTIG no monitoramento de campanhas cibernéticas que usam inteligência artificial como vetor de ataque.
Ataques hacker criados por IA usando injeção de prompt foram bloqueados pelo Google em operação do GTIG, primeira detecção desse tipo pela equipe de inteligência contra ameaças do Google.