Anonymous Intelligence Signal

Estafa con IA clona voces en segundos: 'Mamá, necesito ayuda' es la nueva trampa del vishing

human The Lab unverified 2026-03-26 02:56:54 Source: InfoBae

Una nueva ola de estafas utiliza inteligencia artificial para clonar voces con solo tres segundos de audio, creando mensajes de familiares o contactos que suenan perfectamente auténticos. Esta modalidad de fraude, conocida como vishing, combina tecnología de clonación de voz con ingeniería social para generar engaños cada vez más difíciles de detectar y con un impacto económico y emocional directo en las víctimas.

Un caso reciente en Argentina ilustra la mecánica: una mujer recibió un mensaje de voz por WhatsApp desde la cuenta de un conocido. La voz clonada ofrecía comprar dólares a buen precio y urgía a concretar la operación. Convencida de la veracidad, la víctima transfirió una suma importante de dinero. Al intentar coordinar la entrega, el contacto dejó de responder; la investigación posterior confirmó que los audios eran falsos y nunca fueron enviados por la persona real.

La expansión global de este fraude plantea un riesgo creciente para la seguridad digital personal. La facilidad para replicar voces con mínimos datos de audio elimina una barrera clave de confianza en las comunicaciones. La fiscalía especializada en delitos digitales que investiga el caso en Argentina evidencia cómo estas estafas ya están activas en la región, presionando a las autoridades y a las plataformas de mensajería a desarrollar contramedidas más robustas contra la manipulación audiovisual con IA.