Windows Recall de Microsoft: investigador demuestra que persisten riesgos de seguridad tras rediseño
La controvertida herramienta de inteligencia artificial de Microsoft, Windows Recall, enfrenta nuevas críticas de seguridad. Un investigador ha demostrado que, incluso después de su rediseño para incorporar funciones de protección, sigue siendo posible extraer datos sensibles de los usuarios. La prueba se realizó utilizando la herramienta de código abierto 'TotalRecall Reloaded', que logra acceder a la información almacenada por Recall, planteando serias dudas sobre la efectividad de las medidas de privacidad implementadas por la compañía.
Recall, anunciada en mayo de 2024 como una función estrella para los ordenadores Copilot+, funciona tomando capturas de pantalla periódicas del dispositivo para crear una 'memoria fotográfica' que permite a los usuarios volver a cualquier contenido visto anteriormente. Su lanzamiento ya fue pospuesto en varias ocasiones debido a la polémica inicial, cuando se reveló que las capturas no se almacenaban cifradas, lo que representaba un riesgo evidente para la información privada.
Este nuevo hallazgo mantiene a Microsoft bajo una intensa presión de seguridad y privacidad. La persistencia de vulnerabilidades en una herramienta que accede y almacena un registro íntimo de la actividad del usuario podría erosionar la confianza en los productos Copilot+ y en la estrategia de IA de la compañía. El caso subraya el desafío permanente de equilibrar funcionalidades avanzadas con garantías robustas de seguridad de datos, un campo donde cualquier fallo tiene consecuencias inmediatas para la reputación y la adopción de la tecnología.