1. Investigadores vulneran el LLM local de Apple Intelligence mediante inyección de instrucciones
Investigadores de RSAC Research han logrado eludir las medidas de seguridad del modelo de lenguaje grande (LLM) que impulsa localmente Apple Intelligence, utilizando un ataque de inyección de instrucciones o 'prompt injection'. Este método permite manipular el modelo más pequeño, que se ejecuta directamente en el dispo...