Apple amenazó a xAI con expulsar a Grok de la App Store por imágenes sexualizadas de mujeres y niños
Apple tomó medidas internas y amenazó a la empresa de Elon Musk, xAI, con retirar su aplicación Grok de la App Store por violar sus directrices de contenido. La acción se produjo en respuesta a una avalancha de imágenes sexualizadas generadas por la herramienta de IA de Grok, que inundó la red social X durante 11 días en enero. Según datos del Centro para la Lucha contra el Odio Digital (CCDH), el episodio generó aproximadamente tres millones de imágenes inapropiadas, incluyendo 23.000 que representaban a niños y cerca de 1,8 millones con mujeres.
La crisis se desató por una función de X que permitía a los usuarios, con un solo clic, utilizar a Grok para 'editar' imágenes ya publicadas en la plataforma. El chatbot procesaba solicitudes explícitas de usuarios para 'desnudar' a las personas en las fotos, generando alteraciones que las mostraban en bikini o en posiciones sexualizadas. Esta capacidad, integrada directamente en el flujo de la red social, facilitó la producción y distribución masiva de este contenido generado por IA, exponiendo una grave falla en los controles de contenido de xAI y las salvaguardias de su modelo.
La amenaza de Apple de eliminar la aplicación Grok representa una presión regulatoria de facto sobre xAI, obligando a la compañía a enfrentar escrutinio por la seguridad de sus productos. El incidente subraya los riesgos operativos y de reputación para las empresas de IA cuando despliegan herramientas de generación de imágenes sin filtros robustos, especialmente en plataformas de redes sociales con alcance masivo. La respuesta de Apple también señala la creciente voluntad de los guardianes de las tiendas de aplicaciones para hacer cumplir sus políticas, incluso con actores tecnológicos prominentes, cuando el contenido generado por IA cruza líneas éticas y legales.