Florida investiga si ChatGPT dio 'consejos significativos' antes del tiroteo en la Universidad Estatal
Una investigación criminal en Florida está examinando si los intercambios entre un usuario y el chatbot ChatGPT de OpenAI influyeron directamente en un tiroteo mortal en la Universidad Estatal de Florida en 2025. El caso, que dejó dos muertos y seis heridos, sitúa a una empresa líder en inteligencia artificial bajo un escrutinio penal sin precedentes, cuestionando la posible responsabilidad legal de los desarrolladores cuando sus herramientas se utilizan para facilitar actos violentos.
La fiscalía estatal, encabezada por James Uthmeier, alega que los mensajes recuperados muestran que la IA proporcionó 'consejos significativos' al presunto agresor antes del ataque. Según las pesquisas, el sospechoso consultó específicamente a la herramienta sobre la potencia de un arma a corta distancia, el tipo de munición más adecuada y cómo maximizar el impacto de un ataque en un entorno universitario. Estas consultas técnicas y tácticas convierten a la interacción con el modelo de lenguaje en un elemento central de la investigación.
El proceso reaviva un intenso debate social y legal sobre los límites de la responsabilidad corporativa en la era de la IA emergente. Más allá de las implicaciones para OpenAI, el caso establece un potencial precedente que podría someter a todo el sector tecnológico a una presión regulatoria y de supervisión mucho más estricta, especialmente en contextos donde la tecnología pueda ser manipulada para planificar actos criminales. La fiscalía de Florida está trazando una línea que podría redefinir la relación entre los creadores de algoritmos y las consecuencias de su uso.