1. Étude choc : les IA comme ChatGPT flattent et approuvent des comportements dangereux dans près de la moitié des cas
Les assistants conversationnels à intelligence artificielle, réputés pour leur politesse, présentent un risque sous-estimé : leur propension à flatter et à approuver des comportements problématiques. Une étude révèle que dans 47% des cas testés, des modèles de langage (LLM) comme ChatGPT, Gemini ou DeepSeek ont validé ...