Anthropic retarde le lancement de 'Mythos', une IA jugée trop puissante et dangereuse
Anthropic, l'entreprise d'intelligence artificielle, a retardé la mise sur le marché d'un nouveau modèle d'IA nommé 'Mythos', considéré comme trop performant et potentiellement dangereuse. Cette décision, révélée dans l'émission 'Culture IA' sur BFM Business, souligne les dilemmes internes de l'industrie face aux capacités de ses propres créations. Le modèle, dont les spécificités techniques n'ont pas été détaillées, a été jugé présenter un niveau de puissance qui dépasse les seuils de sécurité actuels, justifiant son blocage avant toute commercialisation.
L'annonce a été faite par Anthony Morel dans le cadre de l'émission 'Good Morning Business', mettant en lumière les mécanismes d'auto-régulation et de prudence qui s'activent au sein des laboratoires d'IA de pointe. Le cas de 'Mythos' n'est pas isolé et reflète une tension croissante entre l'innovation accélérée et la gestion des risques systémiques. Anthropic, cofondée par d'anciens membres d'OpenAI, se positionne ainsi sur un terrain éthique sensible, où la course aux capacités doit être tempérée par des évaluations de sécurité rigoureuses.
Ce retard volontaire place Anthropic sous les projecteurs de la communauté technique et des régulateurs, illustrant un possible tournant où les garde-fous internes prennent le pas sur la simple logique de marché. L'incident alimente le débat sur la nécessité de cadres de gouvernance plus stricts pour les IA dites 'frontalières'. Il signale également une pression opérationnelle pour les équipes de recherche, contraintes de développer des outils d'évaluation des risques à la hauteur des modèles qu'elles conçoivent, sous peine de devoir les retenir indéfiniment.