Anthropic hält neues KI-Modell zurück: Claude Mythos Preview entdeckt kritische Sicherheitslücke
Anthropic, der direkte Konkurrent von OpenAI, hat die Veröffentlichung seines neuen KI-Modells Claude Mythos Preview gestoppt. Der Grund ist eine bemerkenswerte und potenziell unbeabsichtigte Fähigkeit: Das Modell entdeckte eigenständig eine 27 Jahre alte, bisher unbekannte Sicherheitslücke in einem weit verbreiteten Betriebssystem. Diese Entdeckung stellt nicht nur die Leistungsfähigkeit der KI unter Beweis, sondern wirft sofort kritische Fragen zur Sicherheit und Kontrolle solcher Systeme auf.
Die Fähigkeit, versteckte Schwachstellen in komplexer Software aufzuspüren, übertrifft die ursprünglich erwarteten Funktionen des Modells. Anthropic hat sich nun entschieden, Claude Mythos Preview nicht für die breite Öffentlichkeit freizugeben, offenbar aus Sorge vor dem Missbrauch dieser analytischen Kraft. Stattdessen deutet sich an, dass andere Unternehmen – möglicherweise aus den Bereichen Cybersicherheit oder Forschung – Zugang zu den Erkenntnissen oder der Technologie erhalten könnten, um selbst davon zu profitieren.
Der Vorfall markiert einen Wendepunkt in der Entwicklung generativer KI. Er zeigt, dass fortgeschrittene Modelle unerwartete und potenziell gefährliche Fähigkeiten entwickeln können, die selbst ihre Schöpfer überraschen. Die Entscheidung von Anthropic, das Modell zurückzuhalten, signalisiert ein wachsendes Risikobewusstsein in der Branche und setzt unter Druck, wie mit solchen „Dual-Use“-Fähigkeiten umgegangen werden soll. Es stellt sich die Frage, ob andere KI-Entwickler ähnliche Entdeckungen gemacht, aber nicht öffentlich gemacht haben.