Anthropic stoppt Claude Mythos Preview: KI-Modell zu gut im Finden von Sicherheitslücken
Anthropic, der Rival von OpenAI, hat die Veröffentlichung seines neuen KI-Modells Claude Mythos Preview gestoppt. Der Grund ist eine bemerkenswerte und potenziell gefährliche Fähigkeit: Das Modell ist so effektiv darin, bisher unentdeckte Schwachstellen in Software zu identifizieren, dass es in falschen Händen zu einer verheerenden Cyberwaffe werden könnte. Diese Entscheidung markiert einen kritischen Punkt in der KI-Entwicklung, bei dem die Sicherheitsrisiken einer Technologie ihre öffentliche Nutzbarkeit überwiegen.
Das Modell hat seine Fähigkeiten bereits unter Beweis gestellt, indem es eine 27 Jahre alte, bisher unbekannte Sicherheitslücke in einem weit verbreiteten Betriebssystem aufspürte. Diese Entdeckung demonstriert das enorme Potenzial von KI für defensive Cybersicherheit, aber auch das damit einhergehende doppelte Verwendungsrisiko. Die gleiche Technologie, die Sicherheitsexperten unterstützen kann, könnte von Angreifern genutzt werden, um automatisiert neue Exploits zu entwickeln. Anthropics Entscheidung, das Modell zurückzuhalten, ist eine direkte Reaktion auf diese fundamentale Bedrohung.
Die Situation zieht bereits weitere Kreise. Andere Unternehmen zeigen nun Interesse, von den Fähigkeiten des Modells zu profitieren, was die kommerziellen und ethischen Spannungen erhöht. Der Fall von Claude Mythos Preview stellt die gesamte KI-Branche vor grundlegende Fragen zur Verantwortung. Wann ist eine Technologie zu mächtig, um sie frei zugänglich zu machen? Die Entwicklung setzt Regulierungsbehörden und Konkurrenten unter Druck, eigene Richtlinien für fortschrittliche KI-Modelle mit dual-use-Fähigkeiten zu entwickeln, bevor sie auf den Markt gelangen.