Anthropic-KI Mythos weckt Sicherheitsbedenken: Deutsche Behörden fordern schärfere Regulierung
Das KI-Labor Anthropic steht mit seinem Modell Mythos im Zentrum wachsender Besorgnis bei deutschen Sicherheitsbehörden und Parlamentariern. Die Befürchtung: fortschrittliche KI-Systeme wie Mythos könnten die Tür zu einer massiven Ausweitung von Cyberangriffen öffnen und qualitatively neue Risiken für die digitale Infrastruktur schaffen. Damit steigt der Handlungsdruck auf Politik und Regulierungsbehörden spürbar.
Hintergrund der Debatte ist die wachsende Fähigkeit quelloffener KI-Modelle, auch komplexe Angriffsszenarien zugänglicher zu machen. Deutsche Sicherheitsexperten warnen seit Monaten vor einem Wendepunkt, an dem die Schwelle für technisch anspruchsvolle Cyberoperationen deutlich sinkt. Während Befürworter offener KI-Systeme deren Innovationspotenzial betonen, mehren sich auf politischer Ebene die Stimmen, die strengere Kontrollmechanismen und Transparenzpflichten für leistungsstarke Modelle fordern. Konkret geht es um die Frage, ab welchem Fähigkeitsschwellwert KI-Systeme als sicherheitsrelevant eingestuft und reguliert werden sollten.
Die Diskussion dürfte nun auch in die laufenden Verhandlungen um die EU-KI-Verordnung und nationale Cybersicherheitsstrategien einfließen. Bundesbehörden prüfen laut Insiderkreisen bereits, ob bestehende Kontrollmechanismen für Dual-Use-KI-Systeme angepasst werden müssen. Klar ist: Das Thema wird zum Prüfstein für die Balance zwischen technologischer Wettbewerbsfähigkeit und nationaler Sicherheit.