
Im September 2025 wurden Mitarbeiter des US-KI-Unternehmens Anthropic von der CIA auf „verdächtige Aktivitäten“ einer Handvoll Nutzer hingewiesen – sie ahnten nicht, dass es sich dabei um eine Zeitenwende in der IT-Sicherheit handeln würde. Eine offenbar staatlich finanzierte, chinesische Hackergruppe hatte mithilfe des von Anthropic entwickelten KI-Modells „Claude“ rund 30 Ziele im Westen angegriffen – darunter Technologieunternehmen, Finanzdienstleister und Regierungsbehörden.
Das Besondere daran: Laut Anthropic lief ein Großteil der Operation automatisiert ab. Das heißt: Die Hacker hatten „Claude“ vorbereitet und mit Anweisungen versorgt, die eigentlichen Cyberangriffe führte die KI dann aber eigenständig aus, „ohne nennenswertes menschliches Eingreifen“.
Zwei US-Sicherheitsexperten beschrieben den Vorfall später im Fachmagazin Foreign Affairs als „erste KI-orchestrierte Spionagekampagne“. Und als möglichen Vorgeschmack auf eine neue Ära der Cyber-Kriegsführung.
Anthropic hält seine KI „Mythos“ für zu mächtig, um sie zu veröffentlichen
Die Konzernführung hatte das Erlebte wohl noch im Hinterkopf, als sie im April eine aufsehenerregende Entscheidung traf: Anthropics neuestes KI-Modell „Mythos“ werde aufgrund von Sicherheitsbedenken vorerst nicht veröffentlicht. Das Programm soll Programmierern dabei helfen, Schwachpunkte in ihrem Software-Code aufzudecken. Dabei sei es jedoch „viel mächtiger als erwartet“, warnte Firmengründer Dario Amodei.
Sicherheitslücken in Software zu finden galt lange als aufwendige Arbeit für Spezialisten. Millionen Zeilen an Code mussten analysiert werden, manchmal monatelang. KI-Modelle können jedoch riesige Datenmengen automatisiert analysieren – wesentlich schneller als Menschen.
Bei Testläufen habe „Mythos“ selbstständig Sicherheitslücken in praktisch allen wichtigen Betriebssystemen und Internetbrowsern gefunden, darunter sogenannte „Zero Day Vulnerabilities“ – also Schwachstellen, die seit der Veröffentlichung einer Software existieren, aber jahrzehntelang von keinem Menschen entdeckt wurden. Als Beispiel nannte Anthropic den Browser Firefox.
„Diese KI-Modelle sind tatsächlich sehr, sehr mächtig“, sagt Matteo Maffei, Professor für IT-Sicherheit an der TU Wien, im Gespräch mit dem KURIER. „Sie machen es möglich, dass auch jemand ohne besondere Expertise relativ schnell Sicherheitslücken finden kann, und zwar automatisiert und in großem Maßstab.“ Das ist nicht weniger als ein Paradigmenwechsel in der IT-Sicherheitsbranche. Auch der britische Economist warnte auf seinem Cover zuletzt vor dem „Mythos-Moment“.
„Wenn es irgendeine Sicherheitslücke gibt, wird sie heute sofort gefunden.“
Noch vor wenigen Jahren konnten vor allem kleinere Unternehmen darauf hoffen, dass Schwachstellen in ihrer Software womöglich niemals entdeckt werden. „Das war schon damals riskant“, sagt Maffei. „Heute aber muss man davon ausgehen: Wenn es irgendeine Sicherheitslücke gibt, wird sie von Angreifern höchstwahrscheinlich sofort gefunden.“
Statt „Mythos“ also auf die Welt loszulassen, stellte Anthropic seine KI zunächst nur 50 führenden Unternehmen der Tech-, Finanz- und Sicherheitsbranche zur Verfügung. Sie sollen das Modell nutzen, um Sicherheitslücken in ihren Systemen zu schließen. Am besten schnell – bevor andere Entwickler ähnlich leistungsstarke KI-Modelle entwickeln, dann aber der breiten Öffentlichkeit zur Verfügung stellen.
„Es ist sinnvoll, den Zugang zu solchen Modellen insbesondere in ihrer Anfangsphase zu begrenzen“, meint Maffei. Langfristig lasse sich das Problem so jedoch nicht lösen. „Die entscheidende Frage ist nicht, ob Angreifer irgendwann solche Werkzeuge haben werden, denn das werden sie. Sondern wie wir Systeme von Grund auf so bauen, dass sie trotzdem sicher bleiben.“
In der IT-Sicherheit gibt es dafür ein Konzept namens „Security by Design“. Die Idee dahinter: Software und Hardware …read more
Source:: Kurier.at – Politik



