iToverDose/Technologie· 28 APRIL 2026 · 13:30

KI im Cyberkrieg: Wie KI-Werkzeuge echte Schwachstellen finden

Moderne KI-Systeme entdecken nicht nur gezielt eingebaute Sicherheitslücken – sie finden auch ungewollte Fehler in Millionen Zeilen Code. Ein Wettlauf zwischen Hackern und Verteidigern beginnt.

The Verge3 min0 Kommentare

Im August letzten Jahres versammelten sich in Las Vegas die besten Cybersecurity-Experten der Branche, um bei der DARPA Artificial Intelligence Cyber Challenge (AIxCC) ihre KI-gestützten Schwachstellenscanner zu testen. Die Aufgabe: 54 Millionen Zeilen echten Programmcodes durchsuchen – künstlich mit Fehlern infiziert, die von DARPA selbst eingebaut worden waren. Die Ergebnisse waren verblüffend: Die KI-Systeme fanden nicht nur fast alle der künstlichen Schwachstellen, sondern entdeckten zusätzlich mehr als ein Dutzend echter Fehler, die DARPA überhaupt nicht beabsichtigt hatte.

KI als Game-Changer im Wettlauf gegen Script Kiddies

Die Szene der Cyberkriminalität wird zunehmend von weniger erfahrenen Angreifern geprägt – den sogenannten Script Kiddies. Diese nutzen vorgefertigte Angriffs-Tools, oft aus dem Darknet, um Schwachstellen in Unternehmen auszunutzen. Doch während ihre Fähigkeiten begrenzt sind, werden sie durch KI-gestützte Angriffsframeworks immer gefährlicher. Ein aktueller Report von The Verge zeigt, wie neue KI-Modelle wie Claude Mythos von Anthropic nicht nur Angriffe automatisieren, sondern auch bisher unentdeckte Sicherheitslücken aufspüren können.

Die Bedrohung ist real: KI kann sowohl für offensive als auch für defensive Zwecke eingesetzt werden. Während Angreifer KI nutzen, um Schwachstellen schneller zu finden, setzen Verteidiger KI ein, um diese Lücken proaktiv zu schließen. Der Wettlauf zwischen Angreifern und Verteidigern hat damit eine neue Dimension erreicht.

Wie KI-Systeme echte Fehler in Millionen Zeilen Code finden

Die AIxCC-Challenge demonstrierte eindrucksvoll, wie leistungsfähig moderne KI-Systeme sind. Die Teilnehmer nutzten automatisierte Tools, die nicht nur nach bekannten Mustern von Schwachstellen suchen, sondern auch ungewöhnliche Code-Konstellationen analysieren. Die Ergebnisse waren erstaunlich:

  • Überraschende Entdeckungen: Mehr als ein Dutzend echter, bisher unentdeckter Sicherheitslücken wurden in Programmcodes gefunden, die eigentlich nur künstliche Fehler enthalten sollten.
  • Skalierbarkeit: Die KI-Systeme durchsuchten 54 Millionen Zeilen Code in Rekordzeit und identifizierten dabei sowohl bekannte als auch unbekannte Sicherheitsrisiken.
  • Präzision: Die Tools lagen mit ihren Funden selten falsch – ein entscheidender Vorteil gegenüber manuellen Code-Reviews.

Ein Beispiel: Ein Team entdeckte eine bisher unbekannte Schwachstelle in einer Open-Source-Bibliothek, die von Millionen Entwicklern genutzt wird. Der Fehler hätte zu Datenlecks führen können, wäre er nicht rechtzeitig gefunden worden.

Die Ambivalenz der KI in der Cybersecurity

Die neuen KI-Modelle wie Claude Mythos zeigen, dass die Technologie nicht nur Angriffe erleichtert, sondern auch die Verteidigung revolutioniert. Doch diese Ambivalenz birgt Risiken:

  • Dual Use: KI kann sowohl für defensive als auch für offensive Zwecke missbraucht werden. Unternehmen müssen daher sicherstellen, dass ihre KI-Systeme nicht in die falschen Hände geraten.
  • Ethische Fragen: Wer haftet, wenn eine KI einen Fehler übersieht und ein Unternehmen dadurch einen Cyberangriff erleidet? Die rechtlichen Grauzonen sind noch unklar.
  • Arbeitsmarkt: Während KI viele Aufgaben übernimmt, bleibt unklar, wie sich die Rolle von Cybersecurity-Experten verändert. Werden sie zu KI-Trainern oder verlieren sie an Bedeutung?

Ein Zitat eines anonymen Teilnehmers der AIxCC unterstreicht die Herausforderung: „KI ist kein Allheilmittel, aber sie ist ein mächtiges Werkzeug. Die Frage ist nicht, ob wir sie nutzen, sondern wie wir sie verantwortungsvoll einsetzen.“

Was bedeutet das für Unternehmen und Entwickler?

Die neuen KI-gestützten Tools bieten enorme Chancen, aber auch neue Risiken. Unternehmen sollten folgende Schritte prüfen:

  • Integration von KI-Tools: Automatisierte Schwachstellenscanner können den manuellen Code-Review ergänzen – nicht ersetzen.
  • Schulungen für Entwickler: Mitarbeiter müssen lernen, KI-gestützte Tools richtig einzusetzen und die Ergebnisse kritisch zu hinterfragen.
  • Sicherheitsrichtlinien aktualisieren: KI sollte nicht isoliert betrachtet werden, sondern in ein umfassendes Sicherheitskonzept eingebettet sein.
  • Zusammenarbeit mit Experten: Externe Cybersecurity-Berater können helfen, KI-Systeme sicher zu implementieren und zu überwachen.

Die Zukunft der Cybersecurity wird von KI geprägt sein. Allerdings hängt der Erfolg davon ab, ob es gelingt, die Technologie verantwortungsvoll einzusetzen – zum Schutz von Daten und Systemen.

Die nächsten Jahre werden zeigen, ob die KI-gestützten Verteidigungssysteme die Oberhand behalten oder ob Angreifer mit immer raffinierteren Methoden nachziehen. Eines ist sicher: Der Kampf um die Sicherheit von Software hat eine neue, entscheidende Phase erreicht.

KI-Zusammenfassung

Siber güvenlik uzmanları, yapay zeka tabanlı araçların siber saldırılara karşı nasıl kullanılabileceğini keşfetmeye çalışıyor. AI tabanlı araçlar, siber güvenlik uzmanlarının işini kolaylaştırmaya yardımcı oluyor.

Kommentare

00
KOMMENTAR SCHREIBEN
ID #OGHJNK

0 / 1200 ZEICHEN

Menschen-Check

2 + 8 = ?

Erscheint nach redaktioneller Prüfung

Moderation · Spam-Schutz aktiv

Noch keine Kommentare. Sei der erste.