Google entdeckt den ersten bekannten Fall von Hackern, die KI nutzen, um einen Zero-Day-Exploit zu erstellen





Ein neuer Bericht der Google Threat Intelligence Group (GTIG) zeigt, dass raffinierte Hackergruppen damit begonnen haben, KI-Tools zu nutzen, um Zero-Day-Exploits zu erstellen und einzusetzen. Diese Enthüllung bestätigt, wovor viele Technologieanalysten schon seit einiger Zeit warnen, nämlich dass fortschrittliche KI-Tools es Kriminellen unweigerlich ermöglichen werden, Schwachstellen zu entdecken, die sie sonst vielleicht nicht entdeckt hätten.

Im GTIG-Bericht heißt es, es habe einen „Bedrohungsakteur identifiziert, der einen Zero-Day-Exploit nutzt, von dem wir glauben, dass er mit KI entwickelt wurde“. Der Bericht liefert keine weiteren Details zur Identität des „Bedrohungsakteurs“, erwähnt jedoch, dass der Zero-Day-Exploit als Teil einer „Massenausnutzungsveranstaltung“ eingesetzt werden sollte. Die betreffende Software nutzte gezielt eine Schwachstelle in einem Python-Skript aus, um die Umgehung von Zwei-Faktor-Authentifizierungsschemata zu erleichtern. Glücklicherweise wurde der Exploit gepatcht, bevor er massenhaft eingesetzt werden konnte.

Ein weiterer Grund, warum diese Entwicklung besorgniserregend ist, besteht darin, dass KI neben der Entdeckung von Exploits auch dazu beiträgt, die Geschwindigkeit zu beschleunigen, mit der Hacker Malware produzieren und Software-Schwachstellen testen können. Cyberangriffe, die zuvor Monate sorgfältiger Arbeit und Entwicklung erforderten, können jetzt in einem viel schnelleren Zeitrahmen durchgeführt werden. Darüber hinaus haben Hacker bereits damit begonnen, fortschrittliche KI zu nutzen, um glaubwürdige Phishing-Betrügereien zu erstellen. Hacker nutzen außerdem einen gruseligen neuen Gmail-Hack mit einer superrealistischen KI, die sich als Google-Supportmitarbeiter ausgibt, um ahnungslose Opfer zur Herausgabe sensibler Anmeldedaten zu verleiten.

Wie Google feststellte, dass die Malware mithilfe von KI erstellt wurde

Das Sicherheitsteam von Google konnte anhand einer gründlichen Analyse des Codes feststellen, dass KI zum Erstellen des Exploits verwendet wurde. Konkret haben Sicherheitsforscher Datenstrings entdeckt, die regelmäßig in LLM-Trainingsdaten auftauchen. Die Codebasis enthielt auch einen verrückten CVSS-Score, der darauf hinweist, dass die Software auf Cybersicherheitstexte trainiert ist. Dies ähnelt im weitesten Sinne der Situation, in der KI-Software beim Verfassen eines Rechtsbriefs auf nicht vorhandene Rechtsprechung verweisen kann. Tatsächlich sind einige Anwaltskanzleien in Schwierigkeiten geraten, weil sie Schriftsätze mit KI-Halluzinationen über erfundene Fälle eingereicht haben.

Obwohl Halluzinationen zu den unangenehmen Wahrheiten über die Verwendung von Google Gemini gehören, wurde die Plattform wahrscheinlich nicht zur Generierung des Schadcodes verwendet. Unabhängig davon stellt der Bericht fest, dass böswillige Akteure in der Regel mehrere Konten in verschiedenen KI-Modellen verwenden, um eine Entdeckung und verdächtiges Verhalten zu vermeiden, das andernfalls die Alarmglocken schrillen lassen könnte. „Obwohl wir nicht glauben, dass Gemini genutzt wurde“, heißt es teilweise in dem Bericht, „sind wir aufgrund der Struktur und des Inhalts dieser Exploits zuversichtlich, dass der Akteur wahrscheinlich ein KI-Modell ausgenutzt hat, um die Entdeckung und Bewaffnung dieser Schwachstelle zu unterstützen.“

Während Hacker, die KI nutzen, sicherlich Anlass zur Sorge geben, ist es erwähnenswert, dass viele Unternehmen und Sicherheitsfirmen bereits KI nutzen, um vor der Veröffentlichung neuer Software proaktiv nach Sicherheitslücken zu suchen. Dies würde es Unternehmen im Idealfall ermöglichen, die Sicherheit ihrer Software zu erhöhen, bevor böswillige Akteure die Möglichkeit haben, sie wild auszunutzen. Als anschauliches Beispiel sagte Mozilla vor einigen Tagen, dass es KI-Tools nutzte, um 423 Sicherheitslücken in nur einem Monat zu entdecken und zu beheben.