Cyberkriminelle nutzen künstliche Intelligenz, um raffiniertere Machenschaften durchzuführen. Sie zielen mit Methoden, die immer schwerer zu erkennen sind, auf alles ab – von Altersvorsorge bis hin zu Unternehmensgeheimnissen.
Dieselbe Technologie, die Werbung für Online-Shopper personalisiert, wird nun von Kriminellen genutzt, um persönliche Daten zu sammeln und maßgeschneiderten Online Betrug schnell zu starten. Wirklich schnell.
Große AI-Unternehmen wie Anthropic, OpenAI und Google berichten, dass Kriminelle ihre Plattformen nutzen, um komplexe Phishing-Operationen zu orchestrieren, schädliche Software zu entwickeln und verschiedene digitale Angriffe auszuführen. Sicherheitsspezialisten warnen, dass Kriminelle auch gefälschte Audio- und Videoclips von Unternehmensführern erstellen, um Mitarbeiter dazu zu bringen, vertrauliche Informationen preiszugeben.
Unternehmen und Regierungsbehörden könnten bald mit Schwärmen von KI-gesteuerten Systemen konfrontiert werden, die Schwachstellen in Computernetzwerken erkennen und dann Angriffe mit fast keiner menschlichen Hilfe planen und durchführen können.
Die Technologie verändert, wie Kriminelle online operieren. Alice Marwick leitet die Forschung bei Data & Society, einer unabhängigen Technologieforschungsorganisation. Sie sagte dem Wall Street Journal, dass die größte Veränderung Größe und Reichweite betrifft. „Die wirkliche Veränderung ist Umfang und Ausmaß. Betrügereien sind größer, gezielter und überzeugender."
Brian Singer ist Doktorand an der Carnegie Mellon University. Er erforscht, wie große Sprachmodelle bei Cyberangriffen und zur Verteidigung eingesetzt werden. Seine Schätzung? Die Hälfte bis drei Viertel der weltweiten Spam- und Phishing-Nachrichten stammen mittlerweile von AI-Systemen.
Die Angriffe selbst sind glaubwürdiger geworden. AI-Systeme, die auf Unternehmenskommunikation trainiert wurden, können Tausende von Nachrichten erstellen, die natürlich klingen und zum Stil eines Unternehmens passen. Sie kopieren, wie Führungskräfte schreiben. Sie erwähnen aktuelle Nachrichten aus öffentlichen Aufzeichnungen.
Die Technologie hilft auch ausländischen Betrügern, Sprachfehler zu verbergen, die ihre Versuche früher offensichtlich machten. Kriminelle können Opfer durch gefälschte Videos und kopierte Stimmen imitieren. Sie verwenden dieselbe gefälschte Identität, um mehrere Personen gleichzeitig ins Visier zu nehmen.
John Hultquist ist Chefanalyst bei der Google Threat Intelligence Group. Er beschreibt die Hauptveränderung als „Glaubwürdigkeit im großen Maßstab".
Kriminelle werden auch besser darin, Ziele auszuwählen. Sie nutzen AI, um soziale Medien zu durchsuchen und Menschen zu finden, die mit großen Lebensschwierigkeiten zu kämpfen haben. Scheidung, Todesfälle in der Familie, Jobverlust und Situationen, die jemanden anfälliger für Romantikbetrug, Investitionsbetrug oder gefälschte Stellenangebote machen könnten.
Die Einstiegshürde für Cyberkriminalität ist gesunken. Untergrundmärkte verkaufen oder vermieten jetzt AI-Tools für kriminelle Zwecke für nur 90 $ pro Monat. Nicolas Christin leitet die Abteilung für Software und gesellschaftliche Systeme an der Carnegie Mellon.
Er sagte, dass diese Plattformen mit verschiedenen Preisstufen und Kundenservice kommen. „Entwickler verkaufen Abonnements für Angriffsplattformen mit gestaffelter Preisgestaltung und Kundensupport."
Diese Dienste tragen Namen wie WormGPT, FraudGPT und DarkGPT. Sie können schädliche Software und Phishing-Kampagnen erstellen. Einige enthalten sogar Lehrmaterialien zu Hacking-Techniken.
Margaret Cunningham ist Vizepräsidentin für Sicherheit und AI-Strategie bei Darktrace, einem Sicherheitsunternehmen. Sie sagt, es ist einfach. „Man muss nicht wissen, wie man programmiert, nur wo man das Tool findet."
Es gibt eine neue Entwicklung namens Vibe-Coding oder Vibe-Hacking. Sie könnte es angehenden Kriminellen ermöglichen, AI zu nutzen, um ihre eigenen bösartigen Programme zu erstellen, anstatt sie aus Untergrundquellen zu kaufen. Anthropic gab Anfang des Jahres bekannt, dass es mehrere Versuche gestoppt habe, seine Claude AI zur Erstellung von Ransomware durch „Kriminelle mit wenigen technischen Fähigkeiten" zu nutzen.
Die kriminellen Operationen selbst verändern sich. Cyberkriminalität funktioniert laut Experten seit Jahren wie ein Geschäftsmarktplatz. Eine typische Ransomware-Operation umfasste verschiedene Gruppen. Zugangsvermittler, die in Unternehmensnetzwerke einbrachen und den Zugang verkauften. Eindringteams, die sich durch Systeme bewegten und Daten stahlen. Und Ransomware-as-a-Service-Anbieter, die die Malware freisetzten, Verhandlungen führten und das Geld aufteilten.
AI hat die Geschwindigkeit, Größe und Verfügbarkeit dieses Systems erhöht. Arbeiten, die zuvor von Menschen mit technischem Wissen erledigt wurden, können jetzt automatisch ablaufen. Dies ermöglicht es diesen Gruppen, mit weniger Personen, geringerem Risiko und höheren Gewinnen zu operieren. „Denken Sie daran als die nächste Ebene der Industrialisierung. AI erhöht den Durchsatz, ohne mehr qualifizierte Arbeitskräfte zu benötigen", erklärt Christin.
Kann AI Angriffe völlig selbstständig starten? Noch nicht ganz. Experten vergleichen die Situation mit dem Drängen nach vollständig selbstfahrenden Fahrzeugen. Die ersten 95 % wurden erreicht. Aber der letzte Teil, der es einem Auto ermöglichen würde, jederzeit und überall von selbst zu fahren, bleibt unerreichbar.
Forscher testen die Hacking-Fähigkeiten von AI in Laborumgebungen. Ein Team an der Carnegie Mellon, unterstützt von Anthropic, hat Anfang des Jahres die berühmte Equifax-Datenpanne mithilfe von AI nachgestellt. Singer leitete die Arbeit am CyLab Security and Privacy Institute der Carnegie Mellon. Er nennt es „einen großen Sprung".
Kriminelle nutzen AI für schädliche Zwecke. Aber AI-Unternehmen sagen, dass dieselben Tools Organisationen helfen können, ihre digitale Verteidigung zu stärken.
Anthropic und OpenAI bauen AI-Systeme, die kontinuierlich Softwarecode untersuchen können, um Schwachstellen zu lokalisieren, die Kriminelle ausnutzen könnten. Menschen müssen jedoch noch alle Korrekturen genehmigen. Ein kürzlich von Stanford-Forschern entwickeltes AI-Programm schnitt besser ab als einige menschliche Tester bei der Suche nach Sicherheitsproblemen in einem Netzwerk.
Selbst AI wird nicht alle Sicherheitsverletzungen verhindern. Deshalb müssen sich Organisationen darauf konzentrieren, robuste Netzwerke zu schaffen, die während Angriffen weiter funktionieren, sagt Hultquist.
Wenn Sie dies lesen, sind Sie bereits im Vorteil. Bleiben Sie dabei mit unserem Newsletter.
