So nutzen Cyberkriminelle künstliche Intelligenz
Künstliche Intelligenz wird bereits rege genutzt und hält noch viel Potenzial bereit. Das haben auch Cyberkriminelle gemerkt. Trend Micro, Europol und UNICRI veröffentlichten jüngst einen Forschungsbericht zum Missbrauch der Technologie.
Künstliche Intelligenz (KI) findet immer breitere Anwendung - auch bei Cyberkriminellen. Wie sie dort zurzeit eingesetzt wird und wie die Technologie in Zukunft missbraucht werden könnte, dem sind Trend Micro, Europol und UNICRI in einem Forschungsbericht nachgegangen.
Der Bericht kommt zum Schluss, dass Cyberkriminelle KI als Angriffsvektor und als Angriffsoberfläche nutzen werden. Deepfakes stellen derzeit die bekannteste Nutzung von KI als Angriffsvektor dar. Dabei handelt es sich um realistisch wirkende Medieninhalte wie Fotos, Audiodateien und Videos, welche durch KI abgeändert und verfälscht wurden.
Top 10 Deepfake Videos gemäss Watchmojo.com. (Source: Youtube)
Der Bericht warnt davor, dass in Zukunft neue Screening-Technologien erforderlich sein werden, um das Risiko von Desinformationskampagnen und Erpressung sowie von Bedrohungen, die auf KI-Datensätze abzielen, zu verringern.
"Cyberkriminelle gehören schon immer zu den ersten Nutzern der neuesten Technologien - das ist auch bei KI so. Wie unser Bericht zeigt, wird sie bereits für das Ermitteln von Passwörtern, das Brechen von CAPTCHA-Codes und das Klonen von Stimmen verwendet. Zudem sind noch viele weitere bösartige Innovationen in Arbeit", so Martin Rösler, Leiter des Forward-Looking Threat Research Teams bei Trend Micro.
Wie KI künftig missbraucht wird
KI könne etwa eingesetzt werden, um folgende Angriffsarten zu unterstützen:
Überzeugende Social-Engineering-Angriffe in grossem Massstab
Malware, mit der in grossem Masse bestimmte Daten aus Dokumenten exfiltriert werden können (Document Scraping)
Umgehung von Bilderkennung und Stimmbiometrie
Ransomware-Angriffe, bei denen die Opfer noch gezielter ausgewählt und Schutzmechanismen umgangen werden
Datenverschmutzung durch die Identifizierung von blinden Stellen in Erkennungsregeln
So wie KI für die Gesellschaft sehr reale Vorteile biete, sei auch die Bedrohung durch böswillige Nutzung allgegenwärtig. Der Report warnt davor, dass KI-Systeme entwickelt werden, um die Wirksamkeit von Malware zu verbessern und Anti-Malware- und Gesichtserkennungssysteme zu stören.
Empfohlene Massnahmen
Die drei Organisationen empfehlen zum Abschluss des Berichts verschiedene Massnahmen im Umgang mit KI:
Nutzung des Potenzials von KI-Technologie als Mittel zur Verbrechensbekämpfung, um die Cybersicherheits-Branche und die Polizei zukunftsfähig zu machen
Fortsetzung der Forschung im KI-Bereich, um weitere Verteidigungstechnologien zu entwickeln
Förderung und Entwicklung sicherer KI-Design-Frameworks
Deeskalation von politisch aufgeladener Rhetorik über den Einsatz von KI für Zwecke der Cybersicherheit
Nutzung öffentlich-privater Partnerschaften und Einrichtung multidisziplinärer Expertengruppen