Nicht nur für Deepfakes

So nutzen Cyberkriminelle künstliche Intelligenz

Uhr
von Kevin Fischer und lha

Künstliche Intelligenz wird bereits rege genutzt und hält noch viel Potenzial bereit. Das haben auch Cyberkriminelle gemerkt. Trend Micro, Europol und UNICRI veröffentlichten jüngst einen Forschungsbericht zum Missbrauch der Technologie.

(Source: wladimir1804 - stock.adobe.com)
(Source: wladimir1804 - stock.adobe.com)

Künstliche Intelligenz (KI) findet immer breitere Anwendung - auch bei Cyberkriminellen. Wie sie dort zurzeit eingesetzt wird und wie die Technologie in Zukunft missbraucht werden könnte, dem sind Trend Micro, Europol und UNICRI in einem Forschungsbericht nachgegangen.

Der Bericht kommt zum Schluss, dass Cyberkriminelle KI als Angriffsvektor und als Angriffsoberfläche nutzen werden. Deepfakes stellen derzeit die bekannteste Nutzung von KI als Angriffsvektor dar. Dabei handelt es sich um realistisch wirkende Medieninhalte wie Fotos, Audiodateien und Videos, welche durch KI abgeändert und verfälscht wurden.

Top 10 Deepfake Videos gemäss Watchmojo.com. (Source: Youtube)

Der Bericht warnt davor, dass in Zukunft neue Screening-Technologien erforderlich sein werden, um das Risiko von Desinformationskampagnen und Erpressung sowie von Bedrohungen, die auf KI-Datensätze abzielen, zu verringern.

"Cyberkriminelle gehören schon immer zu den ersten Nutzern der neuesten Technologien - das ist auch bei KI so. Wie unser Bericht zeigt, wird sie bereits für das Ermitteln von Passwörtern, das Brechen von CAPTCHA-Codes und das Klonen von Stimmen verwendet. Zudem sind noch viele weitere bösartige Innovationen in Arbeit", so Martin Rösler, Leiter des Forward-Looking Threat Research Teams bei Trend Micro.

Wie KI künftig missbraucht wird

KI könne etwa eingesetzt werden, um folgende Angriffsarten zu unterstützen:

  • Überzeugende Social-Engineering-Angriffe in grossem Massstab

  • Malware, mit der in grossem Masse bestimmte Daten aus Dokumenten exfiltriert werden können (Document Scraping)

  • Umgehung von Bilderkennung und Stimmbiometrie

  • Ransomware-Angriffe, bei denen die Opfer noch gezielter ausgewählt und Schutzmechanismen umgangen werden

  • Datenverschmutzung durch die Identifizierung von blinden Stellen in Erkennungsregeln

So wie KI für die Gesellschaft sehr reale Vorteile biete, sei auch die Bedrohung durch böswillige Nutzung allgegenwärtig. Der Report warnt davor, dass KI-Systeme entwickelt werden, um die Wirksamkeit von Malware zu verbessern und Anti-Malware- und Gesichtserkennungssysteme zu stören.

Empfohlene Massnahmen

Die drei Organisationen empfehlen zum Abschluss des Berichts verschiedene Massnahmen im Umgang mit KI:

  • Nutzung des Potenzials von KI-Technologie als Mittel zur Verbrechensbekämpfung, um die Cybersicherheits-Branche und die Polizei zukunftsfähig zu machen

  • Fortsetzung der Forschung im KI-Bereich, um weitere Verteidigungstechnologien zu entwickeln

  • Förderung und Entwicklung sicherer KI-Design-Frameworks

  • Deeskalation von politisch aufgeladener Rhetorik über den Einsatz von KI für Zwecke der Cybersicherheit

  • Nutzung öffentlich-privater Partnerschaften und Einrichtung multidisziplinärer Expertengruppen

Microsoft hat bereits Tools angekündigt, mit denen das Unternehmen gegen Deepfakes vorgehen will. Lesen Sie hier mehr dazu.

Webcode
DPF8_201342