Deepfake-Video gaukelt kapitulierenden ukrainischen Präsidenten vor
Russlands Krieg gegen die Ukraine wird auch regelmässig von Desinformationskampagnen begleitet. Nun machte auch ein Deepfake-Video die Runde, das angeblich den kapitulierenden ukrainischen Präsidenten zeigt. Die sozialen Medien gehen rigoros gegen die Verteilung solcher Fehlinformationen vor.
Seit Beginn von Russlands Krieg gegen die Ukraine meldet sich der ukrainische Präsident Wolodimir Selenski regelmässig in Videos zu Wort, die er über soziale Netzwerke teilt. Dabei geht es ihm vor allem darum, die ukrainische Bevölkerung zu inspirieren und zu zeigen, dass er nicht aus dem Land geflohen ist. Im Internet kursierte nun kurzzeitig ein Video mit einem anderen Tonfall. Es zeigte Wolodimir Selenski, wie er die Ukrainer zur Kapitulation aufrief. In Wirklichkeit war dieser Inhalt jedoch ein Deepfake (ein mithilfe von KI-Tools manipuliertes Video). Zeitgleich wurde der Fernsehsender Ukraine 24 gehackt, wie der Atlantic Council berichtet: Die gleiche Nachricht, die fälschlicherweise dem ukrainischen Präsidenten zugeschrieben wurde, wurde im Nachrichten-Ticker angezeigt. Wolodimir Selenski beeilte sich, die Fake News zu entkräften, indem er sich selbst dabei filmte, wie er sagte: "Wenn ich jemandem anbieten kann, die Waffen niederzulegen, dann der russischen Armee".
Nathaniel Gleicher, zuständig für die Sicherheitspolitik von Meta, erklärte in einer Reihe von Tweets, dass das Video entfernt worden sei: "Wir haben das Video umgehend untersucht und entfernt, weil es gegen unsere Richtlinien gegen manipulierte, irreführende Medien verstösst. Ausserdem haben wir unsere Peers auf anderen Plattformen darüber informiert." Ein Youtube-Sprecher sagte gegenüber CNN, dass das Video von der Plattform entfernt und Downloads blockiert worden seien. Auch Twitter kontrolliert, ob das Video in seinem Netzwerk geteilt wird.
Deepfake ist von schlechter Qualität
In ihrem Blog berichtet die Meta-Gruppe, dass sie in Zusammenarbeit mit Forschenden der Michigan State University (MSU) eine Methode zur Erkennung und Zuordnung von Deepfakes entwickelt hat. Die Technik bedient sich des Reverse Engineering, "ausgehend von einem einzelnen, von der KI erzeugten Bild, zurück zum generativen Modell, das zur Erzeugung des Bildes verwendet wurde".
Nach Ansicht der meisten Kommentatoren ist das Deepfake von Präsident Wolodimir Selenski von schlechter Qualität. Insbesondere in den Augen eines Doktoranden der EPFL, der sich in einem Tweet ironisch äussert:
Dass Deepfakes missbraucht werden können, steht ausser Frage. Doch können sie auch anders eingesetzt werden. Ein Beispiel dafür ist die Webseite "MyHeritage", wie Sie hier nachlesen können.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den wöchentlichen Newsletter von Swisscybersecurity.net an. Auf dem Portal gibt es täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.