Schweizer Softwareentwickler belegt zweiten Platz in globalem KI-Wettbewerb
Ein Forscher hat im Rahmen eines globalen Wettbewerbs eine KI entwickelt, die mit einer Genauigkeit von 98,53 Prozent Deepfake-Videos von nicht manipulierten Videos unterscheidet. Knapp auf dem zweiten Platz befindet sich ein KI-Modell, das mit Beteiligung eines Schweizer Softwareentwicklers von der EPFL entstanden ist.
Die künstliche Intelligenz (KI) eines Schweizer Softwareentwicklers hat in einem globalen Wettbewerb den zweiten Platz abgeräumt. In einer fünf Monate langen Herausforderung versuchten verschiedene Teams, eine KI zu kreieren, die Deepfake-Videos möglichst gut von authentischen Aufnahmen unterscheiden kann. Dabei traten gemäss "The Straits Times" 470 Teams gegeneinander an. Der Wettbewerb "Trusted Media Challenge" fand im Rahmen der "AI Singapur" statt, einem staatlich geförderten Programm der National Trust Foundation.
KI mit Schweizer Beteiligung knapp am ersten Platz vorbei
Den zweiten Platz gewannen der Schweizer Peter Grönquist, Computerwissenschaftler an der EPFL, und der chinesische Doktorand Ren Yufan. Beide arbeiten im "Image and Visual Representation Lab" der EPFL. Sie erhielten 50'000 US-Dollar und ein Start-up-Stipendium im Wert von 150'000 Dollar, um ihre KI zu vermarkten. Ausserdem will das singapurische Unternehmen SPH Media bei der Weiterentwicklung des KI-Modells mithelfen und seine Anwendbarkeit in Nachrichtenredaktionen untersuchen.
Die KI der Zweitplatzierten konnte mit einer Genauigkeit von über 98 Prozent erkennen, ob sie ein Video mit manipulierten Gesichtern, Stimmen oder beidem erkannte oder ob das Video unbearbeitet war. Damit lag diese KI nur knapp hinter dem Modell, das den Wettbewerb mit einer Genauigkeit von 98,53 Prozent für sich entscheiden konnte.
Bytedance-Forscher holt sich den Sieg
Der Schöpfer der genauesten KI und damit der Gewinner des Wettbewerbs war der Forscher Weimin Wang, der für Tiktok-Mutter Bytedance arbeitet. Wang erhielt 100'000 Dollar und ein 300'000 Dollar schweres Start-up-Stipendium. Aber er will sein KI-Modell lieber in die Plattform Byteplus seines Arbeitgebers einbinden, um den Kunden Deepfake-Erkennung als Service anzubieten, wie es weiter heisst.
"Ob gut oder schlecht, Deepfake ist eine aufkommende Technologie, die man einfach nicht ignorieren kann", sagte Wang gemäss "The Straits Times". Er habe sich zur Teilnahme entschlossen, weil die aktuellen Herausforderungen für die Medien mit seinen Forschungsinteressen übereinstimmten und er ein starkes Interesse daran hatte, durch die Entwicklung von KI-Produkten reale Probleme zu lösen.
Für welche Zwecke Deepfake missbraucht werden kann, zeigt auch Russlands Krieg gegen die Ukraine. Ein manipuliertes Video gaukelte etwa vor, dass der ukrainische Präsident kapituliert. Erfahren Sie hier mehr dazu.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den wöchentlichen Newsletter von Swisscybersecurity.net an. Auf dem Portal gibt es täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.