22.900

Zelensky Deepfake – so funktioniert die neue Fake-News Technik

von | Mrz 17, 2022 | Analyse

Ein (schlechter) Selensky Fake wie aus dem Lehrbuch

Genau so ein Vorgehen erwarten wir schon länger, wenn es um die “Deepfake”-Technologie geht. Es klingt wie aus einem Lehrbuch: 

Pro-Kreml-Hacker haben die Website einer legitimen Nachrichtenseite gehackt und dort ein manipuliertes Video vom ukrainischen Präsidenten Wolodymyr Selenskyj platziert, in dem es so aussieht, als würde Selenskyj zur Kapitulation und Niederlegung der Waffen aufrufen. Doch Selenskyj hat das nie gesagt (wird er vermutlich auch nie). Das Video ist ein Deepfake. Und die News-Website hat es auch nicht freiwillig veröffentlicht

Aber auch hier muss man wieder sagen: Es ist der russischen Propaganda kein perfekter Fake gelungen. Man sieht relativ einfach, dass es unnatürlich aussieht. Auf Twitter teilen es Nutzer*innen vor allem, um sich darüber lustig zu machen: 

https://twitter.com/Shayan86/status/1504131692411432966

Wie immer ist es wichtig, dass man die Fähigkeiten der russischen Propaganda nicht total überschätzt, wie beispielsweise beim Stewardessen-Video mit Putin – denn das war echt! Man sieht es, wenn man sich das Video in höherer Auflösung anschaut. Es ist schlicht so, dass sich der Aufwand für die russische Propaganda gar nicht lohnt, stundenlang Videos zu faken, wenn einfachere Fakes auch eine gute Wirkung haben. 

Faktencheck: Kein Beleg, dass Putins Stewardess-Video gefälscht ist

Das russische Regime gewinnt, wenn wir richtig nicht mehr von falsch unterscheiden können – und das ist auch der Fall wenn wir “alles” für Fake halten. 

https://twitter.com/ShaneHuntley/status/1504199570506469379

 

Deepfakes sind praktisch eine künstliche Intelligenz, welche trainiert wird, Bilder von Gesichtern zu erzeugen. Als Trainingsmaterial können beispielsweise öffentlich verfügbare Videos von berühmten Personen verwendet werden. Die Bilder können dann sogar so generiert werden, dass sie zur Mimik eines anderen Gesichts passen. Dadurch kann man einen Schauspieler mit einem anderen Gesicht ausstatten. Genau diese Technologie wurde nämlich in der neuen Disney Serie “Boba-Fett” für Luke Skywalker eingesetzt – und von vielen als sehr überzeugend empfunden.

Deepfakes sind (noch) nicht allmächtig

Man muss aber bedenken: Selbst für professionelle Video-Produzent*innen sind Deepfakes keine einfache Sache. Das Indie-Studio “Corridordigital” hat zum Beispiel versucht die “Luke Skywalker”-Szene im “Mandalorian” per Deepfake darzustellen (hier) – und musste durchaus größeren Aufwand betreiben. Dinge wie Belichtung sind zum Beispiel auch mit Deepfake schwer realistisch hinzubekommen. Oft ist daher noch Einiges an Nachbearbeitung nötig: 

YouTube player

Auch Haare sind ein Schwachpunkt von Deepfakes, deshalb trägt der “Keanu Reeves” Deepfake in diesem Video dauernd eine Mütze: 

YouTube player

Auch hat Corridor in diesem Video konstant darauf geachtet, dass “Keanus” Gesicht nie zu nah an der Kamera ist, damit es eben nicht auffällt, dass es durchaus noch Schwächen hat. 

Das sind also die Schwächen: die Darstellung von hoher Auflösung, Haare und andere filigrane Strukturen im Gesicht oder auch die Beleuchtung. 

Es ist eben nicht komplett trivial, realistische Deepfakes zu erstellen. Propaganda funktioniert aber vor allem über Masse, nicht so sehr über Qualität. Man versucht tausende schlechte Fakes rauszuhauen und hofft, dass schon irgendwas hängen bleibt. Aber wir werden auch damit fertig: 

Faktenchecks: Putins False-Flag Fake News über die Ukraine

Die häufigsten Fakes sind immer noch Videos irgendwelcher weird aussehender Männer, die ihre “Expertise” über Virologie in einem Monolog zum Besten geben – und dafür tausendfach geteilt werden. Da braucht es kein Deepfake, wenn Leute auf solchen Schund schon reinfallen. 

Automatisierte Tools könnten Deepfakes erkennen

Genau wie KI lernen kann, ein Fake Video zu erstellen, kann sie auch lernen, Fake Videos zu erkennen. Hierzu gibt es schon mehrere Papiere und auch Online-Tools. Auch Facebook selbst hat dazu einen Wettbewerb durchgeführt, bei dem Teilnehmer*innen die beste Anti-Deepfake Technologie programmieren sollten (Quelle). 

Genauso wie Deepfakes sind aber auch diese Technologien noch nicht perfekt. Es bedarf eben immer alles zusammen: eine kritische Öffentlichkeit, gut ausgestattete (menschliche) Moderator*innen der Plattformen und technische Hilfe. Facebook hat das Video bereits überall entfernt, aber auf Twitter zirkuliert es aktuell immer noch ohne ein Label (Update: Offenbar auf Twitter überall weg). Es braucht daher verlässliche Tools, die es auch kleineren Plattformen erlauben, solche Videos zu erkennen und zu kennzeichnen. 

Ausblick Deepfakes

Deepfakes sind schon länger ein problematisches Feld, denn sie wurden auch schon missbraucht um unfreiwillige Pornographie von Frauen herzustellen, die das gar nicht wollten. Jetzt setzt der Kreml sie offenbar auch gezielt in Fake News Kampagnen ein.

Einerseits kann es nun sein, dass durch das Scheitern dieses Versuchs der Desinformation die Pro-Kreml Propaganda erst einmal die Finger von solchen Versuchen lässt. Andererseits haben sie jetzt die Modelle von Selenskyjs Gesicht vorliegen und könnten eventuell noch weitere Versuche starten. Eine Schwachstelle sind auch noch die Messenger-Dienste: dort ist ein automatisiertes Entfernen nicht möglich. Außerdem haben Videos in Messengern normalerweise eine niedrigere Auflösung, damit sie sich einfach teilen lassen – ideal für Deepfakes. Also teilt diesen Artikel mit euren Freund*innen, damit sie dort weiter die Augen offen halten. 

Spendiere uns einen Kaffee:
Unterstütze uns auf Paypal Unsere Autor:innen nutzen die Corona-Warn App des RKI.