Deepfakes (Foto: DASDING)

Lifestyle Netztrends Deepfakes - harmloser Spaß oder gefährlicher Trend?

AUTOR/IN

Die Technik in Filmen wird immer besser. Animierte Tiere, die echt aussehen und Schauspieler, die plötzlich riesengroß sind - Nichts ist mehr unmöglich.

Aktuell findet man im Netz ziemlich viele Deepfakes. Das ist eine Technik, die mit Hilfe von künstlicher Intelligenz, real wirkende Videos oder Bilder von erstellt. Häufig wird dabei das Gesicht einer Person auf das Gesicht einer anderen gelegt. So wie hier bei Ariana Grande und ihrem Ex-Verlobten Pete Davidson:

Ariana Grande Pete Davidson Deepfake Side by Side.  You can check out the entire clip here https://www.youtube.com/watch?v=fXhPjO8M6oE  #Deepfakes #Deepfake #ArianaGrande #PeteDavidson #Funny #Video #YouTube

In den sozialen Netzwerken existieren mittlerweile zahlreiche Accounts, die sich auf die Erstellung und Verbreitung von Deepfake-Videos spezialisiert haben. Vor allem auf YouTube findest du verschiedenste Clips - von Anleitungen zum Selbermachen bis hin zu professionellen Deepfakes.

Deepfakes in Filmen wie "König der Löwen"

Fans nutzen die Technik häufig, um Filmsequenzen zu verbessern. So auch der Künstler Nikolay Mochkin, der auf Instagram unter dem Künstlernamen "ellejart" aktuellen Filmen einen Trickfilmeffekt verleiht. Besonders beliebt ist sein Remake zum Live-Actionfilm "Der König der Löwen". Viele Fans hatten kritisiert, dass die Tiere durch die extrem real wirkende Animation an Emotionen verlieren würden. Durch die Überarbeitung von Nikolay ähneln die Tiere wieder ihrem Trickfilm-Original.

...And somewhere in the Multiverse Fans are watching this version of the film🦁 This's all that I tried to show you on a life-action with a classic character design. I hope that @disney will make the Lion King reboot soon🙏 . After the release on digital, I'll do more Fan-Made🙌😊 . . . . #thelionking #fanmade #ellejart #disneystudios #simba #nala #pumbaa #timon #scar #rafiki #characterdesign

Warum Deepfakes gefährlich sind

Fans können sich austoben und das Internet hat was zu Lachen. Doch so harmlos wie die Technologie auf den ersten Blick wirkt, ist sie nicht.

Durch Deepfakes ließe sich beispielsweise auch die mediale Berichterstattung manipulieren. So wäre es beispielsweise möglich, ganze Reden von Politikern zu fälschen. BuzzFeed veröffentlichte dazu bereits im letzten Jahr ein Video, in dem sie eine Rede von Obama fälschten, die es so nie gegeben hatte. Das Video wirkt dabei täuschend echt und veranschaulicht, dass die Technik, in den falschen Händen, großen Schaden anrichten könnte.

Auch Privatpersonen können Schaden nehmen. So ging im Juni diesen Jahres die App "DeepNude" an den Start. Hier konnten Nutzer Frauenfotos hochladen - und erhielten innerhalb weniger Sekunden ein realistisch aussehendes Nacktbild der Person. Zwar waren die Bilder mit einem Wasserzeichen versehen und konnten bei genauerem Hinsehen als Fakes enttarnt werden - allerdings eben erst auf den zweiten Blick. Die App ging schon kurze Zeit später wieder offline - durch Deepfake-Technologien lassen sich allerdings ähnliche Ergebnisse erzielen.


Um der Gefahr entgegenzuwirken gibt es bereits eine Software, die Deepfake-Videos erkennen soll. Forscher der University of Albany haben sie entwickelt. Die Software erkennt anhand kleinster Details, wie etwa, ob eine Person nur selten blinzelt oder sich unnatürlich bewegt, ob es sich bei einem Video um einen Deepfake handelt.

Zwischen einem Faceswap bei Snapchat und einem professionell erstellten Deepfake-Video liegen zwar immer noch riesige Unterschiede. Trotzdem sind Deepfakes durchaus mit Vorsicht zu genießen.

AUTOR/IN
STAND