STAND
AUTOR/IN

Die Technik in Filmen wird immer besser. Animierte Tiere, die echt aussehen und Schauspieler, die plötzlich riesengroß sind - nichts ist mehr unmöglich. Das wird aber auch ausgenutzt. Um dagegen vorzugehen, bannt Facebook jetzt Deepfakes.

Aktuell findet man im Netz ziemlich viele Deepfakes. Das ist eine Technik, die mit Hilfe von künstlicher Intelligenz, real wirkende Videos oder Bilder erstellt. Häufig wird dabei das Gesicht einer Person auf das Gesicht einer anderen gelegt. Relativ harmlos wirkt das zum Beispiel hier bei Ariana Grande und ihrem Ex-Verlobten Pete Davidson:

Ariana Grande Pete Davidson Deepfake Side by Side.  You can check out the entire clip here https://www.youtube.com/watch?v=fXhPjO8M6oE  #Deepfakes #Deepfake #ArianaGrande #PeteDavidson #Funny #Video #YouTube

Fans nutzen die Technik auch häufig, um Filmsequenzen nach ihrem Geschmack zu verändern. Beispiel: König der Löwen.

...And somewhere in the Multiverse Fans are watching this version of the film🦁 This's all that I tried to show you on a life-action with a classic character design. I hope that @disney will make the Lion King reboot soon🙏 . After the release on digital, I'll do more Fan-Made🙌😊 . . . . #thelionking #fanmade #ellejart #disneystudios #simba #nala #pumbaa #timon #scar #rafiki #characterdesign

Vor allem auf YouTube findest du verschiedenste Clips - von Anleitungen zum Selbermachen bis hin zu professionellen Deepfakes.

Deepfakes können aber auch missbraucht werden. Durch die Technik können Inhalte manipuliert und Falschmeldungen verbreitet werden.

Facebook verbannt Deepfakes von ihrer Plattform

Facebook und die dazugehörige Plattform Instagram haben bereits im vergangenen Jahr damit begonnen, stärker gegen Falschmeldungen vorzugehen.

Nun will Facebook „Deepfakes und sämtliche Formen von manipulierten medialen Inhalten" von ihrer Plattform verbannen. Das gab das Unternehmen in einem Blogpost bekannt. Demnach will die Plattform zukünftig Inhalte, die von einer künstlichen Intelligenz erstellt sind oder deren Inhalt irreführend ist, löschen. So sollen Falschmeldungen weiter eingeschränkt werden.

Satire und Parodien sollen nicht von dieser neuen Regelung betroffen sein. Auch Videos, aus denen Wörter entfernt oder in einer anderen Reihenfolge dargestellt werden, fallen nicht unter die Maßnahme. Dazu, wie man Falschmeldungen von Satire unterscheiden will, äußerte sich Facebook nicht.

Facebook stand bereits in der Kritik, weil die Plattform ein gefälschtes Video nicht entfernte

Im Mai 2019 war ein Video von einer Rede der Sprecherin des US Repräsentantenhauses, Nancy Pelosi, aufgetaucht, in dem sie stotterte und Wörter wiederholte. Dadurch wirkte die Politikern verwirrt. Bei dem Video handelte es sich allerdings um einen Fake. Tatsächlich hatte Pelosi ihre Rede frei vorgetragen. Das manipulierte Video verbreitete sich über Social Media wie ein Lauffeuer.

Durch den Facebook Faktencheck wurde das Video als "falsch" eingestuft und die Reichweite eingeschränkt. Gelöscht wurde der gefälschte Inhalt allerdings nicht. Dafür erntete das Unternehmen harsche Kritik. Und auch die neue Regelung sieht nicht vor, Videos, in denen lediglich die Anordnung der Wörter verändert wird, zu löschen. Ob die neue Maßnahme also wirklich hilft, um gegen gefälschte Inhalte vorzugehen, bleibt abzuwarten.

Porno-Deepfakes ohne Einverständnis: YouTuber LeFloid spricht von „VR-Avatar-Skandal“

Wie weit die Technik gehen kann, zeigen auch aktuelle Recherchen wie die von Vice oder auch LeFloid.

In einem Video erzählt der YouTuber, dass die Animationstechnologie in der Pornoindustrie schon länger zum Einsatz kommt: Die Darsteller lassen ihren ganzen Körper mit verschiedenen Kameras scannen und werden dann am Computer zu 3D-Avataren. Dafür bekommen sie Geld und das Recht am Avatar.

Inzwischen sollen die Programme und die Möglichkeiten online aber so fortgeschritten sein, dass theoretisch jeder einen solchen Avatar erstellen und in verschiedene Projekte hinein animieren kann. Man bräuchte dafür nur ein Foto einer Person und könne sich dann einen Avatar zusammenbasteln, der aussieht und sich bewegt, wie man möchte.

In verschiedenen Online-Foren sollen User angeblich total stolz erzählt haben, dass sie ihre Exfreundinnen anhand von einem Foto animiert haben und dann quasi Rachepornos mit ihnen erstellt haben. Das Ganze geht aber sogar noch weiter: Auch Folter- und Horrorszenarien soll es inzwischen geben. Riesen Problem dabei: Man kann sich dagegen quasi gar nicht wehren.

Aktuell ist die Sach- und Gesetzeslage noch dermaßen im Grauzonenbereich, dass du das Einverständnis der Person, die du da einscannst, nicht brauchst.

YouTuber LeFloid

Nacktscanncer-App "Deepnude" macht aus Fotos Nacktbilder

Die Deepfake-Technologien haben schon im Sommer für Bedenken gesorgt. Im Juni war nämlich die App „DeepNude“ an den Start gegangen. Hier konnten Nutzer Frauenfotos hochladen - und erhielten innerhalb weniger Sekunden ein realistisch aussehendes Nacktbild der Person. Zwar waren die Bilder mit einem Wasserzeichen versehen und konnten bei genauerem Hinsehen als Fakes enttarnt werden - allerdings eben erst auf den zweiten Blick. Die App ging schon kurze Zeit später wieder offline - durch Deepfake-Technologien lassen sich allerdings ähnliche Ergebnisse erzielen.

Welches Recht man am eigenen virtuellen Ich hat, ist etwas, das in Zukunft besprochen werden muss. Und zwar lieber früher als später.

YouTuber LeFloid

Deepfake-Manipulation in der Politik?

Auch in Bezug auf Fake News in der Politik spielt die Technologie eine Rolle: Durch Deepfakes ließe sich nämlich beispielsweise auch die mediale Berichterstattung manipulieren. So wäre es unter anderem möglich, ganze Reden von Politikern zu fälschen.

BuzzFeed veröffentlichte dazu bereits im letzten Jahr ein Video, in dem sie eine Rede von Obama fälschten, die es so nie gegeben hatte. Das Video wirkt dabei täuschend echt und veranschaulicht, dass die Technik auch in politischer Hinsicht großen Schaden anrichten könnte.

Software kann Deepfake-Videos erkennen

Immerhin kann der Gefahr der Manipulation ein bisschen entgegengewirkt werden: Eine Software von Forschern der University of Albany soll anhand kleinster Details erkennen können, ob es sich bei einem Video um Deepfake handelt oder nicht.

Und auch sonst wird die Technologie ja nicht nur für böse Zwecke verwendet: Zwischen einem Faceswap bei Snapchat und einem professionell erstellten Deepfake-Video liegen ja auch schließlich immer noch riesige Unterschiede. Eine Lösung für den missbräuchlichen Einsatz der Technologie, den LeFloid als "VR-Avatar-Skandal" bezeichnet hat, gibt es im Moment aber noch nicht - und zumindest das wirkt natürlich etwas beängstigend.

🔝 Meistgelesen

  1. Starnews K-Pop-Fans überfluten den Hashtag #WhiteLivesMatter

    Der Hashtag #WhiteLivesMatter hat sich gegen die #BlackLivesMatter-Bewegung gerichtet - bis K-Pop-Fans den Hashtag übernommen haben. Jetzt sollen statt rassistischer Kommentare positives Vibes trenden.  mehr...

  2. Coronavirus Lockerung der Corona-Maßnahmen

    Mit den Freunden im Biergarten sitzen, oder mal wieder richtig Shoppen gehen: Wir haben zusammengefasst, was du in Baden-Württemberg und Rheinland-Pfalz darfst und was nicht.  mehr...

  3. Interview Song-Tindern mit Emilio

    In diesem Song-Tindern in der @Home Variante videochatten wir mit Musiker und Schauspieler Emilio. Welche Gemeinsamkeiten er und Kontra K haben und was ein Überfall auf einen Supermarkt damit zu tun hat? Check es hier:  mehr...

  4. Serien Haben die Simpsons uns diese Ereignisse vorhergesagt?

    Dass die Simpsons uns angeblich regelmäßig die Zukunft voraussagen, flasht uns immer wieder. Wir haben die krassesten Prophezeiungen aus 30 Jahre Simpsons nochmal zusammengefasst.  mehr...