Deepfake-Pornografie

Pornografie mit computertechnisch eingefügten Gesichtern realer Personen
(Weitergeleitet von Deepfake-Pornographie)

Deepfake-Pornografie ist ein Pornografie-Segment, das das durch Computer berechnete Einfügen von Gesichtern realer Personen in pornografische Bilder oder Filme zum Inhalt hat.

Definition Bearbeiten

Deepfake“ ist ein Kofferwort, das die englischsprachigen Begriffe Deep Learning und Fake kombiniert und die kombinierte Darstellung unterschiedlicher Medienquellen unter Verwendung von Prinzipien künstlicher neuronaler Netze beschreibt, die dem Betrachter den falschen Eindruck vermitteln, ein Subjekt befinde sich in einem Szenario, das tatsächlich nicht in Zusammenhang mit dem Subjekt steht. Ein einfaches Beispiel ist „face swapping“, das vom Computer berechnete Einfügen eines Gesichts in das Abbild eines anderen Menschen. Wird ein Gesicht einer real existierenden Person in pornografische Szenen eingefügt, so dass sich der wahrheitswidrige Eindruck ergibt, die Person sei Teil der Szene, spricht man von Deepfake-Pornografie.

Technik Bearbeiten

Für die Berechnung von Deepfake-Filmen werden Techniken aus der KI-Forschung genutzt.[1] Bilder und Videos werden durch Software auf Muster und Gesetzmäßigkeiten analysiert, bis die Software in der Lage ist, sowohl den zu Grunde liegenden Film als auch das zu Grunde liegende Gesicht als dreidimensionales Modell zu berechnen und das Gesichtsmodell in den Film einzufügen. Mit handelsüblicher Hardware betrug die Rechenzeit für diese Aufgabe 2017 je nach verfügbarer Hardware mehrere Stunden bis mehrere Tage. Stand 2020 war eine händische Nachbearbeitung des Rechenresultats die Regel.[2]

Geschichte Bearbeiten

Das Einfügen von Gesichtern Prominenter in pornografische Bilder ist ein altbekanntes Phänomen. 2001 gewann beispielsweise die Tennisspielerin Steffi Graf einen Prozess gegen den Technikkonzern Microsoft, da dieser nicht gegen gefälschte Pornobilder mit Grafs Gesicht auf seinem Webportal MSN vorgegangen war.[3] Laut des Variety-Magazins kam das Deepfake-Pornografie-Phänomen im Dezember 2017 auf, als ein Reddit-Nutzer mehrere Pornovideos bereitstellte, in denen scheinbar prominente Frauen mitspielten.[1] Der Erschaffer nutzte frei zugängliche Programme wie Keras oder TensorFlow, um den Film zu erstellen. Laut des Vice-Magazins war die israelische Schauspielerin Gal Gadot (Wonder Woman) das erste Opfer, dessen Gesicht in einen Pornofilm montiert wurde.[4] Binnen Wochen folgten weitere Filme, in denen scheinbar Scarlett Johansson, Maisie Williams, Taylor Swift oder Aubrey Plaza mitspielten. Im Januar 2018 veröffentlichte ein anderer Reddit-Nutzer eine Applikation namens FakeApp, mit der Anwender ohne weitergehende technische Kenntnisse selbst Gesichter in einen Pornofilm montieren konnten.[1]

Bereits unmittelbar nach der Veröffentlichung der ersten Filme wies das Vice-Magazin darauf hin, dass auf Grund der breiten Verfügbarkeit von benötigter Hard- und Software einerseits und der breiten Verfügbarkeit von privaten Fotos in den sozialen Medien andererseits das Erstellen von Deepfake-Pornografie für gezieltes Mobbing gegen Privatpersonen genutzt werden könne.[4] Einzelne Hosting-Seiten begannen schon wenige Wochen nach der Veröffentlichung des ersten Films damit, die von anonymen Nutzern hochgeladenen Filme von ihren Plattformen zu entfernen, woraufhin die Nutzer allerdings auf andere Plattformen auswichen. Zu den Plattformen, die Deepfake-Pornografie über ihre Nutzungsbedingungen aus ihrem Hostingangebot ausschlossen, gehören Discord, Gfycat, Pornhub, Twitter und seit Februar 2018 Reddit selbst.[5] Stand 2020 hatten auch die Social-Media-Plattformen Facebook und Youtube ihre Geschäftsbedingungen dahingehend angepasst, dass Deepfake-Videos nicht hochgeladen werden durften.[2] Das Videoportal Gfycat setzt bei seinen Recherche-Arbeiten dabei eigenen Angaben zufolge seinerseits KI-Techniken zur Erkennung von Deepfake-Pornografie ein. Diese prüfen aber lediglich von Nutzern neu hochgeladene Bildsequenzen, während bereits vor Einsatz der Technologie hochgeladene Werke monatelang unbeanstandet präsentiert wurden und von Nutzern manuell gemeldet werden mussten.[6] Techniken, die Deepfake-Pornografie aus „regulärer“ Pornografie herausfiltern sollen, prüfen Bildsequenzen unter anderem auf auffällige Hautstellen und ungewöhnliche Blinzelfrequenzen der Darstellerinnen.

2019 waren laut einer Analyse der italienischen Firma DeepTrace Technologies fast 96 % aller Deepfake-Videos im Internet pornografische Videos.[7] Zu diesem Zeitpunkt machten südkoreanische Sängerinnen des K-Pop-Genres etwa 25 % der Deepfake-Pornografie-Opfer aus, während die Konsumenten mehrheitlich in China lokalisiert wurden. Das US-Magazin Input zitierte im August 2020 eine nicht näher spezifizierte Studie, der zufolge weltweit pro Monat über 1000 pornografische Deepfake-Videos auf einschlägige Seiten hochgeladen würden.[8]

Stand 2020 haben einige US-Bundesstaaten[9] sowie China und Südkorea Gesetze erlassen, die das Inverkehrbringen von Deepfake-Pornografie unter Strafe stellen.[2]

Nudify-Dienste Bearbeiten

 
Beispiel für ein mit einem Nudify-Dienst bearbeitetes Ausgangsbild, hier ein Digitalisat eines idealisierten Porträts von Simonetta Vespucci durch Sandro Botticelli links und das mit AI bearbeitete Bild rechts

Nudify-Dienste könnten als ein Sonderfall von Deepfake-Software beschrieben werden, die technisch auf leistungsfähigen Diffusionsmodellen beruhen.[10] Vorgeblich entkleiden sie Frauen, wozu bei entsprechenden Webdiensten Fotos z. B. aus Sozialen Netzwerken oder aus dem Internet hochgeladen werden müssen; tatsächlich werden auf einem Foto Bereiche durch die KI generativ gefüllt. Im September 2023 erreichte die Zahl der Besucherinnen und Besucher bei sogenannten Nudify-Diensten einen ersten Höchststand mit 24 Millionen Besuchern, zugleich stieg die Werbung für entsprechende Angebote seit Januar 2023 laut Graphika um 2.400 % an.[10] Datenschützerinnen und Datenschützer zeigen sich besorgt, weil die technischen Hürden um Deepfake-Fotos zu erzeugen, durch die Fortschritte in der KI-Technologie niedriger würden, während zuvor vor allem Persönlichkeiten des öffentlichen Lebens durch gefälschte, unerwünschte Nacktfotos im Internet belästigt wurden.[10] Weder gibt es aktuell einen wirksamen technischen Schutz gegen Tools, „die erwachsene Frauen ohne Erlaubnis entkleiden“, noch eine gesetzliche Regulierung KI-gesteuerter Apps (Stand 2024).[10]

Rezeption Bearbeiten

Der Technologiedienstleister DeepTrace Technologies, der 2019 eine Analyse zum Status der Deepfake-Pornografie veröffentlichte, hielt fest, dass das Pornografie-Segment in den Anfangstagen der Treiber des Deepfake-Markts gewesen sei.[7] Das Medium Deepfake sei zwar prinzipiell geeignet, politische Prozesse zu stören und zu unterminieren, primär werde es aber genutzt, um im Rahmen von Deepfake-Pornografie Frauen zu demütigen und abzuwerten. Das US-Nachrichtenmagazin Business Insider sah darüber hinaus die Gefahr, dass die Opfer der Manipulationen mit diesen erpresst werden. Das Magazin wies auch darauf hin, dass die Deepfake-Pornografievideos keine echten Sexszenen der Opfer zeigten und sich damit in einer rechtlichen Grauzone befänden.[5] Das Technikportal The Verge zeigte bereits im Dezember 2017 die Gefahr auf, dass Deepfake-Pornografie als Mobbing-Mittel gegen Mitschüler und Mitschülerinnen eingesetzt werden könne, und wies darauf hin, dass die Begrenzung des Phänomens dadurch erschwert würde, dass die Ersteller Open-Source- statt proprietärer Software einsetzten.[11] Das Lifestylemagazin Vice äußerte die Sorge, dass technische Maßnahmen gegen Deepfake-Pornografie unweigerlich zu einem „Katz-und-Maus-Spiel“ mit Erstellern und Verbreitern der Filmchen führe, da letztere erfahrungsgemäß nach jeder Installation einer Schutzmaßnahme versuchen würden, diese zu umgehen.[6] Vertreter der Pornofilmindustrie äußerten sich teils kritisch oder besorgt über das Aufkommen von Deepfake-Pornografie. So kritisierte der damalige Finanzvorstand der US-amerikanischen Produktionsfirma Evil Angel, dass Deepfake-Pornografie per Definition Dinge zeige, denen die dargestellte Person nie zugestimmt habe.[1] Der deutsche Spiegel mutmaßte, dass die Medien durch ihre Berichterstattung zum Thema der Popularität von Deepfake-Pornografie Vorschub geleistet hätten, und wies darauf hin, dass die zugrunde liegende Faceswap-Technologie in Apps wie Snapchat längst Eingang in die Massenkultur gefunden habe.[12]

Einzelnachweise Bearbeiten

  1. a b c d Variety.com: Porn Producers Offer to Help Hollywood Take Down Deepfake Videos. Abgerufen am 29. November 2020.
  2. a b c IEEE.org: What Are Deepfakes and How Are They Created? Abgerufen am 29. November 2020.
  3. Spiegel.de: Steffi Graf gewinnt gegen Microsoft. Abgerufen am 29. November 2020.
  4. a b Vice.com: AI-Assisted Fake Porn Is Here and We’re All Fucked. Abgerufen am 29. November 2020.
  5. a b BusinessInsider.com: From porn to 'Game of Thrones': How deepfakes and realistic-looking fake videos hit it big. Abgerufen am 29. November 2020.
  6. a b Vice.com: Gfycat's AI Solution for Fighting Deepfakes Isn't Working. Abgerufen am 29. November 2020.
  7. a b RollingStone.com: Deepfake Porn Is Still a Threat, Particularly for K-Pop Stars. Abgerufen am 29. November 2020.
  8. InputMag.com: Deepfake porn is getting easier to make and it's coming for regular people soon. Abgerufen am 29. November 2020.
  9. TheFulcrum.us: Deepfakers beware: Do it in California or Texas and you'll be in deep trouble. Abgerufen am 29. November 2020.
  10. a b c d Vgl. Andreas Donath: Nudify: KI-Entkleidungs-Apps verzeichnen starkes Wachstum. Auf: golem.de vom 11. Dezember 2023.
  11. TheVerge.com: AI tools will make it easy to create fake porn of just about anybody. Abgerufen am 29. November 2020.
  12. Spiegel.de: Firmen gehen gegen gefälschte Promi-Pornos vor. Abgerufen am 29. November 2020.