Navigation überspringen

Künstliche Intelligenz ist in der heutigen Zeit in fast allen Bereichen zu finden. Insbesondere die Generierung von neuen Inhalten, wie Bildern oder Videos, hat sich in den letzten Jahren durch zahlreiche Tools zu einem großen Anwendungsgebiet entwickelt. Deshalb ist es kaum verwunderlich, dass KI auch beim Thema Pornografie mittlerweile eine Rolle spielt – sei es im Kontext von virtuellen Influencer*innen, die pornografische Inhalte gegen Geld anbieten oder der Generierung von pornografischen Materialen mittels KI. Da bereits einige Jugendliche mit Pornografie in Berührung kommen, haben diese Entwicklungen ebenso Einfluss auf ihre Mediennutzung. Zudem wird das Thema Deepfake in diesem Kontext besonders relevant und kann im schlimmsten Fall dazu führen, dass Jugendliche Opfer von Missbrauch von Bildmaterial werden.

Plattformen mit KI-Influencer*innen

Während sich bereits auf diversen bekannten Social-Media-Plattformen wie zum Beispiel Instagram vereinzelt Profile von KI-Influencer*innen finden lassen, gibt es Plattformen, die speziell auf die Veröffentlichungen von KI-Influencer*innen ausgerichtet sind. So auch die Plattform Fanvue: Hier sind der Großteil der Profile sichbar als KI generierte Influencer*innen markiert. Das Prinzip von Fanvue ist dabei identlich mit dem Prinzip von OnlyFans: Nutzer*innen können gegen Gebühren, teilweise auch im Abo-Modell, (meist) sexuelle Inhalte von virtuellen Influencer*innen erwerben.

KI-Tools zur Erstellung von pornografischen Bild-/Videoinhalten

Kreative KI-Tools können dazu eingesetzt werden, mittels Anweisungen (sog. Prompts) Bilder und Videos zu erzeugen, die den Vorstellungen der Nutzer*innen entsprechen sollen. Auch im Kontext Online-Pornografie findet dies bereits Anwendung. Während gängige Bildgeneratoren meist Sperren für Pornografische Inhalte besitzen, gibt es KI-Tools, die speziell zur Erstellung von erotischen Inhalten entwickelt wurden. Hier kann sowohl eigenes Material erzeugt oder auf bereits bestehendes Material anderer Nutzer*innen zugegriffen werden. Es ist ersichtlich, dass die KI bei der Erzeugung der Inhalte meist auf stereotypische Darstellungen und klassische Schönheitsideale zurückgreift. Auch entsprechen die generierten Inhalte bzw. die eingegebenen Prompts oft dem in „klassischer“ – nicht KI-basierter – Pornografie vermittelten Bild von Sexualität und können zu einer verzerrten Wahrnehmung von Sexualität bei Jugendlichen führen.

Deepfakes

Schon seit einiger Zeit kursieren sogenannte Deepfakes  im Netz. Oft werden dabei Gesichter bekannter Personen in Videos eingesetzt, die sie angeblich in gewissen Situationen zeigen sollen. Besonders im Kontext von pornografischen Inhalten werden immer wieder Deepfake Technologien angewandt. Mit speziellen Tools kann nahezu jede*r solche Videos erstellen und Gesichter einsetzen. Dazu genügt meist schon ein Foto. Allerdings werden diese größtenteils ohne Zustimmung der gezeigten Person verwendet. Im Jahr 2019 kam eine Studie zu dem Ergebnis, dass 96% der Deep-Fake Porno-Videos aus nicht-einvernehmlichem Bildmaterial entstanden sind. Hauptsächlich sind Frauen davon betroffen. Durch immer bessere KI-Technolgie und Deep Learning werden die Erscheinungen von Deepfakes zudem immer realistischer und sind kaum noch von echten Videos zu unterscheiden. Aber auch die Erstellung ist weniger zeitaufwendig und komplex, als noch vor einigen Jahren, was es auch für Täter*innen leichter macht, solche Videos zu erstellen.

Die Erstellung und Verbreitung von Deepfake-Videos ohne Zustimmung der gezeigten Person ist strafbar und kann bei der betroffenen Person zu großem Leid führen. Insbesondere das Sammeln und Verbreiten von Bildern einer anderen Person ohne deren Konsens verstößt gegen Persönlichkeitsrechte und ist nach DSGVO strafbar. Je nach Einsatz des Materials können Täter*innen zudem auch wegen Beleidigung, Verleumdung oder übler Nachrede belangt werden.

Tipps und Hinweise

Der Einsatz von KI im Kontext von Online-Pornografie bringt erhebliche Herausforderungen mit sich. KI-Bilderstellungstools reproduzieren gelernte Präferenzen und bilden dabei ebenso wie Pornografie abseits von KI ein verzerrtes Bild von Sexualität ab. Auch Körperbilder, die selbst bei nicht KI-generierten Pornos als unrealistisch einzustufen sind, werden bei KI-generierten Inhalten in die Extreme getrieben. In diesem webhelm-Artikel wird näher beschrieben wie Eltern und pädagogische Fachkräfte Online Pornografie im Gespräch mit Jugendlichen thematisieren können.

Sollten Jugendliche von Datenmissbrauch in Form von Deepfakes betroffen sein, kann es schwer fallen, sich bei einem solch sensiblen Thema einer Erwachsenen Person anzuvertrauen. Deshalb sollten Eltern oder pädagogische Fachkräfte sensibiliert für das Thema sein und sich als Ansprechpersonen zu erkennen geben. Um Betroffenen zu helfen ist es deshalb wichtig, anzuerkennen, dass es sich bei der Verbreitung von Deepfake-Material um schwerwiegenden Missbrauch handelt, der zu ähnlichen Folgen und Traumata für die betroffene Person führen kann, wie die Verbreitung von echtem Material.

Meist ist es im dringensten Interesse der Betroffenen, die Inhalte so schnell wie möglich unzugänglich zu machen. Dafür wenden sich Betroffene bestmöglich an die Plattform, auf denen die Inhalte verbreitet werden, da diese laut Telemediengesetzes (TMG) und des Netzwerkdurchsetzungsgesetzes (NetzDG) verpflichtet sind, Inhalte zu prüfen und zu sperren. In der Praxis ist dies leider gar nicht so leicht, besonders, wenn sich Inhalte über Messenger und andere Wege verbreiten. Ebenfalls sollten die Täter*innen bei der Polizei angezeigt und ein Strafantrag stellen. Hierfür ist es notwendig, entsprechende Beweise zu sammeln und darüber hinaus zu schauen, wo Bilder und Videos hochgeladen werden. Rückwärts-Suchmaschinen, können dabei helfen. Allerdings ist zu beachten, dass es für die Betroffenen höchst traumatisierend sein kann, sich mit dem Material auseinanderzusetzen. Im besten Fall können Ansprechpersonen hier unterstützend wirken, um die Betroffenen zu entlasten.