Navigation überspringen

Auf Social Media Plattformen sind immer wieder Videos zu finden, in denen bekannte Personen Dinge sagen oder tun, die merkwürdig erscheinen und kaum zu glauben sind. Oftmals handelt es sich hierbei um Täuschungen, die mit Hilfe von Deepfakes erzeugt wurden. Die Fälschungen haben teils humoristischen Charakter – beispielsweise werden Politiker*innen in absurd-komischen Settings dargestellt. Oftmals können Deepfakes aber auch zur Verbreitung von Falschnachrichten eingesetzt werden und so Nutzer*innen schockieren. Im Folgenden zeigen wir, was Deepfakes sind, wie diese erstellt werden, was mögliche Auswirkungen sind und wie damit umgegangen werden kann.

Was sind Deepfakes?

Deepfakes sind realistisch wirkende Medieninhalte – vor allem Bild-, Video- und Audioaufnahmen – die mit Hilfe von generativer künstlicher Intelligenz manipuliert wurden. Durch immer ausgefeiltere Technologien wirken diese oftmals verblüffend realistisch, so dass sie kaum von „echten“ Inhalten zu unterscheiden sind. Komplexe Deepfake-Technologien sind in der Lage qualitativ hochwertige Bilder, Videos und Tonaufnahmen von Grund auf zu erstellen und Gesichter sowie Stimmen detailgetreu nachzubauen. Dies ist ein entscheidender Unterschied zu früheren Gesichts- oder Stimmen-Manipulationstechnologien, sogenannten „Cheapfakes“, wie etwa „face“ oder „voice swapping“. Hieber wird beispielsweise in einem Video oder Foto das Gesicht einer Person mit dem einer anderen getauscht. So kann die eingetauschte Person in einem anderen Kontext dargestellt werden. Darüber hinaus, können auch Stimmen und gesprochene Inhalte verändert werden sowie Körperbewegungen einer Person auf eine andere Person in einem Video übertragen werden.

Wie werden Deepfakes erstellt?

Um Deepfakes zu generieren wird ein KI-Programm verwendet, das mit ein einer Vielzahl an Bild-, Video- und Tonmaterial gefüttert wird. In einem Prozess intensiver und wiederholter Beobachtung analysiert das Programm das Material und untersucht Personen auf deren Bewegungen, Mimik, Gesichtszüge oder sogar Stimme, um daraus zu lernen. Dabei überprüft das Programm die eigenen Ergebnisse stets selbst und kann sich so fortlaufend verbessern. Dieser Trainingsprozess wird als „Deep Learning“ bezeichnet. Außerdem gibt das darin steckende „Deep“ gepaart mit „Fake“ (Fälschung) der Deepfake-Technologie ihren Namen. Für die Generierung der Fälschungen zerlegt das KI-Programm anschließend das Lernmaterial, also die analysierten Foto-, Video und Audioaufnahmen, in seine Einzelteile und baut es in neue Kontexte ein. So lassen sich beispielsweise die Gesichter von Personen in Videos montieren, in denen eigentlich jemand anderes zu sehen ist. Durch die Fälschung wirkt es so, als würde die hineinmontierte Person Dinge tun oder sagen, die sie in Wirklichkeit nie gesagt oder getan hat. Heute kann fast jede*r Deepfakes kostenlos im Internet oder mit einer App erstellen und veröffentlichen. Dennoch erfordert die Erstellung von professionellen und realistisch wirkenden Deepfakes häufig noch viel Zeit und Erfahrung.

Mögliche Auswirkungen von Deepfakes

Viele der erstellten Fakes sollen der Unterhaltung dienen. Gleichzeitig tun sich auch viele schädliche Anwendungsbereiche von Deep- und Cheapfakes auf. Manipulierte Bild-, Video- und Tonaufnahmen werden vielfach zur Verbreitung von Desinformationen und Propaganda verwendet. Dies kann demokratische Prozesse wie beispielsweise Wahlen gefährden, da durch Fakes die öffentliche Meinung beeinflusst werden kann. Außerdem werden Deepfake-Technologien vielfach für die Erstellung von pornografischen Fakes, sogenannter Deepnudes, genutzt. Meist stellen solche Deepnudes weiblich gelesene Personen dar (oftmals Prominente, aber auch Privatpersonen). Da die Technologien aber auch Privatpersonen relativ leicht zugänglich sind, ergeben sich auch für Jugendliche mögliche Herausforderungen. Eine Veröffentlichung solch abgeänderter Inhalte kann zu Problemen führen, wie z.B. Mobbing, Rufschädigung, Hetze oder auch Herabwürdigung.

Wie lassen sich Deepfakes erkennen?

Deepfakes lassen sich oft leichter erstellen als erkennen. Gerade aufgrund des voranschreitenden, technologischen Fortschritts, fällt eine Unterscheidung zwischen echt und fake zunehmend schwerer. Unternehmen und Institutionen setzen spezielle Werkzeuge ein, die Deepfakes aufdecken können. Privatpersonen stehen solche Tools meist nicht zur Verfügung. Die Vielzahl an Videos im Internet erschwert es, Inhalte stets eingehend technologisch zu überprüfen. Deshalb ist es umso wichtiger, dass Meldungen und Inhalte im Internet generell kritisch hinterfragt und gegengecheckt werden. Wie das geht, zeigen die folgenden Fragen:

  1. Ist die Quelle vertrauenswürdig?
  2. Wo wurde das Video hochgeladen? Ist die Plattform auch seriös?
  3. Wer verbreitet das Video weiter?
  4. Gibt es Anzeichen für Meinungsmache? Ist der Inhalt reißerisch?

Zudem ist es sinnvoll Faktencheck-Plattformen wie Correctiv oder den dpa-Faktencheck zu Rate zu ziehen. Oftmals werden Fakes, die auf Social Media Plattformen viral gegangen sind, hier überprüft und in Kontext gerückt.

Gleichwohl Deepfakes immer schwerer als solche identifizierbar sind, können leichte Unstimmigkeiten bzw. Unnatürlichkeiten auf einen Fake hindeuten. Teilweise wirkt das Gesicht einer Person unnatürlich verzerrt oder Licht und Schatten erscheinen unpassend. Ein auffallendes Merkmal von Deepfakes kann auch sein, dass der Blick einer Person leer wirkt und sie nicht blinzelt. Doch auch hier wird stetig nachgebessert, um Deepfakes immer realistischer aussehen zu lassen.

Mit dem sogenannten AI-Act, welcher Anfang 2024 verabschiedet wurde und Mitte 2026 vollständig in Kraft treten soll, hat die EU einige Regelungen zum Umgang mit Deepfakes vorgegeben. Im Zentrum der Vorgaben steht eine Transparenz- bzw. Kennzeichnungspflicht für Deepfakes, welche vorsieht, dass Inhalte, die mithilfe von Künstlicher Intelligenz erstellt bzw. manipuliert wurden, entsprechend gekennzeichnet werden müssen. Der Digital Service Act (DSA) nimmt zudem die großen Plattformen in die Pflicht auch ihrerseits Regelungen für KI-generierte Inhalte auf Social Media zu entwickeln und durchzusetzen.

Tipps und Hinweise

Für Eltern und pädagogische Fachkräfte ist es wichtig über Deepfakes Bescheid zu wissen. Sie sollten sich darüber bewusst sein, dass es solche manipulierten Fotos und Videos gibt und dass diese relativ einfach erstellt werden können. Dadurch sollten gerade Videos von (den eigenen) Kindern oder Jugendlichen, die auf Sie suspekt wirken, kritisch betrachtet und überprüft werden. Außerdem ist es wichtig Kinder und Jugendliche über dieses Thema aufzuklären und mit Ihnen gemeinsam zu erarbeiten, wie sich Deepfakes erkennen lassen. Es ist außerdem möglich das Thema „Deepfakes“ mit dem Thema „Recht am eigenen Bild“ zu verknüpfen.