Deepfakes erkennen: It-Experte gibt Tipps

Von Frank Christiansen

Garching - Ihre Zahl nimmt rasant zu: Auf Social Media sorgen Deepfakes im besten Fall für Unterhaltung. Auf Pornoseiten können sie den Ruf von Menschen zerstören. Deepfakes sind täuschend echte, KI-generierte oder manipulierte Bilder, Videos und Audioaufnahmen. Aber wie enttarnt man sie?

Was ist echt? Bei der Analyse kann man sich zuerst auf die eigenen Augen und Ohren stützen. (Symbolbild)  © Marcus Brandt/dpa

Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit in Garching bei München leitet dort eine Forschungsgruppe zu Deepfakes.

"Bei einem Interview mit einer Person kann man checken: Das soll in Berlin aufgenommen sein an einem bestimmten Tag. Passt denn das Wetter? Man kann bei einem Video auch schauen: Kommen alle Schatten aus der richtigen Ecke?" 

Das könne man händisch machen: "Da zieht man auf einem Standbild von den Schatten eine Linie zu den Schattengebern und schaut, ob alle diese Linien von einem gemeinsamen Punkt ausgehen. Wenn das nicht so ist, dann ist es mit einer sehr hohen Wahrscheinlichkeit ein Deepfake."

Internet Influencer verlor Arm: Jetzt enthüllt er die Wahrheit über seinen Unfall

Ein weiteres Indiz sind Momente, wo zwar Stimme zu hören, aber der Mund der sprechenden Person geschlossen ist: "Dann kann man schauen: Ist das nur eine gleichmäßige Verzögerung zwischen Video und Tonspur, oder hat da die KI einen Fehler gemacht?"

Anzeige

It-Forensiker entlarven: Mit KI gegen KI

Bei der Verwendung von KI-Modellen wie Gemini oder ChatGPT wird in den Metadaten aufgeführt, dass es sich um einen KI-Inhalt handelt. (Symbolbild)  © Philip Dulian/dpa

Es gebe weitere klassische Indizien für einen Deepfake: Artefakte um den Mundbereich, oder Hals und Oberkörper passen von den Hauttönen her nicht zusammen, eine Hand hat sechs Finger, ein Gegenstand verschmilzt mit der Hand, oder schwebt über ihr. 

Ein weiterer Hinweis seien die Metadaten - auch wenn diese fehlen. "Wenn sie mit aktuellen KI-Modellen wie Gemini oder ChatGPT Deepfakes erzeugen, dann steht in deren Metadaten drin, dass das KI-generiert ist. Aber sie können die Metadaten auch wegwerfen." 

Neben dem kritischen Blick und der eigenen Logik gibt es auch KI-Tools, um Deepfakes rasch zu entlarven: "Am Ende kommt ein Zahlenwert zwischen 0 und 100 heraus. 0 steht für echt, 100 steht für gefälscht. Normalerweise hat ein Deepfake einen Wert um die 95", sagt Müller.

Internet Das Netz flippt aus: Dieser Mann ist 60 und sieht aus wie Mitte 20

Allerdings werden die KI-Modelle kontinuierlich verbessert. "Die Modelle konvergieren dazu, Bilder auszugeben, die fast nicht mehr unterscheidbar sind von echtem Material."

Überzeugen KI-Tools vor Gericht?

KI-Tools können Deepfakes entlarven, liefern aber nicht unbedingt eine Erklärung dafür, die vor Gericht standhält. (Symbolbild)  © Philip Dulian/dpa

Trotzdem sieht der Forscher nicht schwarz für die Wirklichkeit: "Das ist wie in der IT-Sicherheit: Der Angreifer verbessert sich und die Verteidigung zieht dann entsprechend nach."

"KI-Erkenner sind oft Blackbox-Systeme. Sie bestimmen mit einer Wahrscheinlichkeit, ob es sich um ein Deepfake handelt, aber sie liefern nicht unbedingt eine Erklärung mit, warum", warnte bereits im Februar Tobias Wirth vom Deutschen Forschungszentrum für Künstliche Intelligenz. 

Die KI könne Systeme, Muster und Indikatoren erkennen, die für das menschliche Auge nicht oder nur schwer wahrnehmbar sind. Das betreffe etwa feine Unstimmigkeiten auf Pixelebene.

Vor Gericht sei das aber problematisch, da im Sinne der Beweiswürdigung nachvollziehbare Aussagen benötigt werden.

Mehr zum Thema Internet: