Mehr als einmal haben im Zusammenhang mit dem Dreifachmord in Weitefeld Falschmeldungen die Runde gemacht. Erst kürzlich teilte die Polizei mit, dass über Social-Media gefälschte Fotos beziehungsweise KI-generierte Aufnahmen vom mutmaßlichen Täter Alexander Meisner veröffentlicht wurden. Dieses Phänomen ist kein Einzelfall. Ob Donald Trump als neuer Papst, Olaf Scholz, der einen Antrag auf ein AfD-Verbot bekannt zu machen scheint, oder ZDF-Moderator Christian Sievesr, der im TV eine zwielichtige Betrugsmasche bewirbt – überall im Internet kursieren täuschend echte Bilder und Videos, die mithilfe von künstlicher Intelligenz (KI) erstellt wurden.
Die sogenannten Deep Fakes werden immer besser, und es stellt sich die Frage: Wie können die KI-Fälschungen überhaupt noch von der Realität unterschieden werden? Das beantwortet Carina Kneip, Präventionsexpertin des Landeskriminalamtes, auf Nachfrage unserer Zeitung.

„Jedes Bild, das in den sozialen Medien öffentlich zugänglich gemacht wird, reicht aus, um das mit KI zu generieren, und in einen anderen Kontext zu stellen“, stellt Kneip gleich zu Beginn klar. Nicht immer sind die Absichten dahinter böswillig. Manchmal dienen die Fake-Bilder lediglich zur Unterhaltung oder Satire. Häufig kommt es laut der Expertin allerdings zur bewussten Verbreitung von Desinformationen, Propaganda und der gezielten Diskreditierung von Personen. Auch für Betrugsmaschen oder Sexualdelikte kommt die KI-Bildbearbeitung zum Einsatz.
„Das geht ganz einfach, dafür muss man kein Profi sein.“
Carina Kneip, Präventionsexpertin beim LKA-Rheinland-Pfalz
„Das geht ganz einfach, dafür muss man kein Profi sein“, weiß Kneip. Frei verfügbare Anwendungen ermöglichen es, etwa ursprünglich harmlose Kinderbilder, die Eltern ins Netz gestellt haben, in einen völlig anderen, möglicherweise kinderpornografischen Kontext zu setzten, führt sie als Beispiel auf.
Die KI entwickelt sich dabei in einem rasanten Tempo, sodass es immer schwieriger wird, die Fälschung zu erkennen. „Ich würde meine Hand nicht dafür ins Feuer legen, dass ich nicht auch schon mal selbst ein Video gesehen habe, das Fake war, und ich es im ersten Moment, beim beiläufigen Anschauen nicht erkannt habe“, merkt die Expertin an. Doch ein paar Merkmale weisen beim genaueren Betrachten selbst bei den realistischsten Fälschungen auf die Verwendung von KI hin.
Dabei betont sie: „Das, was ich jetzt sage, kann sehr schnell auch wieder eingeholt sein. Das ist keine grundlegende Verhaltensempfehlung, die immer gelten wird.“ Die folgenden Tipps können zum jetzigen Zeitpunkt noch dabei helfen, Deep Fakes zu enttarnen.

Angebliche Meisner-Fotos: Polizei warnt vor Fälschungen
Der mutmaßliche Dreifachmord von Weitefeld ist weiter ungeklärt. Das scheint die Fantasie einiger Menschen zu beflügeln – im Netz kursieren Fotos, die den Tatverdächtigen angeblich im Wald zeigen. Die Polizei stellt klar: Das sind Fälschungen.
1 Die Hände: „Die KI schafft es aktuell noch nicht, Details wie die Hände gut hinzubekommen“, erklärt Kneip. Es lohnt sich also, mal genau hinzuschauen, ob die Anzahl der Finger stimmt, ob etwa ein Arm fehlt oder Körperteile sehr abgeschnitten wirken. Auch die Ohren sind oft fehlerhaft abgebildet.
2Die Lebendigkeit: Dieser fehlt es besonders in KI generierten Video oftmals. Die gezeigten Personen haben einen leeren Blick und die Bewegungen wirken statisch oder stockend. Auch, wenn das Gesicht und die Mimik nicht natürlich erscheinen oder die Person auffallend rhythmisch blinzelt, kann man davon ausgehen, dass hier KI im Spiel ist.
3 Die Bildqualität: Wenn die abgebildeten Menschen jedoch völlig normal wirken, kann ein Blick auf das Gesamtbild helfen. „Passen Lichteinstrahlung und Schatten? Gibt es Verzerrungen?“, zählt Kneip auf. Außerdem kann man teilweise bereits anhand der Bildauflösung erkennen, dass verschiedene Ausschnitte eine andere Qualität haben und nicht zum Rest des Fotos gehören.
4Quellen checken: „Von wem ist dieses Video überhaupt?“, das sollte man grundsätzlich kritisch hinterfragen, rät Kneip. Besteht Zweifel an der Echtheit eines Beitrags, sollte man die Fakten prüfen und recherchieren, ob noch andere Quellen darüber berichten. Da schafft eine simple Rückwärtssuche im Internet oft schon Abhilfe.
5 Prävention: Kneip empfiehlt Erwachsenen, sich zuerst einmal selbst Kenntnisse anzueignen. Darüber, dass solche Fälschungen existieren und woran man sie erkennt. „Und dann sollte man Kinder und Jugendliche entsprechend darauf vorbereiten.“ Für diese sei es noch schwieriger, zu unterscheiden, was real ist und was nicht. „Die müssen da mit Medienkompetenz herangeführt werden. Man muss hier das kritische Denken schulen“, fordert die Expertin.
Noch mehr Informationen zur missbräuchlichen Verwendung von KI-Fälschungen, den Tätern, die dahinter stecken, sowie weitere Tipps und Tricks zur Erkennung dieser Inhalte, stellt Carina Kneip in einem Online-Seminar am 3. Juni vor.
Was tun, wenn man einen Deep-Fake entdeckt?
„Jede Social-Media-Plattform hat eine Meldefunktion“, erklärt Kneip. Entdeckt man einen KI-generierten Beitrag, der nicht zu harmlosen Unterhaltungszwecken erstellt wurde, sollte man diese Funktion nutzen. Die Plattformen können den Nutzer blockieren oder verwarnen. „Es gibt auch Fälle, in denen Bilder von Frauen, die in der Öffentlichkeit stehen, in einen pornografischen Kontext gesetzt werden“, erklärt die Präventionsexpertin. Betroffene sollten sich juristische Hilfe holen und die Polizei informieren.
Wichtig: „Man sollte die URL, also den Fundort, abspeichern, damit das an die Beamten weitergegeben werden kann.“ Das gilt aber nicht für kinderpornografisches Material. „Davon darf man niemals einen Screenshot machen. Erst mit der Polizei Rücksprache halten“, betont Kneip. Sonst laufe man Gefahr, sich strafbar zu machen. Wer sich unsicher ist, wie beim Fund dieser Art von KI-Fälschungen vorgegangen werden muss, sollte lieber erst mal bei der Polizei anrufen, empfiehlt die Expertin.