Gastbeitrag
Vertrauen in Zeiten synthetischer Wirklichkeit
Symbolbild.
Matthias Bein/dpa. picture alliance/dpa

Generative KI verändert das Informationsökosystem der Menschen radikal. Christoph Maerz und Jeremy Gob erklären, warum Vertrauen zum neuen Gemeingut wird – und welche Verantwortung Wissenschaft, Medien, Politik und Gesellschaft jetzt tragen.

Lesezeit 3 Minuten

„Papa, ich brauche deine Hilfe. Bitte überweise Geld.“ Die Stimme klingt wie die Tochter – panisch, vertraut, echt. Der Vater reagiert sofort. Doch die Stimme war ein Klon, erzeugt von künstlicher Intelligenz. Kein Einzelfall mehr, sondern ein Vorgeschmack auf eine neue Realität.

Wenn Inhalte täuschen können, ohne zu lügen

Was früher ein Spezialeffekt war, ist heute Alltag. Generative künstliche Intelligenz – oft kurz GenAI genannt – erschafft aus einfachen Texteingaben überzeugende Artikel, Bilder, Videos oder Stimmen. ChatGPT schreibt wie ein Journalist, Midjourney und Sora bebildern Geschichten fotorealistisch, ElevenLabs simuliert menschliche Stimmen mit verblüffender Präzision.

Diese Systeme lernen aus immensen Datenmengen, wie wir sprechen, schreiben, sehen und unsere Welt verstehen. Sie erzeugen Inhalte, die wirken, als seien sie real – und verändern damit nicht nur die Art, wie Medien produziert werden, sondern auch, wie wir sie wahrnehmen und bewerten.

Der schleichende Verlust an Gewissheit

Wenn jedes Bild gefälscht sein kann, jede Stimme nachgeahmt und jeder Text synthetisch, beginnt selbst die Wahrheit verdächtig zu wirken. Dieser Effekt, der sogenannte „Liar’s Dividend“, untergräbt die Basis des gesellschaftlichen Diskurses. Wer nichts mehr glaubt, ist nicht informiert, sondern manipulierbar.

Eine offene Gesellschaft lebt davon, dass Fakten überprüfbar bleiben. Wenn Vertrauen als Grundwert erodiert, drohen Polarisierung, Resignation und Misstrauen gegenüber demokratischen Institutionen. Desinformation wird nicht zur Ausnahme, sondern zum Werkzeug.

Forschung mit Verantwortung

Technischer Fortschritt lässt sich nicht aufhalten oder zurückdrehen, aber gestalten. Am Deutschen Forschungszentrum für künstliche Intelligenz (DFKI) arbeiten wir daran, generative KI transparent, sicher und gesellschaftlich verträglich zu machen.

Im Kompetenzzentrum Generative KI entwickeln unsere Teams Verfahren zur Bildforensik, erklärbare Sprachmodelle und Verfahren zur Überprüfung synthetischer Inhalte. In Projekten wie CERTAIN und als Teil der Bundesinitiative Mission KI entstehen Standards für vertrauenswürdige Systeme. Und gemeinsam mit der Deutschen Presse-Agentur schulen wir im Programm „Wegweiser KI“ Medienschaffende im kritischen Umgang mit generativer Technologie und integrieren Verifikationstechnologien in den journalistischen Alltag. Projekte wie News-Polygraph oder das Spin-off GretchenAI entwickeln dafür spezialisierte Werkzeuge zur Erkennung manipulierter Inhalte.

Journalismus unter neuen Vorzeichen

Qualitätsjournalismus ist wichtiger denn je. Denn auch wenn KI Inhalte liefern kann, ersetzt sie nicht die journalistischen Kernaufgaben: recherchieren, prüfen, einordnen, Verantwortung übernehmen. Die menschliche Redaktion bleibt das Rückgrat einer informierten Gesellschaft.

KI kann Journalistinnen und Journalisten entlasten – etwa beim Transkribieren von Interviews, bei der Recherche in großen Datenmengen oder bei der Generierung von Arbeitshilfen. Doch sie ersetzt nicht das, was Journalismus ausmacht: Recherche, Einordnung, Verantwortung. Die Maschine liefert Tempo und Vielfalt; die Redaktion sorgt für Relevanz, Kontext und Ethik.

Die Frage ist nicht, ob Medien KI nutzen sollen. Sondern, wie sie es verantwortungsvoll tun – offen, kritisch, nach klaren Prinzipien. Medienhäuser, die KI gezielt einsetzen, gewinnen Zeit für das Wesentliche: das Gespräch mit Menschen, die Einordnung komplexer Zusammenhänge und die Verteidigung demokratischer Werte.

Was jeder und jede Einzelne tun kann

Jenseits von Politik und Medien sind wir alle gefragt. Es braucht eine gemeinsame Anstrengung. Wer Inhalte weiterleitet, sollte sie hinterfragen. Jedes Video, jede Stimme im Ohr, jeder Absatz im Netz verlangt einen Moment des Zweifelns. Wer sich in digitalen Räumen bewegt, braucht ein Grundverständnis für das, was synthetisch sein könnte – und was nicht.

Bildungseinrichtungen müssen Medien- und KI-Kompetenz früh fördern. Plattformen brauchen klare Regeln, um synthetische Inhalte zu kennzeichnen. Unternehmen müssen ihre Modelle offenlegen. Wissenschaft muss sich erklären – und erklärt werden. Als Forschungseinrichtung mit öffentlichem Auftrag unterstützt das DFKI diese Aufklärung aktiv mit Bildungsformaten, Medienbeiträgen und Dialogangeboten für die Öffentlichkeit.

Gemeinsam gestalten, was uns alle betrifft

Generative KI ist kein Selbstzweck. Sie ist ein mächtiges Werkzeug mit enormem Potenzial, aber auch mit Risiken. Sie eröffnet kreative Horizonte, rationalisiert Arbeitsprozesse und macht Wissen zugänglich. Gleichzeitig droht sie, die Grenze zwischen Fiktion und Realität aufzulösen. Ob KI zur demokratischen Chance wird oder zum Manipulationswerkzeug, hängt nicht von Algorithmen ab, sondern von uns.

Die Regeln für unsere digitale Informationsgesellschaft werden jetzt geschrieben. Sie entstehen in öffentlichen Debatten, parlamentarischen Ausschüssen, Redaktionsstuben, Klassenzimmern und Wohnzimmern. Wenn Wissenschaft, Medien, Politik und Gesellschaft ihre Gestaltungsspielräume nutzen, kann KI zum Katalysator für eine neue Aufklärung werden. Ziehen wir uns zurück, überlassen wir das Feld jenen, die KI als Technologie zur Einflussnahme begreifen. Vertrauen entsteht nicht von allein – es ist ein Projekt, das wir teilen müssen. Jetzt.

Top-News aus der Region