Home Aktuelles
Vertrauenskrise

Münzwurf-Chance: Warum wir KI-Fakes nicht mehr erkennen

trump
Foto: Screenshot Tiktok

Wenn Brücken einstürzen und Päpste plötzlich Designermäntel tragen, beginnt das große Zweifeln. Die KI-Bilderflut verändert unsere Wahrnehmung grundlegend.

Braune Staubwolken verdunkeln die Bergflanke. Innerhalb von Augenblicken verschwindet die gesamte Landschaft unter einer dichten Staubschicht. Nur eine massive Autobahnbrücke ragt noch aus dem Chaos hervor. Dann geben ihre Betonstützen nach. Das imposante Bauwerk kollabiert in sich selbst. Die Aufnahme wackelt, während die Kamera näher heranzoomt und der aufwirbelnde Staub das einstürzende Bauwerk verschluckt. Die Brücke ist verschwunden. Diese Videosequenz verbreitete sich in der vergangenen Woche rasant in sozialen Netzwerken. In den Kommentarspalten stellten zahlreiche Betrachter immer wieder dieselbe Frage: Handelt es sich um authentisches Material?

⇢ WhatsApp-Konkurrent: X startet neuen Messenger-Dienst

In diesem Fall lautet die Antwort: Ja. Die 750 Meter lange Hongqi-Brücke in China stürzte tatsächlich nach einem Erdrutsch ein. Doch die instinktive Skepsis der Betrachter verdeutlicht eine grundlegende Veränderung unserer Wahrnehmung. Verantwortlich dafür ist die Flut an KI-generierten Bildern und Videos, die das Internet durchdringen. Diese künstlich erzeugten Inhalte wecken Zweifel an allem, was besonders spektakulär, faszinierend oder zu perfekt erscheint. Galten Fotografien früher als verlässliche Belege für tatsächliche Ereignisse, können sie heute ebenso gut Produkte künstlicher Intelligenz sein. Die Frage nach der Authentizität wird zum ständigen Begleiter.

Ein frühes Beispiel für die virale Verbreitung KI-generierter Bilder lieferte der Bauarbeiter Pablo Xavier aus Chicago im März 2023. Wie er später dem Portal Buzzfeed News anvertraute, experimentierte er unter dem Einfluss psychoaktiver Pilze mit dem Bildgenerator Midjourney. Seine Eingabe “Papst”, “Balenciaga Daunenmantel” und “geht durch Rom” produzierte das mittlerweile berühmte Bild des Papstes in Rapper-Kleidung. Ähnliche Aufmerksamkeit erlangten gefälschte Aufnahmen von Explosionen am Pentagon, die laut CNN sogar kurzzeitig amerikanische Aktienkurse beeinflussten, sowie manipulierte Videos eines brennenden Los Angeles und angeblicher Opfer des Hurrikans Helene.

Die tatsächliche Verbreitung solcher KI-Bilder lässt sich kaum präzise erfassen, da verlässliche Daten fehlen. Eine Untersuchung von Forschern der Stanford University bietet jedoch erste Anhaltspunkte. Die Wissenschaftler analysierten 125 Facebook-Seiten mit KI-Inhalten, die Hunderte Millionen Nutzer erreichten. Entscheidend ist dabei die enorme Reichweite. Die Bilder zeigten zufriedene Kinder mit Geburtstagstorten, Inneneinrichtungen oder frühe Versionen des “Shrimp Jesus”. Laut den Studienautoren stecken hinter diesen Inhalten weder ideologische Motive noch gezielte Propaganda oder Desinformation. Die Motivation ist wesentlich banaler: Die Inhalte sollen Interaktionen, Likes und Follower generieren – alles Faktoren, die sich in der Aufmerksamkeitsökonomie monetarisieren lassen.

Dieses Phänomen kann ganze Plattformen aus dem Gleichgewicht bringen. Seit einiger Zeit beklagen Nutzer die Überflutung von Pinterest – einer Plattform für visuelle Inspiration – mit KI-generierten Inhalten. Die Journalistin Bethan Staton brachte in der Financial Times das daraus resultierende Gefühl auf den Punkt: Die KI-Bilder seien gleichzeitig beliebig und unerreichbar, somit das “Gegenteil von inspirierend”. Droht diese Ernüchterung auch anderen Bereichen des Internets?

Welche Auswirkungen hat diese Entwicklung auf unsere Gesellschaft? Führt die Masse an KI-Bildern in eine Welt des universellen Misstrauens? Verlieren Bilder dadurch jeglichen Wert? Manipulieren uns diese KI-Inhalte? Psychologen, Neurowissenschaftler und Computerexperten beginnen gerade erst, Antworten auf diese Fragen zu entwickeln, indem sie die Reaktionen von Gehirn und Psyche auf KI-generierte Bilder untersuchen.

Die heutigen KI-Bildgeneratoren basieren hauptsächlich auf sogenannten Diffusion-Modellen – Algorithmen, die lernen, schrittweise aus Bildrauschen erkennbare Motive zu entwickeln. Das Konzept klingt einfach, die Wirkung ist jedoch revolutionär: Mit wenigen Worten können diese Systeme inzwischen praktisch jedes erdenkliche Bild erzeugen – von nie existierenden Innenräumen über angebliche Verhaftungsszenen Donald Trumps bis hin zu Mischwesen aus Jesus und Meeresfrüchten. Letztere, bekannt als “Shrimp Jesus”, entwickelten sich kürzlich zu einem viralen Phänomen in sozialen Medien.

Wissenschaftliche Erkenntnisse

Die negativen Auswirkungen sind wissenschaftlich belegt. Tanja Messingschlager vom Lehrstuhl Kommunikationspsychologie und Neue Medien der Universität Würzburg präsentierte 470 Probanden KI-generierte Bilder. Der entscheidende Versuchsaufbau: Eine Gruppe glaubte, menschliche Kunstwerke zu betrachten, während die andere wusste, dass es sich um KI-Werke handelte. Diese zweite Gruppe bewertete die Bilder durchschnittlich als minderwertiger. Die Erklärung der Forscherin: “KI fehlen die menschlichen Erlebnisse, die – wenn man es aus künstlerischer Perspektive sieht – wichtig für den Entstehungsprozess eines Bildes sind.” Zudem schätzen Betrachter die Mühe bei der Bildentstehung – ein Faktor, der bei KI-generierten Bildern kaum vorhanden ist. “Das Bild ist innerhalb weniger Sekunden da”, erklärt Messingschlager. Was bedeutet diese Geringschätzung angesichts der zunehmenden Verbreitung von KI-Bildern langfristig? Die Wissenschaftlerin gibt eine optimistische Einschätzung: “Erste Studien zeigen, dass die Wertschätzung für das steigt, von dem wir wissen, dass es menschengemacht ist.”

Eine Renaissance des Analogen? Dafür müsste man allerdings KI-generierte von echten Bildern unterscheiden können. Bei “Shrimp Jesus” mag das einfach sein, bei Videos hüpfender Kaninchen auf einem Trampolin wird es schon schwieriger, bei fotorealistischem Material nahezu unmöglich. Teilnehmer einer Studie des King’s College London, die die Authentizität von Bildern, Videos und Tonaufnahmen beurteilen sollten, erreichten eine Trefferquote von etwa 50 Prozent – treffend betitelt als “So gut wie ein Münzwurf”.

Der Wirtschaftsinformatiker Malte Högemann von der Universität Osnabrück untersuchte die Fähigkeiten zur Erkennung von KI-Bildern detaillierter. In seiner in Frontiers in Artificial Intelligence veröffentlichten Studie sollten Teilnehmer KI-Bilder von Fotografien unterscheiden und ihre Entscheidung begründen. Durchschnittlich identifizierten sie 63,7 Prozent der KI-Bilder korrekt. Bei dem besonders auf Fotorealismus ausgelegten KI-Modell “FLUX.1-dev” sank die Trefferquote jedoch auf knapp 30 Prozent. Noch bemerkenswerter: “Je sicherer die Teilnehmenden waren, desto falscher lagen sie”, berichtet Högemann zu diesem Modell. Es scheint besonders effektiv darin zu sein, Menschen zu täuschen.

Mit fortschreitender Technologie verändert sich auch die Herangehensweise zur Identifizierung von KI-Bildern. “Insgesamt erkennt man einen Wandel von klassischen Erkennungsheuristiken und Artefakten zu Intuition und Bauchgefühl”, erläutert der Studienautor. Das bedeutet: Während man früher noch auf konkrete Fehler wie falsche Schatten oder Spiegelungen achten konnte, verlagert sich die Beurteilung zunehmend auf subjektive Eindrücke wie “zu perfekt”, “unnatürlich sauber” oder ein generelles Unbehagen – allesamt vage Kategorien.

Bei echten Fotografien hatten die Studienteilnehmer sogar etwas größere Schwierigkeiten, sie als solche zu erkennen. Högemanns Vermutung: “Wenn man darauf fixiert ist, auf Hinweise zu achten, und sieht Dinge, die gar nicht dort sind.” Dieses Phänomen illustriert das Dilemma perfekt: Die schiere Masse KI-generierter Inhalte führt dazu, dass jedes Bild verdächtig erscheint.

Gesellschaftliche Folgen

Obwohl diese permanente Skepsis angesichts der technologischen Entwicklung angemessen sein mag, birgt sie gesellschaftliche Gefahren. Eine mögliche Konsequenz ist die “Lügner-Dividende”: In einem Umfeld ohne Vertrauen können beispielsweise Politiker berechtigte Vorwürfe einfach als Falschinformation abtun. Zudem droht die “Realitätsapathie” – ein Begriff, den Aviv Ovadya vom Berkman Klein Center in Harvard prägte. Er beschreibt die zunehmende Gleichgültigkeit gegenüber Wahrheit angesichts eines allgemeinen Vertrauensverlusts. Die “Realitätszersplitterung” bezeichnet wiederum das Aufbrechen einer gemeinsamen Wirklichkeit in individuelle Wahrheitsräume: eine Gesellschaft, in der sich jeder in seine eigenen Vertrauensblasen zurückzieht und nur noch ausgewählten Personen, Blogs oder Podcasts Glauben schenkt. Ironischerweise wurden diese Theorien ursprünglich entwickelt, um die Folgen massiver Propaganda und Desinformation zu beschreiben. Nun scheinen sie sich durch das banale Streben nach Aufmerksamkeit in sozialen Medien zu bewahrheiten.

Welche Lösungsansätze gibt es? Högemann plädiert für einen “soziotechnischen” Ansatz. Onlineplattformen sollten KI-Inhalte deutlicher kennzeichnen. Bisher basiert diese Markierung auf freiwilligen Nutzerangaben und automatischen Erkennungssystemen – beides weist erhebliche Lücken auf. Daher sollten zusätzlich Menschen durch Schulungen und Trainings unterstützt werden. “Man würde sie erst mal dafür sensibilisieren, dass auf den Plattformen viele KI-Inhalte sind”, erklärt Högemann. Anschließend könnte man versuchen, den Blick für jene KI-Bilder zu schärfen, die noch mit bloßem Auge erkennbar sind. Würde das nicht genau den Vertrauensverlust verstärken? “Die Entwicklung von generativer KI in diesem Kontext können wir nicht aufhalten, deshalb ist es notwendig, dass man kritisch auf Inhalte blickt”, betont Högemann.

Doch selbst wenn man weiß, dass ein Bild KI-generiert ist, kann es Wirkung entfalten. Dies haben die Neurowissenschaftler Julia Baum und Martin Maier von der Humboldt-Universität nachgewiesen. Sie maßen die elektrische Hirnaktivität von Testpersonen, die verschiedene Gesichtsbilder betrachteten. Einige Probanden glaubten, KI-Gesichter zu sehen, andere dachten, es seien echte Menschen. In den Hirnströmen dieser Gruppen zeigten sich Unterschiede – allerdings nur bei lächelnden Gesichtern. In diesen Fällen lösten die vermeintlichen KI-Bilder schwächere Wahrnehmungs- und Gefühlsreaktionen aus. Ein KI-Lächeln wirkte nicht so intensiv wie ein echtes. Bei negativen Emotionen wie Furcht, Trauer oder Schrecken reagierten die Gehirne der Testpersonen hingegen identisch – unabhängig davon, ob sie glaubten, KI-Gesichter oder Menschen zu sehen.

Was bedeutet das angesichts der zunehmenden Verbreitung von KI-Bildern? Maier äußert sich vorsichtig: “Vielleicht ist es so, dass positive Botschaften an Wert verlieren, während die negativen mehr haften blieben. Man kann mit KI vielleicht leichter Angst verbreiten.”

Dieses Muster zeichnet sich bereits ab und wird gezielt ausgenutzt: Als eine prominente republikanische Politikerin das KI-generierte Bild eines Mädchens während des Hurrikans Helene veröffentlichte, war dessen künstlicher Ursprung offensichtlich. Die Politikerin entgegnete unbeeindruckt: “Es ist ein Symbol für das Trauma und den Schmerz, den die Menschen derzeit durchleben.” Negative Emotionen verfangen. Dies dürfte auch für KI-Videos von Donald Trump gelten, in denen er beispielsweise Fäkalien auf Demonstranten regnen lässt. Eine KI-Kennzeichnung würde vermutlich kaum die negativen Emotionen neutralisieren, die solche Inhalte transportieren sollen.

Die Flut an KI-generierten Inhalten schafft eine Realität, in der eine tatsächlich einstürzende Brücke ihre Authentizität beweisen muss – während ein fiktives Mädchen aus einem Hurrikan reale politische Debatten beeinflusst. Vielleicht erfordert diese neue Welt ein grundlegendes Umdenken. Wenn echte Fotografien zur Ausnahme werden – sollten dann nicht sie markiert werden?

Genau diese Kennzeichnung authentischer Inhalte fordern Experten und Forscher seit einiger Zeit. Erste technische Lösungen, die die Herkunft eines Bildes bis zur aufnehmenden Kamera zurückverfolgen können, existieren bereits.