Stellen Sie einer Suchmaschine heute eine Frage zu einem Reiseziel, erhalten Sie in Sekunden eine Antwort. Doch woher stammen die Informationen? Wer hat recherchiert, fotografiert, vor Ort Eindrücke gesammelt? Das bleibt im Dunkeln. Die Antwort speist sich aus Texten und Bildern. Irgendwann erstellt. Irgendwo. Von irgendwem. Dieser Irgendwer wird systematisch aus dem System gedrängt.
Der Fall Plasselb: Ein Experiment mit Folgen
Um zu zeigen, wie KI entfremdet, wagte ich ein Experiment. Als Testobjekt wählte ich eines meiner authentischsten Fotos: Vier ältere Männer in traditioneller Schweizer Sennentracht, aufgenommen in Plasselb mit einer Canon EOS D1. Dieses Bild steht für Heimat, Tradition und handwerkliche Fotografie.

Ich bat eine moderne KI namens Nano Banana, das Foto in eine Infografik einzubauen. Das Ergebnis war ernüchternd. Die KI platzierte das Original nicht, sondern ‚malte‘ es neu. Aus dem Ortsschild „Plasselb“ wurde „Alpenschatz“, aus dem Tabaksbeutel eines Mannes ein Klotz Schweizer Käse. Die KI erkannte Schweiz, Tracht, Bärte – und erfand Ortsschild und Käse dazu.
![Bild einer echten Quelle wird als Datenstrom zu einem Trainingsdatenset [KI-generiert (gemini)]](https://tellerrandstories.de/wp-content/uploads/2026/02/plasselbScanner.jpg)
![Original wird von der KI in seine Bestandteile zerlegt. Elemente aus dem Foto (Tracht, Bärte, Pfeifen, Ortsschild) sind nur noch abstrakte Konzepte, die in einem digitalen Netzwerk schweben [KI-generiert (gemini)]](https://tellerrandstories.de/wp-content/uploads/2026/02/plasselbAnalyse.jpg)
Wenn Präzision als Fälschung gilt
Ein paradoxer Kreislauf entsteht: KI-Systeme trainieren mit bestehendem Content, der aus einer Zeit stammt, in der Medien noch Korrespondenten vor Ort hatten. Doch was geschieht, wenn diese Quellen versiegen?
Über Generationen von KI-Modellen verschwinden die Ursprünge. Ein Foto wird fragmentiert, die Fragmente fließen ins Training des nächsten Modells ein, das daraus neue, entfremdete Bilder generiert. Die Verbindung zur ursprünglichen Recherche reißt ab. Am Ende erzeugen die Modelle digitale Kopien, die mit der Wirklichkeit nichts mehr zu tun haben: Künstliche Demenz.
Das Paradoxon der Perfektion: Die ‚False Positive‘-Falle
Mein Experiment offenbarte ein technisches Problem, das Fotografen alarmieren sollte. Googles System SynthID markierte mein authentisches Foto als ‚KI-generiert‘ – mit allen für mich unangenehmen Konsequenzen. Der Grund: Um die Männer in der Tracht perfekt hervorzuheben, hatte ich sie auf meinem Foto mit Lightroom selektiv bearbeitet. Diese Präzision erzeugte statistische Muster, die der Algorithmus als ‚unnatürlich‘ einstufte. Die bittere Erkenntnis: Je professioneller ein Fotograf arbeitet, desto eher stempeln ihn automatisierte Systeme als Fälscher ab. Ein technisches Label beweist keine Wahrheit – es ist oft nur ein blindes Signal.
Technischer Hintergrund: Der Provenance-Cross-Check
In meinem Bericht an Googles AI Vulnerability Program (Issue 483464959) schlug ich eine Lösung vor: Die Integration von SynthID-Detektion mit C2PA-Provenance-Manifesten (Content Credentials).
Das Problem: SynthID interpretiert statistische Pixel-Anomalien durch professionelle Maskierung als generative KI-Artefakte – unabhängig davon, ob das Bild ein verifiziertes C2PA-Zertifikat mit dokumentierter Bearbeitungshistorie trägt.
Der Lösungsansatz: Ein Abgleich zwischen Detektionssignal und Provenance-Manifest. Wenn C2PA dokumentiert: „Lokale Maskierung in Lightroom Classic v15.1.1, Canon RAW-Quelle“, sollte das System diese manuelle Bearbeitung nicht als KI-Generierung fehlinterpretieren.
Die Ablehnung: Googles Antwort: „Won’t Fix (Intended Behavior)“. Die Fehlklassifizierung authentischer Werke gilt nicht als Sicherheitsrisiko, sondern als akzeptiertes Systemverhalten.
Die Konsequenz: Zwei konkurrierende Wahrheiten – Adobe sagt „Human“, Google sagt „AI“. Der Nutzer steht verwirrt dazwischen. Das Vertrauen in digitale Herkunftsnachweise erodiert.
Die ökonomische und institutionelle Erosion
Seit 25 Jahren bedienen sich Suchmaschinen und Aggregatoren am Content etablierter Medien. Während dieser Content KI-Systeme trainiert, gehen die Urheber leer aus. Für viele Reisejournalisten bedeutet das das Aus.
Selbst Institutionen, die Wissen bewahren sollen, verlieren den Anschluss. Wikipedia dokumentiert das Sterben etablierter Medien, aber Online-Magazine wie Tellerrandstories fallen trotz ISSN und Nationalbibliotheks-Archivierung durchs Raster. Wer dokumentiert künftig, wer noch originär recherchiert, wenn die Relevanzkriterien an einer vergangenen Medienära hängen?
![Medium oder Website? Bei Wikipedia gehören Online-Magazine und Preisvergleichsportale in dieselbe Kategorie und der Traffic bestimmt die Relevanz [KI-generiert (gemini)]](https://tellerrandstories.de/wp-content/uploads/2026/02/wikiRelevanz.jpg)
Authentizität als Geschäftsmodell
Es gibt Auswege. Das Modell der Tellerrandstories basiert auf finanzieller Unabhängigkeit: Wir veröffentlichen Teile unserer Recherchen kostenlos und bekommen Honorare von anderen Medien. Meine Fotos lizensiert die Bildagentur Alamy. Diese setzt sich auch für das Leistungsschutzrecht und die Quellenkennzeichnung ein. Transparenz ist kein Luxus, sondern überlebenswichtig für Glaubwürdigkeit.
Was bleibt zu tun? Ein Manifest für Transparenz
Wir brauchen neue Kennzeichnungsformen – nicht als Qualitätssiegel, sondern als Produktionsnachweis. Wie bei Lebensmitteln Herkunftsnachweise üblich sind, brauchen Informationen einen digitalen „Beipackzettel“.
- Kopplung von Detektion und Provenance: Systeme wie SynthID müssen mit kryptografischen Siegeln wie C2PA (Content Credentials) angeglichen werden. Nur der Nachweis der Bearbeitungsschritte schützt die Urheber.
- Verantwortung der Plattformen: Google, Meta und Co. müssen die Quellen, die sie nutzen auch aktiv schützen und vergüten.
- Haltung zeigen: Journalisten müssen ihre Methodik offenlegen. „Ich war vor Ort. Ich habe dieses Foto gemacht. Ich stehe mit meinem Namen dafür ein. “
Epilog: Die Wand aus Code – Wenn der Fehler Methode hat
Nach meiner Entdeckung suchte ich den Dialog. Ich meldete das Problem (Issue 483464959) beim Google AI Vulnerability Program und lieferte einen Lösungsvorschlag zur Kopplung mit den C2PA-Daten.
Die Antwort kam prompt, automatisiert und ernüchternd: „Won’t Fix (Intended Behavior)“. Die Antwort kam eine Minute nach Einreichung. Eine Minute, um einen mehrseitigen technischen Bericht mit Beweiskette zu prüfen? Unwahrscheinlich. Die Antwort trägt alle Zeichen automatisierter Triage: Standardformulierungen, Verweise auf irrelevante Kategorien (Safety Bypasses, Hallucinated Sandbox Escapes), keine Auseinandersetzung mit dem eigentlichen Inhalt.
Meine Meldung wurde nicht abgelehnt, weil sie falsch war. Sie wurde abgelehnt, weil sie zu häufig ist. „This is one of the most common issues reported“, schreibt das System. Mit anderen Worten: Viele Fotografen und Journalisten haben das gleiche Problem entdeckt. Aber statt es zu beheben, sortiert Google diese Meldungen systematisch aus.
Das ist kein Bug mehr – es ist Policy.
Dass ein authentisches Werk als KI-Produkt gebrandmarkt wird, ist für den Tech-Giganten kein Fehler, sondern ein ‚bekanntes Verhalten‘. In der Logik des Silicon Valley ist die fehlerhafte Etikettierung kein Sicherheitsrisiko, sondern akzeptiertes Rauschen im System.
Für Journalisten und Fotografen bedeutet das einen Verlust der Urheberschaft. Irrt der Algorithmus, hat der Mensch kein Widerspruchsrecht. Die Technik definiert die Wahrheit, und wer durchs Raster fällt, hat Pech gehabt.
Je mehr Maschinen die Realität ‚schützen‘, desto leichter verlieren wir die Menschen aus dem Bild. Doch gerade deshalb ist es heute wichtiger denn je, auf der eigenen Urheberschaft zu beharren. Ein „Won’t Fix“ darf nicht das letzte Wort über unsere Arbeit sein.
![Am Ende ist das Bild verschwunden. Nur noch die Information über das visuelle Original bleibterhalten. Völlig egal ist die schöpferische Leistung des Fotografen [KI-generiert (gemini)]](https://tellerrandstories.de/wp-content/uploads/2026/02/fileNotFound.jpg)