IAS (Image Authentication Software)

“Pics or it didn´t happen” war einmal.
Woher weißt du ob ein Bild noch echt ist?

Mit dem rasanten Fortschritt KI-basierter Technologien zur Veränderung oder Generierung von Bildern wird die Frage nach der Authentizität eines Bildes immer relevanter. Bislang gibt es nur wenige verlässliche Methoden, um „künstliche“ Bilder von „echten“ zu unterscheiden.

IAS ist eine fiktive Software, die genau dieses Problem adressiert. Sie analysiert die Metadaten eines Bildes – einschließlich KI-bezogener Informationen – und liefert eine Einschätzung darüber, wie authentisch das Bild ist.

Speculative Software;
Image Authentication;
Prototyping;

Mitwirkende

Julia Hann von Weyhern

Tools:

Figma

Das Projekt war Teil des Kurses »Wicked Problems« bei Prof. Boris Müller an der FHP.

Im Frühjahr 2023 wurden Social-Media-Feeds von unheimlich real wirkenden Bildern überschwemmt: Wladimir Putin kniet vor Xi Jinping, eine Explosion am Pentagon, Joe Biden spielt im Regen. Nichts davon war wirklich geschehen – es handelte sich um KI-generierte Fälschungen.

Mit dem breiten Zugang zu leistungsfähigen Bildgenerierungswerkzeugen wird es immer schwieriger, reale von künstlich erzeugten Bildern zu unterscheiden.

Das Problem: Es existieren bislang weder Standards noch Regulierungen oder technische Schutzmechanismen, die eine verlässliche Unterscheidung zwischen echten und KI-generierten Bildern ermöglichen. Besonders brisant ist das, weil Bilder seit jeher als glaubwürdige Quelle für Wahrheit gelten. Vor allem Fotografien werden als faktische Repräsentationen der Realität verstanden – daher auch der bekannte Satz: „Pics or it didn’t happen.“ Studien zeigen, dass Menschen Informationen eher glauben, wenn sie von einem Bild begleitet werden.

Dieses tief verankerte Vertrauen in visuelle Medien wurde schon früher zur gezielten Manipulation genutzt – etwa als Stalin Fotos von Lenin am Rednerpult nachträglich bearbeitete, um unliebsame Personen aus dem Bild zu entfernen.Die Geschichte hat gezeigt, wie leicht sich visuelle Medien manipulieren lassen – mit KI geschieht dies heute schneller, überzeugender und breiter zugänglich als je zuvor. Da Bilder weiterhin eine zentrale Rolle bei der Konstruktion unserer Wirklichkeit spielen, ist die Frage nach ihrer Authentizität nicht mehr optional, sondern zwingend notwendig.

Authentzität durch Metadaten

KI-generierte Bilder enthalten – wie echte Fotos auch – Exif-Metadaten. Die vorgestellte Software liest diese Daten aus, visualisiert sie und ergänzt fehlende Informationen mithilfe Künstlicher Intelligenz. So lässt sich einschätzen, ob ein Bild bearbeitet oder künstlich erzeugt wurde – selbst wenn die Metadaten unvollständig sind.Die Anwendung ist als native Mac-App konzipiert und wirkt wie ein professionelles Tool zur Verifikation von Bildinhalten – besonders vor deren Veröffentlichung in öffentlichen Kontexten. Sie macht den zunehmenden Bedarf an einem bewussteren Umgang mit visueller Desinformation deutlich.

Bis vor Kurzem gab es keine verbindlichen Regelungen zur Kennzeichnung von KI-generierten Bildern. Nutzer waren auf visuelle Hinweise oder den Kontext angewiesen – doch diese Methoden sind mit dem Fortschritt der KI kaum noch zuverlässig. Inspiriert vom AI Act der EU verwendet die Software eigene Metadaten-Standards, darunter:

  • Erstellungs- und Bearbeitungszeitpunkt
  • Software- und Eigentümerinformationen
  • Risikoeinstufung (gemäß AI Act)
  • Ursprünglicher Prompt der Bildgenerierung

Die Software prüft vorhandene Metadaten auf Vollständigkeit, vergleicht einzelne Datenpunkte miteinander und erkennt mögliche Widersprüche. Zusätzlich können Nutzer eigene Recherchen direkt in der App durchführen – etwa über Kartenfunktionen oder durch den Abgleich von GPS-Koordinaten, um die Bildinhalte unabhängig zu verifizieren.

Datenrekonstruktion

Die Software bietet zudem eine KI-gestützte Datenrekonstruktion. Wenn Metadaten fehlen oder widersprüchlich sind, hilft diese Funktion dabei, die vorhandenen Informationen zu analysieren und zu interpretieren. So lassen sich beispielsweise mögliche Prompts rekonstruieren oder die Reaktionen verschiedener KI-Modelle auf denselben Input vergleichen.

Darüber hinaus kann die Software den visuellen Inhalt eines Bildes analysieren und dabei subtile Hinweise auf eine KI-Generierung erkennen – Details, die dem menschlichen Auge häufig entgehen. Zusammengenommen ermöglichen diese Werkzeuge eine fundierte Einschätzung darüber, wie vertrauenswürdig ein Bild ist, wie es entstanden ist und wo es seinen Ursprung haben könnte.