
Foto: Stefanie Kösling, © Museum für Kommunikation Frankfurt
Annabelle Hornung
Dr. Annabelle Hornung
Dr. Annabelle Hornung ist seit dem 1. Januar 2025 die neue Direktorin des Frankfurter Museums für Kommunikation. Sie hat in Frankfurt Germanistik und Kunstgeschichte studiert und war zuvor vier Jahre Direktorin des Nürnberger Museums für Kommunikation. Einer ihrer Arbeitsschwerpunkte ist KI und deren Auswirkungen auf unser Leben, unsere Arbeit und unsere Kommunikation.
Künstliche Intelligenz wird auch Themenschwerpunkt der diesjährigen Ausstellungen im Frankfurter Museum für Kommunikation: Am 21. März eröffnet in der Reihe „New Realities“ die Schau „Fashion Fakes – KI Fabriken“.
Wie man KI sinnvoll einsetzt, spielerisch-kreativ damit umgehen kann und gleichzeitig die Gefahren und Schwächen der KI nicht aus dem Auge verliert, erklärt Dr. Annabelle Hornung im Interview.

Foto: Maren Burghard
New Realities Fashion
„o.T.“, 2025 , KI-generiert, Idee/Prompt/Bearbeitung: Maren Burghard für das Museum für Kommunikation Frankfurt
Einer Ihrer Aussagen anlässlich der Pressekonferenz zu Ihrem Einstand war „Ich bin dagegen, KI immer nur negativ zu sehen“ – was sind für Sie die positiven Aspekte von KI?
Das Positive ist sicherlich, dass bestimmte Arbeiten zeitlich beschleunigt werden können. Ein Beispiel: Für die „New Realities“-Ausstellung in unserem Berliner Haus haben wir eine fiktive „Gewerkschaft“ gegründet, für KI-Arbeitende und Menschen, die Data Working machen. Dafür haben wir uns von der KI 20 Gewerkschafts-Claims erstellen lassen. Die Auswahl der Claims war am Ende wieder menschliche Kurationsleistung, aber die Arbeitsgänge davor konnten wir mit KI erheblich beschleunigen.
Ich nutze KI auch schon mal für E-Mails, lasse mir zum Beispiel Formulierungen übersetzen. Für Fotoproduktionen unserer Exponate beispielsweise nutzen wir KI nicht, weil wir gerade im Bereich der Objektfotografie schon viel digitalisiert haben. Aber wenn ich zum Beispiel für ein Social-Media-Posting auf die Schnelle ein Foto von, sagen wir mal, einer Schreibfeder brauche, nutze ich die KI.
Noch ist die Nutzung von KI-Programmen günstig, aber ich gehe davon aus, dass sich das ändert. Und es wird Einschnitte ins Arbeitsleben geben, gerade in Bereichen wie Übersetzung oder Grafik, das möchte ich gar nicht verhehlen. KI ist ein Hilfsmittel, das unsere sowieso schon beschleunigte Welt noch weiter beschleunigt.
Die Frage ist ja: Ist das alles gut?
Das ist eine ethisch-philosophische Frage. Das bringt mich zu einem anderen Punkt, über den ich auch in der Pressekonferenz gesprochen habe und den ich wichtig finde: Wir brauchen eine digitale Ethik. Mit dem Aufkommen des Internets und der Nutzung von Social Media, also der fortschreitenden Digitalisierung müssen ethische Prinzipien Hand in Hand gehen. Neue Technologien wie KI verändern unser Zusammenleben fundamental. Dafür muss es globale Mindeststandards geben.
Es gibt bereits viele KI-Programme, die im Hintergrund laufen und genutzt werden, um zum Beispiel Ihre oder meine Kreditwürdigkeit zu prüfen.
Es gibt Programme, die aufgrund der eingeschriebenen Bias Racial-Profiling betreiben, zum Beispiel bei Kameras an New Yorker Häusern ohne Portier. Man muss, um ins Haus oder in die Wohnung zu kommen, eine Türkamera passieren, die so programmiert ist, dass bestimmte Ethnien nicht direkt reingelassen werden. Das ist ein Beispiel für rassistische KI. Und da muss eine digitale Ethik eingreifen.
Die Bilder, die Sprache und die Verschlagwortung, die in der KI und ihren Daten stecken, sind von unseren menschlichen Rassismen und Stereotypen beeinflusst. Die KI ist nicht divers, sondern genauso rassistisch, diskriminierend und stereotyp wie wir Menschen auch, weil es eine menschgemachte Maschine ist.
Lässt sich digitale Ethik per Gesetz regeln?
Ich finde schon. Die DSGVO (Datenschutz-Grundverordnung, Anm.d.Red.) wird ja oft belächelt oder als hinderliches Regelwerk angesehen, aber ich finde es wichtig, dass es in Deutschland oder in Europa solche Regularien gibt. Und meiner Meinung nach gehört der „AI Act“ der Europäischen Kommission dazu. Dieser ist ein Meilenstein, weil es das erste gesetzliche und europäische Regelwerk für die KI ist und zum Ziel hat, eine vertrauenswürdige KI in Europa zu fördern. Wenn jemand wie der Mitgründer von OpenAI Sam Altman unter dem Einfluss des neuen amerikanischen Präsidenten steht und Halbwahrheiten in seine KI einprogrammieren lässt, gibt das Programm plötzlich Antworten, die falsch oder „fake“ sind. ChatGPT ist eben kein fundiertes Wissen wie der Duden oder der Brockhaus.
Man hat es ja inzwischen geschafft, dass sogar TikTok-Server auf europäischem Boden stehen und damit Gesetze zu Fake News oder Hate Speech greifen. Der digitale Raum hat zwar keinen physischen Ort, trotzdem müssen für ihn Gesetze gelten.

Foto: Stefanie Kösling, © Museum für Kommunikation Frankfurt
Annabelle Hornung
Dr. Annabelle Hornung
Ich habe kürzlich einen Science-Fiction-Film gesehen, der davon handelte, dass durch die jahrelang betriebene missbräuchliche Manipulation von Bilddateien die Internet-Fotos ihre Beweisfunktion komplett verloren haben – eben weil man mit KI alles abbilden kann, real oder nicht. Ist das die Zukunft?
Ja. ich glaube, da geht's hin. Aber davon abgesehen gibt es Bildmanipulation oder Manipulation von visueller Kommunikation im Grunde genommen nicht erst seit KI, sondern schon seitdem Menschen Bilder produzieren. Ein Beispiel aus der Kunstgeschichte: In einem Gemälde ist ein Mäzen zu sehen, der vielleicht gar nicht an dem abgebildeten Ort war. Aber weil er Geld für das Kunstwerk gegeben hat, taucht er trotzdem im Bild auf.
Die heutige große Bilderflut über Social Media mit ihrer ganz bestimmten, digitalen Bildästhetik ist deswegen „gefährlich“, weil sie die Normen verschiebt, zum Beispiel bei Schönheitsidealen. Wir sagen: „Das ist schön“ und setzen das Hashtag #beautiful oder Hashtag #schöneFigur und machen somit die Normen selbst.
Deswegen muss man immer besonders vorsichtig sein und die Leute besonders sensibilisieren, damit sie merken: Moment, irgendwas kann doch hier nicht stimmen?
Das versuchen wir als Museum zu vermitteln, damit man nicht alles für bare Münze nimmt, sondern hinterfragt und Quellen-Recherche betreibt. Wir bieten als Museum Leitplanken in dieser globalisierten und digitalisierten Welt.

Foto: Maren Burghard
Love Yourself
„Love yourself“, 2025 , KI-generiert, Idee/Prompt/Bearbeitung: Maren Burghard für das Museum für Kommunikation Frankfurt
Das „Gefährliche“ ist doch auch, dass diese Technologie für jeden verfügbar ist. Jeder kann das machen und jeder kann es bedienen und veröffentlichen.
Ja, die Deutungshoheit und die Gatekeeper-Funktion von Medien sind durch das Internet und KI weggefallen.
Nehmen wir zum Beispiel das Magazin „National Geographic“. Es wird dort ein Tierfoto veröffentlicht, und dann weiß ich, das ist ein neu entdeckter Vogel von den Galapagos-Inseln. Eine tolle, neue Entdeckung, ein*e Wissenschaftler*in hat das herausgefunden, ein*e menschliche*r Fotograf*in hat das „neue“ Tier fotografiert, und es gibt Biolog*innen, die sein Verhalten erforschen. Durch die Veröffentlichung des Fotos im renommierten Fachmagazin ist verbrieft: Dieses neue Tier existiert wirklich.
Aus meiner Sicht waren die Deutungshoheit und Gatekeeper-Funktion früher aber auch schon mit Vorsicht zu genießen. Zum Beispiel war damals der Postmeister derjenige, der die Zeitung herausgegeben hat, nennen wir sie „Postille“. Der Postmeister hat aus allen Informationen, die er hatte, ausgesucht, was für seine Stadt oder seine Region wichtig ist. Was ich damit sagen möchte: Man hat schon immer Nachrichten aussortiert. Es gab auch schon immer Zeitungsenten oder Presse-Coups, wie die Horrorgeschichten bei der Öffnung des Grabs von Tutanchamun, aufgrund derer angeblich viele gestorben sind. Das ging damals über die Medien um die Welt ging und hat dazu beigetragen, dass man heute den so genannt der „Fluch des Pharao“ kennt.
Manipulation gab es also schon immer. Aber durch die Möglichkeiten des Internets und der Vernetzung der Welt können Fake News heute viel schneller die Runde machen. Im 19. Jahrhundert brauchte es eine Woche, heute dauert es eine Sekunde.
Das hat Vorteile, wenn es zum Beispiel um Rettung von Menschen geht, aber man sieht auch die Nachteile, wie es mit den schrecklichen Attentaten in Magdeburg oder Aschaffenburg. Die Nachrichten verbreiten sich sofort, ohne dass es eine valide Berichterstattung gibt.

Foto: Maren Burghard
Dress like Data
„Dress like Data“, 2025 , KI-generiert, Idee/Prompt/Bearbeitung: Maren Burghard für das Museum für Kommunikation Frankfurt
Sie sagen auch, dass die Kreativität von KI begrenzt ist.
Aufgrund des Bilderpools, auf den die KI zugreift, produziert sie sehr viele klischeehafte Ausschnitte. Das Kreative der KI liegt meiner Meinung nach in erster Linie in ihrer Kombinatorik.
Für eine der New-Realities-Ausstellungen wollten wir zum Beispiel Fotos vom Regenwald generieren und bekamen Bilder vom Paradies. Das Sujet „paradiesisches Strandbild“ beherrscht die KI so stereotyp wie ein Reisekatalog. Stereotype kann sie wunderbar reproduzieren. Schwierig wird es bei der Darstellung von Menschen. Gibt man zum Beispiel „CEO“ ein, bekommt man Fotos von Vorstandsvorsitzenden, die alle männlich und oft weiß sind.
Wir haben auch „gardener“ (engl. für Gärtern*innen) als Begriff verwendet und bekamen dann Menschen, die ab und an keine weiße Hautfarbe hatten und lächelten, weil Gärtner*in zu sein, offenbar ein extrem erfüllender Beruf ist (lacht). Man kann von diesen Bildern oftmals darauf schließen, auf welche Stereotype sie zurückgreifen.
Für „normale“ Frauenportraits mussten wir als Begriffe immer „fat“ oder „round face“ eingeben, um eben keine hellhäutige, sehr schlanke, blonde Frau zu bekommen.
Besonders visuell ungerecht und rassistisch zeigt sich KI, wenn man zum Beispiel eingibt, ich hätte gerne eine Frau aus Ghana. Dann bekommt man oft Frauen mit exotisch gemusterten, kaftanartigen Kleidern – eben weil es im digitalen Bildrepertoire viele Fotos von Frauen gibt, die aus Afrika stammen und großgeprintete Kittel anhaben. Da hat man inzwischen zwar etwas nachjustiert, aber es war oder ist nicht ohne weiteres möglich, eine Frau aus Ghana im Business-Anzug darzustellen.
Und da kommt man der KI auf die Schliche. Solche Dinge kann man nur vermitteln, indem man KI benutzt. Als Museum möchten wir daher die Besuchenden die Möglichkeit bieten, KI auszuprobieren und über diese Bilder und die reproduzierten Stereotype und Diskriminierungen zu sprechen.
Die KI führt oft auch zu irritierenden oder witzigen Kombinationen. Wir haben für eine der Ausstellungen Telefone generieren lassen, und da kamen ganz skurrile Ergebnisse raus, Hörer, die irgendwie quer und nie richtig auf der Gabel liegen. Das haben wir dann zum Teil im analogen Ausstellungsraum nachgebaut.
Also, von der KI generierte Fehler?
Ja, und das ist dann das Spannende und das Witzige: Wie kommt die KI da drauf? Die KI hat nämlich kein Verständnis für Räumlichkeit oder physikalische Gesetze. Auch mechanische oder elektronische Funktionen werden von der KI nicht verstanden, weil wahrscheinlich nicht genügend Schaltpläne oder Bedienungsanleitungen digital vorhanden sind. Dafür haben von KI generierte Computer fast immer eine Apple-Ästhetik.

Foto: Maren Burghard
Tutto bene
„Tutto bene“, 2025 , KI-generiert, Idee/Prompt/Bearbeitung: Maren Burghard für das Museum für Kommunikation Frankfurt
Was zeigen Sie in der „New Realities – Fashion Fakes“-Ausstellung?
„New Realities“ ist ein Ausstellungs-Konzept, das einen gemeinsamen Nenner hat: Die Arbeit mit generativer KI und Portraitfotos. Diese Portraits sind immer in eine andere Geschichte eingebunden, um die verschiedenen Herausforderungen mit KI zu zeigen.
In der ersten Ausstellung ging es stark um die Frage was ist „echt“, was ist falsch = KI generiert? In der zweiten Ausstellung ging es darum, wie KI arbeitet, wie wir KI nutzen können, und wie die Situation der Menschen aussieht, die in der KI-Industrie arbeiten – und wie die KI selbst deren Situation sieht.
Wir hatten dazu die KI gefragt, was die Schattenseiten der KI-Industrie sind. Daraus entstand dann eine große Collage mit über 170 Fotos, die Data-Worker*innen zeigt. Und da konnte man genau sehen, wie unkreativ KI ist: Immer der gleiche Bildausschnitt, immer gefühlt koloniale Strukturen nachgebildet, mit Menschen aus Südamerika, Afrika oder Asien in ärmlichen Unterkünften vor dem Computer.
Im Laufe dieser Arbeit ist uns aufgefallen, dass es sehr viel KI-generierte Modefotografie gibt. Sehr viele dieser KI-generierten Modebilder haben mit dem, was Mode ausmacht, also Form oder Stofflichkeit, nichts zu tun und würden in der Realität auch nicht funktionieren. Und auch sie zeigen meist stereotype Model-Körper. Diesem Trend wollen wir nachgehen. Wir arbeiten unter anderem mit Medienwissenschaftler*innen der Uni Marburg zusammen und mit Samuel Gärtner, einem Frankfurter Modeschöpfer, der mit uns und KI arbeiten möchte. Zudem haben wir einen Aufruf an Künstler*innen gestartet und Leute angesprochen, deren Instagram-(Mode-)Bilder uns begeistert haben, weil sie eben genau keine Stereotype zeigen. Diese Arbeiten wollen wir in das Fashion Magazin der Ausstellung integrieren. Wir haben verschiedene Themenbereiche dabei vorgegeben, zum Beispiel „Breaking Gender Boundaries“, damit man eine größere Diversität bekommt. Auch um zu zeigen, dass KI so etwas oft nicht leisten kann.
Es gibt einfach bestimmte Dinge, die man als Foto nicht generieren kann, zum Beispiel eine nackte Frau. Man kann versuchen, das zu umgehen, indem man zum Beispiel angibt, dass die zu generierende Figur gerade aus der Sauna kommt, aber selbst darauf fällt die KI nicht herein und sperrt einen.

Foto: Maren Burghard
Post Dienstbekleidung
„Dienstbekleidung Post“, 2025 , KI-generiert, Idee/Prompt/Bearbeitung: Maren Burghard für das Museum für Kommunikation Frankfurt
Auf Social Media bekommt man bei „Nipplegate“ ja auch eine Meldung. Da gibt es KIs, die wiederum auf der das Bild generierenden Programmen „sitzen“ und sagen, Achtung, und dann kriegst du eine Warnung, weil es gegen die Richtlinien verstößt.
Wenn du also Brustwarzen zeigst, wirst du gesperrt oder dein Bild wird rausgenommen. Zumindest bei weiblichen Brüsten, männliche Brustwarzen gehen klar, das wissen wir ja!
Geht man aber zum Beispiel in den Bereich „Manga“, dann sind die Brüste und Dekolletees der Frauen plötzlich sehr viel großzügiger. Obwohl das auch sexistische Bilder sind, bleiben diese unzensiert, weil sie keine „echte“ Nacktheit zeigen. Waffen oder Handgranaten kann man übrigens viel einfacher generieren, ohne eine Meldung zu bekommen.
Wir wollen die Manipulation, die Stereotype und die visuellen Ungerechtigkeiten zum Thema machen, auch weil Mode, Kleidung oder Uniformen ein ganz wichtiger Teil unserer visuellen Kommunikation sind.
21.3. – 11.1., New Realities: Fashion Fakes – KI Fabriken, Museum für Kommunikation, Schaumainkai 53, Frankfurt, www.mfk-frankfurt.de