Algorithmen zur Generierung von Bildern haben in den letzten Jahren einen extremen Fortschritt erlebt. Während bis vor 3 Jahren die Resultate eher an Traumsequenzen erinnerten, ist es nun kaum mehr möglich, menschengemachte Bilder von KI Bildern zu unterscheiden. Alles Dank Diffusion Models und einer enormen Menge an Trainingsdaten. Die Algorithmen werden zur Generierung von allem Möglichen benutzt, abstrakte Kunstwerke, süße Tierbilder, menschliche Figuren, egal ob realistisch oder in einem bestimmten Kunststil. In diesem Mikrokosmos der KI Bilder spiegeln sich auch die Normen, Vorurteile und Unterdrückungsstrukturen unserer menschlichen Gesellschaft wider. Dies sieht man sowohl an den Prompts, die von den menschlichen Produzenten stammen, als auch an den maschinellen Produzenten, der den Prompt auf bestimmte Art interpretiert. Dabei zeigt sich vor allem eine Reproduktion von sexistischen Stereotypen und eine Festigung bestimmter Geschlechterrollen.
Fangen wir zunächst bei unserer KI an. Natürlich ist nicht jede KI gleich KI, aber gemein ist allen, dass sie mit Bildern trainiert wurden, die schon in unserer Welt existieren und von Menschen geschaffen wurden. Die KI ist somit nicht frei von Bias. Stattdessen nimmt sie hegemoniale Ideen, die in diesen Bildern integriert sind, in ihren Algorithmus auf. Dies zeigt sich z.B. dadurch, dass ohne weitere Angaben von Ethnizität Personen in diesen Bildern vorwiegend weiß sind. Im Speziellen werden Frauen, die in Prompts durch Adjektive wie “beautiful” beschrieben werden, als hellhäutige, schlanke Frauen mit symmetrischem Gesicht und kleiner Nase generiert. Das die KI somit “beautiful” mit westlichen Schönheitsstandards verbindet, ist wahrscheinlich auch nicht allzu überraschend. Interessant ist aber auch, dass Prompts, die eine Frau nicht weiter beschreiben eigentlich ausschließlich normschöne Frauen zeigen und auch Prompts, die eigentlich keine Person beinhalten, sondern nur Wörter wie “beautiful”, "aesthetic", etc. verwenden, dazu führen, dass Frauengesichter generiert werden. Dabei sei gesagt, dass der erste Punkt auch auf männliche Personen zutrifft. Warum ist das so? Eine plausible Erklärung ist, dass es einfach mehr Bilder von Menschen gibt, die den herrschenden Schönheitsidealen entsprechen, seien es Models und berühmte Persönlichkeiten (deren Schönheit noch durch Bildbearbeitung und plastischer Chirurgie verstärkt wurden) oder künstlerische Darstellungen von Menschen, die lieber “ästhetisch ansprechende” Personen zeigen. Warum werden nun aber Adjektive, die Schönheit beschreiben, in der KI gleich mit “Frau” verbunden? Auch diese Vorstellung ist in der KI nicht in einem Vakuum entstanden, sondern spiegelt gewissen Vorstellungen in unserer Gesellschaft wider: den Gedanken, dass Aussehen bei Frauen eine wichtigere Rolle spielt als bei Männern, was beispielsweise schon durch den Begriff “das schöne Geschlecht” deutlich wird. Ich denke, hier ist es auch wichtig, auf die Objektifizierung hinzuweisen, die durch solche Zuschreibungen passiert: Eine Frau ist schön, so wie ein Objekt schön sein kann, sie entspricht gewissen Normen und ist schön anzusehen, ist selbst aber passiv.
Um diesen Punkt der Objektifizierung noch weiter zu vertiefen, will ich im Weiteren bestimmte KIs und ihre Communities genauer anschauen. Midjourney beispielsweise benutzt ein Language-to-Image Netzwerk, auf das via einem Discord Bot zugegriffen werden kann. User können dort einfach ihren Prompt eingeben und der Bot gibt das Ergebnis in einer Nachricht aus. Über die Website des Services werden die neuesten Kreationen der Community ausgestellt (siehe Midjourney Showcase) Auch wenn die Prompts wenig sexualisierend sind, gibt die KI, wenn sie Frauen zeichnen soll, trotzdem gerne Bilder von wenig bekleideten Figuren aus, häufig im Stil von digitaler Kunst, wie sie auch auf Artstation gefunden werden kann. Nicht allzu überraschend, wenn man wieder bedenkt dass die KI auf Bildern aus dem Internet trainiert wurden, ein großer Teil davon Bilder von digitalen Künstler*innen. Die KI reproduziert hier also die schon vorherrschende Sexualisierung von Frauen, vor allem in der Kunst. Doch natürlich gibt es auch Prompts, die explizit sexualisieren, indem beschrieben wird, was für Kleidung die Frauen tragen und indem bestimmte Wörter im Prompt benutzt werden. Ein Feature von Midjourney ist, dass Filter in den Bot eingebaut sind, die sexuelle Inhalte in den Prompts abfangen und dann keine Bilder generieren lassen. Manchmal wird versucht, diese Sperre des Bots zu umgehen. Dies nimmt manchmal geradezu komische Auswüchse an, wenn beispielsweise ein Bild von einem “exciting photoshoot for a bold magazine” generiert werden soll.
Natürlich gibt es dementsprechend auch dedizierte NSFW Generatoren, die mit “create your dream girl with AI” werben. Die KI-Ästhetik wird also auch für pornographische Zwecke genutzt, vieles davon auch künstlerische Stile wie Anime nachahmend. Dies ist nicht unbedingt etwas Neues, nackte Frauen spielen schon lange eine Rolle als ästhetische Objekte in unserer Gesellschaft. Neben Pornographie und Werbung treffen wir auch in der Kunst auf nackte Frauen - als Aktmalereien. In seiner BBC Kurzserien “Ways of seeing” und im begleitenden Buch mit demselben Titel analysiert der Philosoph John Berger die Darstellung von Frauen in europäischen Akten der frühen Neuzeit. Viele seiner Beobachtungen lassen sich meiner Meinung nach auf die KI-Ästhetik übertragen: Besonders interessant ist dabei das Verhältnis zwischen dem Betrachter, dem Künstler und der dargestellten Frau. In der Geschichte war ein Großteil der Künstler Männer, doch wie ist es bei der Generierung von KI Bildern? Die KI selbst hat kein Geschlecht und nimmt auch nur passiv patriarchale Vorstellungen aus unserer Gesellschaft auf. Der handelnde Akteur in diesem Fall ist also der*die Prompt Verfasser*in. Bei den pornographischen KIs dürften dies zu 100% Männer sein, aber auch bei einem "normalen" Tool wie Midjourney kann man mit einem Männerüberschuss rechnen: Etwa zwei Drittel der User von Discord sind männlich und Männer nutzen diese auch öfter. Um Berger direkt zu zitieren: “Men act, women appear”. In diesem Fall bedeutet das: Männer produzieren KI Bilder für sich, oder andere Männer, und diese zeigen, unter anderem, nackte oder attraktive Frauen. Die Geschlechterrollen sind also nach wie vor die gleichen wie vor hunderten Jahren: Männer sind Subjekte, handelnde Produzenten und Konsumenten, im Sinne des aktiven Anschauens, während Frauen Objekte, Ansichten sind. Dabei herrscht natürlich eine Wechselwirkung vor: Die schon bestehende Sexualisierung von Frauen wird auch in den Bereich der KI-Ästhetik übernommen, gleichzeitig verstärkt diese auch die Sexualisierung. Ein Problem, das ich noch gar nicht angesprochen habe, das dabei sehr relevant ist, sind KIs, die Bilder von echten Frauen nehmen und ein neues Bild generieren können, das diese Frau nackt zeigt. Das ist freilich nur das extreme Ende des Spektrums, aber schon die latente Sexualisierung und perfekte Darstellung von Frauen in von KI generierten Bildern, kann sich negativ auf Frauen auswirken.
Was aber ist die Lösung? Neue Technologie kann und wird im Patriarchat zur weiteren Unterdrückung benutzt werden. Deswegen ist nicht gleich alles an der Technologie schlecht, die gesellschaftlichen Gegebenheiten sind schlecht. Und dabei liegt es an uns allen, etwas an ihnen zu verändern.