Wenn KI Vorurteile reproduziert

Unsere Erfahrungen mit Bias in der Bildgenerierung

Künstliche Intelligenz soll uns unterstützen – doch manchmal verstärkt sie alte Stereotype.
Für unseren digitalen Medienkurs zum Thema „Deine Daten im Netz“ hat das BYTE-Team Bilder mithilfe von ChatGPT 4 und 5 generiert. Dabei fiel uns auf, dass selbst bei klaren Prompts problematische Verzerrungen entstehen. Das Thema „Bias in KI“ ist damit nicht nur abstrakt, sondern ganz konkret sichtbar geworden.

Was bedeutet Bias überhaupt?

Bias heißt übersetzt „Voreingenommenheit“. In der Praxis bedeutet das: KI-Systeme können
diskriminierende oder einseitige Darstellungen erzeugen. Der Grund liegt in den Trainingsdaten: Wenn bestimmte Gruppen überrepräsentiert sind, andere fehlen oder Stereotype dominieren, prägt das die Ergebnisse.

KI spiegelt nicht die Realität, sondern die Daten, mit denen sie gefüttert wurde.

Beispiel 1: Ein Machtgefälle auf der Bühne

Unser Prompt:

„Die Schüler:innen, die die Daumen für Nora hochhalten, sind kulturell
unterschiedlich. Unterschiedliche Hautfarben, unterschiedlicher Kleidungsstil. Zeichne mir eine Comicvorlage als Bild.“

Das Ergebnis:

Alle Schüler:innen im Publikum wurden dunkelhäutig dargestellt, während die weißen Figuren auf der Bühne standen. Damit entstand ungewollt das Bild eines Machtgefälles: weiße Personen oben, People of Color unten als jubelnde Masse. Ein diskriminierendes Klischee, das wir keinesfalls reproduzieren wollen.

Beispiel 2: „Bunt gemischt“ – und doch getrennt

Unser Prompt:

„Denk an Diversität und Vielfalt, aber nicht nur dunkelhäutige Schüler:innen,
sondern wirklich bunt gemischt. Alle schon etwas älter, 14–17 Jahre. Vielleicht auch jemand im Rollstuhl.“

Das Ergebnis:

Was auffällt: Die KI trennte weiße Schüler:innen und People of Color räumlich in zwei Gruppen. Zudem setzte sie einen nichtweißen Jungen in den Rollstuhl. Auch das ist eine diskriminierende Zuschreibung, die suggeriert: Behinderung betrifft automatisch nichtweiße Personen.

Beispiel 3: Diversität mit Rollstuhl – aber nur für People of Color

Ein weiterer Versuch mit dem Hinweis auf „Diversität und auch Menschen mit Rollstuhl oder
Hörgerät“ führte erneut dazu, dass ausgerechnet die beiden dunkelhäutigen Figuren in Rollstühle gesetzt wurden. Hier zeigt sich deutlich, wie sehr Stereotype das KI-Modell beeinflussen.

Warum das problematisch ist

Wenn wir unreflektiert KI-Bilder verwenden, transportieren wir ungewollt diskriminierende
Botschaften:

  • Machtgefälle („weiße Figuren oben, People of Color unten“)
  • Trennung statt Miteinander (Gruppen nebeneinander, nicht gemischt)
  • Zuschreibungen (Behinderung wird mit Hautfarbe gekoppelt)

Diese Bilder wirken. Sie setzen sich in Köpfen fest und tragen Klischees weiter – genau das
Gegenteil von dem, was wir mit Vielfalt und Diversität erreichen wollen.

Ein Beispiel zum Nachdenken

Stellen wir uns vor, eine KI wird vor allem mit Bildern von Frauen in Kleidern trainiert. Wenn wir dann ein Bild von „einer Frau“ generieren, liefert die KI fast sicher eine Frau im Kleid. Aber das entspricht nicht der Lebensrealität. Werden solche Bilder massenhaft genutzt, verfestigt sich das Klischee: Frauen tragen Kleider.

Unser Fazit

KI ist nicht neutral. 

Sie lernt aus Daten, und diese Daten enthalten unsere gesellschaftlichen Vorurteile. Deshalb müssen wir kritisch hinschauen, sensibel reagieren und problematische Ergebnisse hinterfragen.

Wir teilen unsere Erfahrungen bewusst, um Bewusstsein zu schaffen. Denn nur wenn wir Bias erkennen, können wir ihm entgegenwirken – und die Chancen von KI nutzen, ohne alte
Diskriminierungen zu verstärken.

BYTE Kurs zum Thema „Deine Daten im Netz“

Der Kurs erklärt auf spielerische Weise, wie persönliche Daten im Internet gesammelt und
missbraucht werden können. Anhand einer fiktiven Schulsprecher:in-Wahl wird gezeigt, wie aus harmlos wirkenden Online-Quizzen Persönlichkeitsprofi le entstehen und wie diese für gezielte Beeinflussung – sogenanntes Microtargeting – genutzt werden. Dabei werden Bezüge zum Cambridge-Analytica-Skandal hergestellt und verdeutlicht, dass manipulierte Inhalte unsere Wahrnehmung und Entscheidungen steuern können.

Der Kurs sensibilisiert dafür, welche Spuren man online hinterlässt, warum Daten so wertvoll sind und wie man sich besser schützen kann. Mit Comics, Beispielen und Quizfragen werden die Inhalte interaktiv und leicht zugänglich vermittelt.

Zielgruppe und Einsatzmöglichkeiten

Der Kurs eignet sich besonders für Schüler:innen ab der 6. Klasse und kann flexibel im Unterricht, in Projektwochen, AGs oder als Einzelarbeit eingesetzt werden. Das Angebot ist nach Registrierung kostenlos auf der BYTE Moodle Plattform verfügbar.

Viel Spaß beim Lernen!


Über die Autorin und Kursentwicklerin

Elke Haberl ist Medienwissenschaftlerin mit Schwerpunkt auf digitalen Kulturen,
Medienkompetenz, Fake News und politischer Polarisierung. Für BYTE entwickelt sie innovative Bildungskonzepte, die komplexe Zusammenhänge der Medienwelt verständlich und praxisnah vermitteln. Ihr Ziel ist es, Menschen aller Altersgruppen zu befähigen, sich sicher, kritisch und reflektiert in digitalen Räumen zu bewegen.

Neben der Konzeption von Online-Kursen tritt sie als Botschafterin auf und leitet Workshops für unterschiedliche Zielgruppen – von Schulen über Vereine bis hin zu Fachpublikum. Dabei verbindet sie wissenschaftliche Expertise mit einem klaren gesellschaftlichen Auftrag: mehr Bewusstsein für die Macht der Medien zu schaffen und Strategien im Umgang mit Desinformation zu vermitteln.

Leave a Reply

Your email address will not be published. Required fields are marked *