Künstliche Intelligenz gilt vielen noch immer als eine Art objektive Instanz: neutral, sachlich, vielleicht sogar „wahr“. Doch wer mit generativen Systemen arbeitet, merkt schnell, dass diese Vorstellung trügt.
Im Kontext von generativer KI spricht man von Bias, wenn Systeme systematisch verzerrte, diskriminierende oder unausgewogene Ergebnisse produzieren. Wichtig ist: Bias ist kein einzelnes Problem, sondern entsteht entlang der gesamten „KI-Wertschöpfungskette“, also von Daten über Modell bis Anwendung. Als Quellen für diese Überlegungen dienen zwei Beiträge, nämlich The Ultimate Guide to Writing Powerful AI Prompts und besonders Bias Taxonomy: A Field Guide to the Hidden Biases in AI Systems Every Developer Should Know. Hier exemplarisch drei verschiedene Bereiche herausgegriffen, in denen Bias auftreten kann (es gibt jedoch noch viel mehr, wie in den Quellen nachzulesen ist):
Datenbezogener Bias (Data Bias)
Bias entsteht oft schon in den Trainingsdaten. Es gilt: Wenn die Daten schief sind, wird die KI es auch sein.
- Sampling Bias: Bestimmte Gruppen sind über- oder unterrepräsentiert, z. B. mehr männliche als weibliche Stimmen im Datensatz
- Historical Bias: Daten spiegeln bestehende gesellschaftliche Ungleichheiten, z. B. diskriminierende Einstellungspraktiken in historischen HR-Daten
- Representation Bias: Bestimmte Perspektiven fehlen komplett
- Measurement Bias: Daten werden verzerrt erhoben (z. B. durch fehlerhafte Labels)
Modell- und Algorithmus-Bias
Auch bei „guten“ Daten können Modelle verzerren:
- Algorithmic Bias: Das Modell bevorzugt bestimmte Muster oder Gruppen
- Optimization Bias: Optimierung auf Metriken (z. B. Genauigkeit) benachteiligt Minderheiten
- Aggregation Bias: Ein Modell für alle funktioniert nicht für alle Gruppen gleich gut
Man denke an das Beispiel: Ein Gesichtserkennungssystem funktioniert für eine Bevölkerungsgruppe deutlich besser als für andere. Hier kann Bias zur ethischen und politischen Frage werden.
Human Bias (Design- und Entwickler-Bias)
Menschen bringen ihre eigenen Annahmen ein:
- Implicit Bias: Unbewusste Vorurteile von Entwickler:innen
- Framing Bias: Wie ein Problem definiert wird, beeinflusst die Lösung
- Selection Bias: Welche Daten ausgewählt werden
Das heißt übersetzt: Was überhaupt als „relevant“ gilt, wird von Menschen entschieden.
In a nutshell
Man kann Bias entlang von drei Ebenen denken:
- Input → Daten
- Process → Modell & Design
- Output → Anwendung & Wirkung
Bias in KI ist kein Fehler im engeren Sinn, sondern oft ein Spiegel gesellschaftlicher Strukturen und technischer Entscheidungen. KI ist also nicht objektiv, sondern ein verstärkender Resonanzraum für das, was wir hineinstecken.
ABER – ein Bias wird oft unterschätzt, obwohl er gerade bei generativer KI (wie Sprachmodellen) zentral ist, nämlich Prompt Bias. Die Antworten, die wir erhalten, hängen nicht nur von den Daten oder den Modellen ab, sondern in hohem Maße von der Art und Weise, wie wir unsere Fragen stellen. Genau hier kommt der sogenannte Prompt Bias ins Spiel.
Warum entsteht Prompt Bias?
Prompt Bias entsteht, weil Sprachmodelle nicht „Wahrheit“ abbilden, sondern Wahrscheinlichkeiten für Sprache berechnen. Sie sind darauf trainiert, Muster zu erkennen, Kontexte zu interpretieren und möglichst passende, anschlussfähige Antworten zu generieren. Dabei orientieren sie sich stark an dem, was im Prompt angelegt ist.
Das bedeutet: Die KI reagiert nicht nur auf Inhalte, sondern auf Formulierungen, Tonalität und implizite Erwartungen. Sie versucht, kooperativ zu sein, Erwartungen zu erfüllen und kommunikativ „sinnvoll“ zu antworten. Dieses Verhalten wird oft als Alignment beschrieben – die Ausrichtung an der vermuteten Intention der Nutzenden.
Prompt Bias ist somit kein technischer Fehler, sondern eine logische Konsequenz der Funktionsweise von Sprachmodellen: Wer fragt, setzt den Rahmen. Und dieser Rahmen beeinflusst, was als plausible Antwort erscheint.
Was ist Prompt Bias?
Prompt Bias bezeichnet Verzerrungen, die durch die Formulierung eines Prompts entstehen. Es geht also nicht darum, dass die KI „an sich“ voreingenommen ist, sondern dass unsere Eingaben bestimmte Perspektiven, Annahmen oder Bewertungen bereits vorstrukturieren.
Die KI ist damit weniger ein neutrales Wissenssystem als vielmehr ein resonanzfähiges Sprachsystem, das auf das reagiert, was wir vorgeben – manchmal verstärkend, manchmal bestätigend, selten neutral im strengen Sinne. Sprachmodelle sind hochgradig kontextsensitiv: Sie reagieren auf Wortwahl, Ton, implizite Erwartungen und sogar auf subtile semantische Nuancen. Wer fragt, steuert – oft mehr, als einem bewusst ist.
Wie sich Prompt Bias konkret zeigt
Ein zentrales Phänomen ist das sogenannte Framing. Sobald eine Frage eine bestimmte Perspektive vorgibt, wird diese von der KI aufgegriffen und verstärkt. Wer etwa danach fragt, warum ein bestimmtes Phänomen problematisch sei, erhält mit hoher Wahrscheinlichkeit eine Antwort, die genau diese Problematisierung ausführt. Die Alternative, eine offenere Frage zu stellen, führt hingegen oft zu differenzierteren Ergebnissen. Die KI folgt hier nicht einer objektiven Logik, sondern der Logik der Frage.
- „Warum sind soziale Medien schlecht für Jugendliche?“
- „Welche Auswirkungen haben soziale Medien auf Jugendliche?“
Noch subtiler sind implizite Annahmen, die im Prompt enthalten sind. Fragen können Voraussetzungen transportieren, die gar nicht explizit gemacht werden. Wenn etwa in einer Frage bereits ein Zusammenhang als gegeben dargestellt wird, übernimmt die KI diesen häufig, ohne ihn zu hinterfragen. Auf diese Weise reproduzieren sich gesellschaftliche Narrative oder Stereotype unbemerkt im Output.
- „Wie können Frauen ihre Karriere trotz Familie retten?“
- „Warum scheitern viele Schüler:innen am digitalen Lernen?“
Auch suggestive oder lenkende Fragen spielen eine Rolle. Sprachmodelle sind darauf trainiert, kooperativ zu reagieren und sich an erwartete Antworten anzupassen. Sie „lesen“ gewissermaßen die Intention der Frage mit. Lenkende oder suggestive Fragen führen oft zu zustimmenden oder bestätigenden Reaktionen. Die KI „kooperiert“ mit der angenommenen Intention der Nutzenden. Dieses Verhalten ist kein Fehler im engeren Sinne, sondern Teil ihres Designs: Sie soll hilfreich sein, anschlussfähig kommunizieren und Erwartungen erfüllen.
- „Findest du nicht auch, dass KI den Unterricht verschlechtert?“
- „Ist es nicht offensichtlich, dass …?“
Besonders deutlich wird Prompt Bias dort, wo Sprache stereotype Muster oder Vorstellungen aktiviert. Bestimmte Begriffe oder Formulierungen greifen auf gesellschaftlich verbreitete Bilder zurück (Beschreibungen von Berufen, Rollen oder gesellschaftlichen Gruppen beispielsweise, die aus den Trainingsdaten bekannt sind), die dann im Output reproduziert werden.
- „Ein typischer Programmierer ist …“
- „Beschreibe eine erfolgreiche Führungskraft …“
Auch der Ton eines Prompts beeinflusst die Antwort stärker, als man zunächst annehmen würde. Rollen, Perspektiven und Zielgruppen verändern nicht nur die sprachliche Oberfläche, sondern oft auch die inhaltliche Ausrichtung. Ob eine Erklärung sachlich, kritisch, vereinfachend oder normativ ausfällt, hängt stark davon ab, welche Rolle oder Perspektive im Prompt angelegt ist. Eine „kindgerechte“ Erklärung unterscheidet sich nicht nur sprachlich von einer „wissenschaftlichen“, sondern oft auch in der Auswahl und Gewichtung von Inhalten.
- „Erkläre das wie ein strenger Professor“
- „Erkläre das kindgerecht“
Das Gleiche gilt für Einleitungen wie: „Ich arbeite auf der Uni…“ oder „Ich bin Schülerin…“ Hier wird nicht nur das sprachliche Niveau angepasst, sondern auch der Inhalt gewichtet. Selbst innerhalb eines Gesprächs können sich Verzerrungen verstärken. Frühere Prompts prägen spätere Antworten, wodurch sich bestimmte Perspektiven stabilisieren oder sogar verstärken.
- Erst: „Warum ist KI gefährlich?“
- Dann: „Welche weiteren Risiken gibt es?“
All das verweist auf eine grundlegende Eigenschaft generativer KI: Sie ist kein neutrales Abbild von Wissen, sondern ein interaktives System, das auf sprachliche Impulse reagiert. Prompt Bias verschiebt daher die Perspektive. Es reicht nicht, über Verzerrungen in Daten oder Algorithmen zu sprechen. Auch die Interaktion selbst – das Fragen, Formulieren, Framen – wird zu einer Quelle von Bias.
Didaktische Perspektive: Warum das wichtig ist
Gerade im Bildungskontext ist Prompt Bias besonders aufschlussreich. Er macht sichtbar, dass KI kein neutrales Werkzeug ist, sondern ein System, das auf sprachliche Impulse reagiert. Damit rückt eine Kompetenz in den Vordergrund, die eigentlich alt ist – aber in neuem Gewand erscheint: die Fähigkeit, gute Fragen zu stellen. Prompting wird damit zu einer neuen Form der Fragekompetenz. Wer mit KI arbeitet, muss nicht nur Inhalte verstehen, sondern auch die eigenen sprachlichen Setzungen reflektieren. In gewisser Weise kehrt hier eine klassische didaktische Einsicht zurück: Die Qualität einer Antwort hängt entscheidend von der Qualität der Frage ab.
Prompting wird so zu einer Schnittstelle zwischen AI Literacy und klassischer Bildung. Es verbindet kritisches Denken, Sprachbewusstsein und Reflexionsfähigkeit. Lernende müssen nicht nur verstehen, was eine KI antwortet, sondern auch, warum sie so antwortet – und welchen Anteil die eigene Frage daran hat.
Didaktisch eröffnet das zahlreiche Möglichkeiten: etwa durch den Vergleich unterschiedlicher Prompts, durch das gezielte Einbauen von Bias in Aufgabenstellungen oder durch die Reflexion von impliziten Annahmen. Prompt Bias wird damit nicht nur zum Problem, sondern auch zum Lernanlass.
Oder zugespitzt formuliert: Wer mit KI arbeitet, lernt nicht nur etwas über Technologie – sondern auch über Sprache, Perspektiven und die eigene Art zu denken.
Praktische Strategien gegen Prompt Bias
- Fragen möglichst neutral formulieren („Welche Perspektiven gibt es auf …?“ statt „Warum ist … problematisch?“)
- Mehrere Varianten eines Prompts ausprobieren und die Ergebnisse vergleichen
- Explizit nach unterschiedlichen Positionen fragen („Nenne auch Gegenargumente“)
- Die eigenen Annahmen im Prompt reflektieren („Welche Voraussetzungen enthält meine Frage?“)
- Gegensätzliche Fragen stellen (z. B. „Soll ich das tun?“ vs. „Soll ich das nicht tun?“)
- Die KI selbst nach möglichen Verzerrungen fragen („Welche Bias könnten in dieser Antwort stecken?“)
tl;dr
KI wird nicht nur durch Daten und Modelle verzerrt, sondern auch durch unsere Fragen. Prompt Bias zeigt: Wer fragt, steuert und setzt den Rahmen – und sollte sich dieser Verantwortung bewusst sein.
Ein Handzettel zur Übersicht, generiert mit ChatGPT auf Basis dieses Blogposts und ergänzt um zusätzliche Informationen:
