Speaker-Teaser: Warum KI kein „Männerding“ bleiben darf

PR Tech Day 2026

KI ist nicht neutral. Auch wenn wir oft glauben, Algorithmen seien objektive Richter aus Zahlen, sind sie in Wahrheit ein Spiegelbild unserer Gesellschaft – mit all ihren Vorurteilen und blinden Flecken.

Ein Beitrag der Speakerin Anja Teßmann

Das sehen wir fast täglich in unserer eigenen KI-Nutzung und in unseren KI-Workshops. KI lernt aus unserer Vergangenheit und schreibt veraltete Rollenbilder fort, wenn wir nicht aktiv eingreifen.

Wo zeigt sich KI-Bias konkret?

KI-Bildgeneratoren zeigen bei Prompts wie „CEO” oder „powerful people” fast ausschließlich weiße Männer. 1 Wer also KI-generierte Bilder in der Kommunikation einsetzt, ohne dies zu hinterfragen, zementiert genau die Rollenbilder, die wir eigentlich aufbrechen wollen.

Noch direkter wirkt der Bias bei Gehältern: Eine aktuelle Studie2 hat getestet, was passiert, wenn man KI-Chatbots nach Gehaltsempfehlungen für Personen mit gleicher Qualifikation, gleicher Rolle und gleicher Branche fragt, wobei das Geschlecht der einzige Unterschied ist. Ergebnis: Große Sprachmodelle schlagen Männern regelmäßig höhere Gehälter vor, oft um mehrere Tausend Euro. KI wirkt in Bewerbungssituationen wie ein neutraler Coach und gibt dabei unsichtbare Vorurteile als scheinbar objektive Empfehlung weiter.

KI ist nicht nur ein technisches Werkzeug, sondern ein Spiegel unserer Gesellschaft.”

so Kate Crawford.

Die Ursache für Bias in der KI beginnt im Entwicklungsteam

Das Problem liegt nicht in der Technik selbst, sondern in ihrer Entstehung, wie folgende Zahlen aus den USA deutlich zeigen: Die Teams, die KI entwickeln, sind männlich dominiert. Obwohl Frauen fast die Hälfte der US-Erwerbsbevölkerung ausmachen, stellen sie laut dem EEOC-Report3 „High Tech, Low Inclusion” (2024) nur 22,6 % der Tech-Workforce und in spezialisierten High-Tech-Berufen sogar nur 19,4 %. Dieser Anteil hat sich seit 2005 kaum verändert.

Wenn Frauen die KI nicht mitgestalten, wird sie ohne ihre Perspektiven entwickelt. Das führt zu einem gefährlichen Kreislauf: Weniger Praxis führt zu weniger Selbstvertrauen im Umgang mit der Technik, wodurch sich die Schere zwischen den Geschlechtern weiter öffnet.

Wege aus der Bias-Falle

KI ist nicht unveränderlich. Wir können entscheiden, ob wir Bestehendes einfach übernehmen oder die Technologie für mehr Gerechtigkeit nutzen.

  • Diverse Teams: Entwicklung braucht Vielfalt, um blinde Flecken zu minimieren
  • Inklusives Design: Tools wie COCO (Inclusive Imagination OS) zeigen vor, wie es geht. Anstatt Klischees zu reproduzieren, verankert COCO Diversität als Grundprinzip und stellt marginalisierte Gruppen authentisch dar.
  • Bewusstes Handeln: Durch kritisches Hinterfragen und gezieltes Prompting können wir Bias sichtbar machen und gegensteuern. Das beginnt bereits bei der Wahl der Tools. Europäische KI-Tools punkten in diesem Bereich definitiv.

Das tun wir: KI-Empowerment für Frauen

Als Mitglieder von Women in AI Austria engagieren wir uns in einem Netzwerk, das sich die weibliche Perspektive auf die Entwicklung von KI auf die Fahne geschrieben hat und ihr aktiv eine Stimme gibt.

Unsere eigene Antwort darauf heißt SISTERHOOD. Als „die KI-Sisters” haben wir die KI-Masterclass und die KI-Community „WOMEN ONLY” ins Leben gerufen. Das sind Räume, in denen Frauen lernen, KI kritisch zu nutzen. Denn KI ist kein „Männerding”. KI ist ein Werkzeug für alle – aber nur, wenn wir dafür sorgen, dass alle gleichberechtigt Zugang haben.

Quellen: 1) „Sexism, Racism, and Classism: Social Biases in Text-to-Image Generative AI in the Context of Power, Success, and Beauty” / 2024; 2) Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models / Aleksandra Sorokovikova, Pavel Chizhov, Iuliia Eremenko, Ivan P. Yamshchikov; 3) EEOC-Report

Über die AutorIn

Anja Teßmann ist gemeinsam mit ihrer Schwester Julie Teßmann die KI-Sisters, die Gründerinnen von SISTERHOOD, und Expertinnen für KI-Transformation im Marketing. Mit über 90 gemeinsamen KI-Workshops, einer eigenen KI-Masterclass und der Community „WOMEN ONLY” bringen sie Frauen ins Zentrum der KI-Entwicklung. Ihr Ansatz: keine Tool-Demos, sondern echte KI-Praxis und verantwortungsvolle KI-Nutzung.