Nehmen Sie an einem Vorstellungsgespräch teil, bei dem der Interviewer eine künstliche Intelligenz ist. Klingt futuristisch, oder? Nun, die Zukunft ist bereits da und sie bringt ein Problem mit sich, mit dem niemand gerechnet hat: KI diskriminiert. An der Polytechnischen Universität Mailand haben sie eine interaktive Installation geschaffen, die genau diese Situation simuliert. Es heißt „Not for Her“ und der Name sagt alles. Bei diesen virtuellen Interviews zeigt die künstliche Intelligenz all ihre Vorurteile gegenüber Frauen. Gegen die Gleichberechtigung der Geschlechter. Und das Beunruhigendste ist, dass diese Algorithmen in echten Unternehmen bereits darüber entscheiden, wer eingestellt wird.
Wenn die Maschine unsere schlimmsten Fehler lernt
Die Wahrheit über künstliche Intelligenz ist härter, als wir uns vorstellen. Algorithmen, die neutral sein sollten, verstärken stattdessen die Geschlechterdiskriminierung auf eine Art und Weise, die wir uns nie hätten träumen lassen. Die UNESCO-Studie „Vorurteile gegenüber Frauen und Mädchen in großen Sprachmodellen“ enthüllte eine schockierende Realität: In groß angelegten Sprachmustern werden Frauen viermal häufiger als Hausangestellte beschrieben als Männer.
Denken Sie einmal darüber nach: Während Frauen mit Wörtern wie „Zuhause“, „Familie“ und „Kinder“ assoziiert werden, werden Männernamen automatisch mit „Geschäft“, „Manager“, „Gehalt“ und „Karriere“ in Verbindung gebracht. Das Problem geht jedoch über einfache Wortassoziationen hinaus. Wie erklären Sie sich Donatella Sciuto, Rektor der Polytechnischen Universität Mailand, kann künstliche Intelligenz „ein Instrument der Diskriminierung sein oder die Möglichkeit einer verantwortungsvollen und ethischen Nutzung bieten“.

Der Algorithmus, der Sie beurteilt, ohne Sie zu kennen
KI-gestützte Recruiting-Systeme sind bereits in Tausenden von Unternehmen im Einsatz. Nach einer Studie der RES GroupWenn diese Systeme geschlechtsspezifische Ausbildungsdaten verwenden, beschränken sie automatisch den Zugang von Frauen zu Karrierechancen und tragen so zur Aufrechterhaltung des Lohngefälles bei.
Der Mechanismus ist teuflisch einfach: KI lernt aus Daten aus der Vergangenheit, in denen die Unterschiede zwischen den Geschlechtern noch ausgeprägter waren. Ergebnis? Algorithmen gehen davon aus, dass dies „normal“ sei, und diskriminieren weiterhin, weil sie denken, dass sie das Richtige tun. Es ist, als hätten wir Maschinen geschaffen, die darauf programmiert sind, die Gleichberechtigung der Geschlechter zu ignorieren und den Status quo aufrechtzuerhalten, selbst wenn dieser Status quo ungerecht ist.
Gleichstellung der Geschlechter: die erschreckenden Zahlen
Besonders dramatisch ist die Lage im Technologiesektor selbst. Laut dem Europäischen Institut für Gleichstellungsfragen, Frauen besetzen nur 16 % der KI-Jobs und nur 12 % der Fachkräfte mit mehr als 10 Jahren Erfahrung sind weiblich. Übersetzt: Die Algorithmen, die über unsere Zukunft entscheiden, werden größtenteils von Männern entwickelt.
Diese Lücke spiegelt sich auch im täglichen Umgang mit Technologie wider. Eine Untersuchung des Oliver Wyman Forums an 25.000 Arbeitern zeigte, dass 59 % der Männer verwenden mindestens einmal pro Woche generative KI-Tools, im Vergleich zu 51 % der Frauen. Bei jungen Menschen ist die Kluft sogar noch größer: 71 % der Männer zwischen 18 und 24 Jahren gegenüber 59 % der Frauen.
Die Gleichstellung der Geschlechter, die nie kommt
Das Problem ist nicht nur technologischer, sondern struktureller Natur. Wie der Bericht des Weltwirtschaftsforums hervorhebtkein Land der Welt hat die Gleichstellung der Geschlechter erreicht, und Es wird weitere 152 Jahre dauern, bis die wirtschaftlichen Lücken geschlossen sind. Künstliche Intelligenz birgt die Gefahr, diesen Prozess weiter zu verlangsamen, anstatt ihn zu beschleunigen.
Wie wir auf diesen Seiten bereits hervorgehoben habenDie Entwicklung der KI hin zu immer ausgefeilteren Formen macht es noch dringlicher, diese Probleme jetzt anzugehen, bevor sie unumkehrbar werden.
Das notwendige Erwachen
Die Installation „Not for Her“ ist nicht nur Kunst: Sie ist ein Weckruf. Jedes Mal, wenn ein Algorithmus eine diskriminierende Entscheidung trifft, ist dies nicht einfach eine Wiederholung der Vergangenheit: Er baut eine Zukunft auf, in der Frauen weniger Chancen haben und die Gleichberechtigung der Geschlechter zunehmend zu einer Utopie wird. Die Technologie, die uns von menschlichen Vorurteilen befreien sollte, wird zu ihrem stärksten Sprachrohr.
Die Lösung existiert, aber es erfordert Willen. Wir brauchen Vielfalt in den Entwicklungsteams, gerechtere Trainingsdaten und vor allem das Bewusstsein, dass jeder Algorithmus richtig sein kann. Denn wenn wir jetzt nicht handeln, wird die KI der Zukunft nicht künstlich intelligent sein: Sie wird künstlich dumm sein. Und ehrlich gesagt, das können wir uns nicht leisten.
Die Installation „Nicht für sie – Künstliche Intelligenz, die das Unsichtbare enthüllt“ kann auf der 24. Internationalen Ausstellung der Mailänder Triennale vom 13. Mai bis 9. November 2025 besucht werden. Kuratiert wird das Projekt von der Polytechnischen Universität Mailand unter der Leitung der Rektorin Donatella Sciuto.
1 Kommentar zu „Gleichstellung der Geschlechter: KI ist sexistischer als Menschen“
Kommentare sind geschlossen.