Diskriminierung durch Algorithmen

Fairness und Chancengleichheit in der IT

Code beeinflusst, wer zum Vorstellungsgespräch eingeladen wird. Code weiß, was beim Online- Shopping „ebenfalls interessieren könnte“. Code steuert die Wahrnehmung unserer Arbeitswelt, wenn wir Berufe „googeln“. Algorithmische Systeme wirken längst in unserer Gesellschaft. Sie lernen von Daten aus der realen Welt, mit denen Menschen sie füttern – und übernehmen Vorurteile und Ungleichheiten aus deren Lebenswelt. Das betrifft vor allem auch Geschlechterstereotype.

Anne Weibert (Universität Siegen) moderierte gemeinsam mit Michael Ahmadi Workshops zu den im Projekt durchgeführten Reallaboren

Das Verbundprojekt GEWINN beschäftigt sich damit, wie ein verantwortungsvoller Umgang mit algorithmischen Systemen aussehen kann. Zentrale Forschungsfrage ist, wie Algorithmen – im Sinne eines „Gender Equality by Design“-Ansatzes so gestaltet werden können, dass Menschen fair und neutral behandelt werden. „Ohne Intervention führen algorithmische Systeme zu einer Fort-schreibung existierender Geschlechterrollen und -bilder“, so Prof. Marsden, wissenschaftliche Leiterin des GEWINN-Projekts. Algorithmen sind nichts anderes als Rechenvorgaben, die die häufigsten Daten in einer großen Datenmenge finden, die mit einer bestimmten Eigenschaft korrelieren. Anders gesagt: Sie „lernen“ unsere Stereotype. „Im Umkehrschluss kann das z. B. im Hinblick auf den Arbeitsmarkt bedeuten, dass auf lange Sicht nur Menschen, deren Biografien diesen Mustern entsprechen, die Chance bekommen, sich in einem bestimmten Berufsfeld zu beweisen.“


Das Verbundvorhaben „Gender. Wissen. Informatik. Netzwerk zum Forschungstransfer des interdisziplinären Wissens zu Gender und Informatik (GEWINN)“ wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Es wird durchgeführt von der Universität Siegen und dem Kompetenzzentrum Technik-Diversity-Chancengleichheit e. V