Detailseite
Egozentrische Verzerrungen treffen auf voreingenommene Algorithmen
Antragstellerin
Professorin Dr. Sonja Utz
Fachliche Zuordnung
Sozialpsychologie und Arbeits- und Organisationspsychologie
Publizistik und Kommunikationswissenschaft
Publizistik und Kommunikationswissenschaft
Förderung
Förderung seit 2022
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 512365147
Diskriminierung durch Algorithmen findet oft Beachtung, wenn skandalöse Diskriminierungsfälle aufgedeckt werden. Weit weniger beachtet wird, dass die Menschen, die die Fairness und die Akzeptanz von algorithmischen Entscheidungen bewerten, ebenfalls voreingenommen sein könnten. Aus der sozialpsychologischen Forschung wissen wir, dass Menschen in Situationen, in denen verschiedene Fairnessregeln angewendet werden können, dazu neigen, die Fairnessregel zu bevorzugen, mit der sie besser fahren, eine so genannte egozentrische Verzerrung. In den bisherigen Studien zu algorithmischer Fairness wurden solche motivationalen Verzerrungen weitgehend ignoriert. Man könnte argumentieren, dass das Problem der Gruppendiskriminierung in ein paar Jahren nicht mehr relevant sein wird, weil die Forschung zu maschinellem Lernen an der Optimierung verschiedener Fairness-Parameter arbeitet. Diese Lösungen sind jedoch immer mit Zielkonflikten verbunden, denn die Optimierung eines Parameters geht auf Kosten eins anderen. Motivationsbedingte Verzerrungen (Bevorzugung der Option, die zu einem besseren Ergebnis führt) können diese Abwägungen ebenfalls beeinflussen, wurden aber bislang kaum erforscht. Das übergreifende Ziel dieses Projekts ist es, diese Lücke zu schließen. In einem ersten Schritt wollen wir empirisch demonstrieren, dass das Problem der Gruppendiskriminierung durch Algorithmen bei den Teilnehmern typischer Algorithmus-Akzeptanzstudien entweder nicht bekannt oder nicht sehr salient ist; folglich sollten Algorithmen nur dann erkannt werden, wenn das Bewusstsein für dieses Problem geschärft ist. Das zweite Ziel ist es, zu zeigen, dass egozentrische Verzerrungen eine Rolle spielen, wenn Gruppendiskriminierung thematisiert wird. Genauer gesagt sollten Personen aus privilegierten Gruppen (im Gegensatz zu Personen aus benachteiligten Gruppen) einen voreingenommenen Algorithmus, der ihre eigene Gruppe bevorzugt, als fairer bewerten und es zulässiger finden, dass der Algorithmus Entscheidungen trifft. Das dritte Ziel des Projekts besteht darin, zu zeigen, dass solche Verzerrungen auch die Abwägungen beeinflussen, die bei der Entwicklung technischer Lösungen für die Gruppendiskriminierung durch Algorithmen gemacht werden müssen. Wir werden zunächst eine mehrdimensionale Fairness-Skala entwickeln und den Grad des Bewusstseins für algorithmische Gruppendiskriminierung in einer repräsentativen Stichprobe untersuchen. Anschließend planen wir eine Reihe von präregistrierten Experimenten, um das Zusammenspiel von algorithmischen und menschlichen Verzerrungen zu untersuchen. Um die Robustheit der Ergebnisse zu demonstrieren, werden wir die Auswirkungen in verschiedenen Bereichen (Sexismus, Rassismus, Diskriminierung aufgrund eines willkürlichen Merkmals) zeigen. Da das Thema Gruppendiskriminierung von hoher gesellschaftlicher Relevanz ist, werden wir auch Experimente mit repräsentativen Stichproben und mit Stichproben mit einem hohen Anteil an Migrant*innen durchführen.
DFG-Verfahren
Sachbeihilfen