Was passiert, wenn man weibliche Stimmen in Bewerbungsgesprächen zu männlichen macht?

Ein interessantes Experiment, bei dem für ein Bewerbungsinterview männliche Stimmen zu weiblichen und weibliche Stimmen zu männlichen gemacht worden sind:

In this post, I’ll talk about what happened when we built real-time voice masking to investigate the magnitude of bias against women in technical interviews. In short, we made men sound like women and women sound like men and looked at how that affected their interview performance. We also looked at what happened when women did poorly in interviews, how drastically that differed from men’s behavior, and why that difference matters for the thorny issue of the gender gap in tech.

Zur Ausgangslage:

One of the big motivators to think about voice masking was the increasingly uncomfortable disparity in interview performance on the platform between men and women1. At that time, we had amassed over a thousand interviews with enough data to do some comparisons and were surprised to discover that women really were doing worse. Specifically, men were getting advanced to the next round 1.4 times more often than women. Interviewee technical score wasn’t faring that well either — men on the platform had an average technical score of 3 out of 4, as compared to a 2.5 out of 4 for women

Wenn das Geschlecht an der Stimme zu erkennen war, dann kamen Männer also 1,4 mal häufiger als Frauen in die nächste Runde und ihr technisches Wissen wurde etwas besser bewertet als das von Frauen (3 von 4 statt 2,5 von 4).

Was änderte nun die Stimmmodulation:

After running the experiment, we ended up with some rather surprising results. Contrary to what we expected (and probably contrary to what you expected as well!), masking gender had no effect on interview performance with respect to any of the scoring criteria (would advance to next round, technical ability, problem solving ability). If anything, we started to notice some trends in the opposite direction of what we expected: for technical ability, it appeared that men who were modulated to sound like women did a bit better than unmodulated men and that women who were modulated to sound like men did a bit worse than unmodulated women. Though these trends weren’t statistically significant, I am mentioning them because they were unexpected and definitely something to watch for as we collect more data.

Wenn die an den Bewerbern interessierten also davon ausgingen, dass der Bewerber, ein Mann war, obwohl er eigentlich eine Frau war, dann blieben die Ergebnisse gleich, allenfalls waren sie etwas schlechter. Umgekehrt blieben die Ergebnisse auch gleich, allenfalls wurden sie etwas besser.

Das würde bedeuten, dass das Geschlecht in der Hinsicht keine Rolle spielte, eher sogar, dass man Frauen etwas positiver bewertet.

Im folgenden wird dann noch festgestellt, dass Frauen insgesamt die Plattform bei schlecht gelaufenen Interviews häufiger verließen, ob sie dabei dachten, dass sie lieber einen anderen Weg nutzen (etwa einen, bei denen man zB ein Video sieht) oder einfach eher aufgaben wäre interessant.

Es ist ein interessantes Experiment, aber auch keines, welches man überbewerten sollte. Insbesondere scheint mir kein Test darauf erfolgt zu sein, ob Personen aufgrund der Stimmveränderung wirklich davon ausgehen, dass auch das Geschlecht ein anderes ist. Denn die Stimmhöhe ist nicht der einzige Faktor, der sich bei Männern und Frauen unterscheidet. Auf der verlinkten Seite sind Proben zu hören, auch die finde ich aber nicht sehr aussagekräftig.

Der Grundansatz ist aber durchaus interessant und die Geschlechter entsprechend technisch „auszutauschen“ wäre ein interessanter Weg Theorien zur Diskriminierung zu überprüfen.