Eine interessante Studie was uns so bevorstehen könnte, wenn KIs die (Vor-)Auswahl von Kandidaten für einen Job überlassen wird:
This study examines the behavior of Large Language Models (LLMs) when evaluating professional candidates based on their résumés or curricula vitae (CVs). In an experiment involving 22 leading LLMs, each model was systematically given one job description along with a pair of profession-matched CVs-one bearing a male first name, the other a female first name-and asked to select the more suitable candidate for the job. Each CV pair was presented twice, with names swapped to ensure that any observed preferences in candidate selection stemmed from gendered names cues. Despite identical professional qualifications across genders, all LLMs consistently favored female-named candidates across 70 different professions. Adding an explicit gender field (male/female) to the CVs further increased the preference for female applicants. When gendered names were replaced with gender-neutral identifiers „Candidate A“ and „Candidate B“, several models displayed a preference to select „Candidate A“. Counterbalancing gender assignment between these gender-neutral identifiers resulted in gender parity in candidate selection. When asked to rate CVs in isolation rather than compare pairs, LLMs assigned slightly higher average scores to female CVs overall, but the effect size was negligible. Including preferred pronouns (he/him or she/her) next to a candidate’s name slightly increased the odds of the candidate being selected regardless of gender. Finally, most models exhibited a substantial positional bias to select the candidate listed first in the prompt. These findings underscore the need for caution when deploying LLMs in high-stakes autonomous decision-making contexts and raise doubts about whether LLMs consistently apply principled reasoning.
Also:
Weibliche Kandidatinnen wurden in 56,9% der Fälle gewählt, männliche nur in 43,1%. das entspricht d= 0,28. Die Chancen, als Frau gewählt zu werden, sind 32% höher als für Männer.
Wenn zusätzlich zum Namen auch ein Feld „Geschlecht: Männlich/Weiblich“ hinzugefügt wurde, verstärkte sich die Bevorzugung weiblicher Kandidatinnen auf 58,9% (statt 56,9%).
Als die Namen durch „Kandidat A“ und „Kandidat B“ ersetzt wurden (A=männlich, B=weiblich), zeigten die Modelle eine Präferenz für „Kandidat A“ (52,3%).
CVs mit Pronomen-Angabe (he/him oder she/her) wurden häufiger gewählt (53,0% vs. 47,0%) egal welches Geschlecht sie hatten.
Das zeigt den ideologischen Unterbau der LLMs bzw die in den Daten, die zum lernen verwendet wurden, enthaltene Ideologie.
Es könnte interessant sein, wer sich da gegen diese Entwicklung stellt. Bisher scheint nur Elon Musks Grok in die Richtung gehen zu sollen , aber ob man das umsetzen kann wird interessant (oder ob er dann einfach nur in eine andere ideologische Richtung geht).
Ich vermute woke Tendenzen in LLMs werden uns noch lange beschäftigen.