KI-Tool zur Beurteilung von Bewerbern eingestellt. Weil es Frauen benachteiligte.

Mitglied seit
2 Sep 2009
Beiträge
2.990
Punkte
215
Amazon verwirft KI-Tool für Bewerber. Weil es Frauen benachteiligte.

Weil es Frauen benachteiligte, hat Amazon die Arbeit an seinem Machine-Learning-gestützten Tool zur Beurteilung von Bewerbern eingestellt.

Amazon verwirft sein von Machine Learning gestütztes Bewerbungstool, welches das Unternehmen zur Bewertung von Bewerbern nutzen wollte. Der Grund: Der Algorithmus hatte Tendenzen und bewertete Männer grundsätzlich mit einer höheren Punktzahl als Frauen. Das berichtet die Nachrichtenagentur Reuters.

Das System sollte Bewerber auf einer Skala von eins bis fünf Sternen einsortieren. Bereits 2014 hatte sich Reuters mit Entwicklern des Tools unterhalten, die anonym bleiben wollten. "Sie wollten, dass das Programm sprichwörtlich eine Maschine ist, bei der ich dir 100 Bewerbungen gebe, sie die fünf Besten ausspuckt und wir diese dann einstellen", sagte einer der involvierten Entwickler.

Das Problem: Amazon nutzte hauptsächlich Bewerbungen als Vorlage, um das Machine-Learning-Modell zu trainieren. Daraus zog das System entsprechende Schlüsse. Das Wort Frauen wurde nach Aussagen von Reuters vom Programm als schlecht bewertet und floss negativ in die Endwertung ein, wie die Entwickler schon 2015 feststellten. Daraufhin änderten die Entwickler das Verhalten so, dass zumindest das Wort Frau als neutral angesehen wurde. Letztlich war das aber wohl keine ausreichende Lösung.



https://www.golem.de/news/machine-learning-amazon-verwirft-sexistisches-ki-tool-fuer-bewerber-1810-137060.html

Ich bin mal wieder von der Maschinellen Logik begeistert :top
 
Mitglied seit
23 Mai 2007
Beiträge
4.499
Punkte
215
Was für eine Überraschung! Menschen mit Vorurteilen bauen maschine mit Vorurteilen.
 
Mitglied seit
3 Aug 2015
Beiträge
8
Punkte
0
Ob das Tool auch eingestellt worden wäre, wenn es die männlichen Bewerber benachteiligt hätte?
 

stefros

Administrator

Mitarbeiter
Mitglied seit
28 Jul 2001
Beiträge
62.661
Punkte
490
Der Algorithmus wurde auf Daten der Vergangenheit trainiert. Wenn er weibliche Bewerber benachteiligt, bedeutet das einfach nur dass Amazon in der Vergangenheit weibliche Bewerber benachteiligt hat.

Insofern finde ich es witzig dass sie sich damit brüsten so ein sexistisches Tool doch sofort deaktiviert zu haben. :)
 
Oben Unten