Lars, but not Least: Digitale Diskriminierung

Wie Amazons KI zur Sexistin wurde

11. Oktober 2018, 13:18 Uhr | Lars Bube
Das größte Problem der künstlichen Intelligenz ist, dass sie zumeist vom Menschen lernen muss und damit nicht objektiv sein kann
© rodjulian - Fotolia

Weil sie Frauen systematisch schlechter bewertet als Männer, hat Amazon die Entwicklung einer KI-Software für das Recruiting eingestellt. Der Fall zeigt eindrücklich ein grundsätzliches Problem künstlicher Intelligenz auf.

Künstliche Intelligenz (KI) ist derzeit in aller Munde, es gibt kaum ein ITK-Produkt oder Projekt, das nicht mit irgendeiner vermeintlichen Verbesserung durch die angeblich schlauen Softwarehelfer wirbt. Angesichts des großen Hypes und der damit verbundenen nicht minder großen Hoffnungen wird allerdings allzu oft die Vorsicht links liegen gelassen. Denn oft ist die künstliche Intelligenz bei genauer Überprüfung alles andere als intelligent, sondern bloß eine mehr oder minder gutes statistisches Heuristik-Verfahren. Selbst ihre Entwickler können deshalb bei aktuellen KI-Systemen oft nicht nachvollziehen, wie genau die Analyse und Bewertung erfolgt und ob sie überhaupt auf validen und reliablen Faktoren beruht. Allzu schnell kann es daher passieren, dass sich – in ihrer Ursache meist zutiefst menschliche – Fehler einschleichen, die sich dann potenzieren und die KI zu gravierenden Fehleinschätzungen führen.

Ein perfektes Beispiel dafür hat gerade erst Amazon geliefert. Um sich bei der Vielzahl der Bewerber auf neue Stellenangebote einen besseren Überblick verschaffen und die aussichtsreichsten Bewerber für die eingehende Prüfung durch die Personalabteilungen herausfiltern zu können, hat das Unternehmen eine neue KI-Lösung entwickelt. Trotz des geballten Know-Hows auf Gebieten wie Big Data, KI und Softwareentwicklung ist den Verantwortlichen dabei jedoch ein grundlegender Fehler unterlaufen.

Nachdem erste Testläufe noch äußerst vielversprechend schienen, fiel dem Team erst nach einiger Zeit ein komisches Detail auf: Die Anwendung schlug den Personalern kaum jemals Frauen als geeignete Kandidaten vor.


  1. Wie Amazons KI zur Sexistin wurde
  2. Wie Maschinen zu Sexisten werden
  3. Vielfalt statt Einfalt

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Amazon Web Services

Matchmaker+