Montag, Oktober 31, 2016
Das klingt ziemlich albern, ist
es aber nicht. Spätestens dann wird das klar, wenn wir uns mit
Computerprogrammen, mit Algorithmen, nach denen sie arbeiten, und mit Big-Data
beschäftigen. (Big-Data klingt für mich wie Fette Sau. Ich kann nicht genau
sagen, warum. Aber irgendwie scheint es zu passen.)
Am besten fallen wir mit der Tür
ins Haus. Dann kommen wir am schnellsten zur Sache.
Erstens: Menschen möchten gern
objektiv sein, was sie irgendwie mit gerecht verbinden, urteilen aber
subjektiv. Wissen und Glauben vermischen sich hier kaum trennbar. Eine
menschliche Schwäche. Das erklärt die ständige Suche nach Objektivität und den
dafür notwendigen Werkzeugen.
Zweitens: Wir sind überzeugt,
dass wir mit dem Computer, seinen Programmen und den ihnen zugrundeliegenden
Algorithmen genau über dieses Werkzeug verfügen. Dabei vergessen wir, dass
Algorithmen nicht aus dem Nichts kommen, sondern von Menschen erdacht werden,
subjektive Ansichten der Programmie-rer inbegriffen. Das heißt: Von
Objektivität kann auch hier nur bedingt die Rede sein.
Wie die Auswahl von Mitarbeitern
durch Computerprogramme zeigt, kann das fatale Folgen haben – kann? Hat!
In Konzernen, großen Unternehmen
werden Bewerber oft durch umfangreiche computerisierte Testprogramme gejagt,
die der Bewerber kaum durchschauen kann. Die Aufgabe dieser Programme ist
weniger das Herausfinden der besten Bewerber, sondern das Aussortieren
möglichst vieler, die nicht in das Schema passen. Im Klartext: Es geht darum,
die Personalabteilungen zu entlasten, ihre Arbeit so kostengünstig wie möglich
zu machen. Ob das eine erfolgver-sprechende Personalpolitik ist, darf infrage
gestellt werden.
So schreibt Cathy O’Neil in „der
Freitag“ vom 13. Oktober 2016: „Diese Personaler-Algorithmen haben das
Potenzial, eine neue Unterschicht zu schaffen – eine Klasse von Menschen, die
sich auf unerklärliche Weise vom normalen Leben ausgeschlossen fühlen.“
Jetzt (nach der Finanzkrise „geht
es nicht mehr bloß um Finanzprodukte, sondern um Menschen. Mathematiker und
Statistiker durchleuchten anhand gewaltiger Datenmengen (die sie oft aus
sozialen Medien und Online-Kaufhäusern zusammenklauben) unsere Sehnsüchte,
unsere Bewegungen und unser Kaufverhalten.“ Sie machen uns berechenbar.
Big-Data. „Ein Computerprogramm
kann sekundenschnell Tausende von Lebensläufen oder Kreditanträgen vergleichen und die ‚vielversprechendsten‘
Kandidaten nach oben sortieren. Das spart nicht nur Zeit, sonder gilt auch als
fair und objektiv. Schließlich sind keine vorurteilsbehafteten Menschen im
Spiel, nur Maschinen, die Zahlen auswerten.“
„Die vermeintlich objektiven
Formeln hinter der Big-Data-Wirtschaft basieren ihrerseits auf Entscheidungen
fehlbarer Menschen. Sie binden Vorurteile, Vorlieben und Missverständnisse in
automatische Systeme ein, die zunehmend unser Leben bestimmen. Diese
Algorithmen sind so undurchschaubar wie Götter…“
„Firmen mit Niedriglohn-Jobs
behandeln ihre Bewerber wie eine Viehherde“, so Cathy O’Neil. Mit dieser
Ansicht ist sie nicht allein.
Kein Ausweg aus diesem
menschenverachtenden Unfug? Gegenbeispiel, von Cathy O’Neil ins Feld geführt:
„Der beste Weg, Vorurteile zu
umgehen, sind komplett anonymisierte Bewerbungsverfahren. Orchester zum
Beispiel waren lange Zeit eine Männerdomäne. Schon seit den 1970ern aber
spielen Bewerberinnen und Bewerber hinter einem Wandschirm vor. Beziehungen,
Geschlecht, Hautfarbe haben so keinen Einfluss mehr. Die Musik, die erklingt,
spricht für sich. Der Prozentsatz der Frauen in großen Orchestern hat sich seither
verfünffacht.“
Das ist Objektivität.
0 Comments:
Kommentar veröffentlichen
<< Home