Warum Sie sich vor Big Data hüten müssen: Ein Algorithmus kann völlig rassistisch sein

Warum Sie sich vor Big Data hüten müssen: Ein Algorithmus kann völlig rassistisch sein

So behauptet ein in Harvard ausgebildeter Mathematiker, Hedge-Fonds-Quant geworden zu sein.

Wesentliche Daten sind seit Jahrzehnten ein Schlagwort des Unternehmens, zusammen mit Unternehmern und Medien, die endlos an dem Versprechen und den Gefahren kauen, große Datenmengen anzuhäufen.

Nur wenige sind viel besser positioniert, um mit solchen Fragen zu ringen als Cathy O'Neil. Sie ist eine in Harvard ausgebildete Mathematikerin, die nach Abschluss ihrer Promotion zur Arbeit als Hedge-Fonds-Quant gereist ist. Kürzlich schrieb sie ein Buch über ihre eigenen Erfahrungen: Waffen der mathematischen Zerstörung: Wie Big Data die Ungleichheit erhöht und die Demokratie bedroht.

Darin wirft sie eine selten diskutierte Sorge über große Informationen auf - sie kann nicht nur unseren Vorurteilen unterliegen, sondern sie auch tatsächlich legitimieren und verstärken. Ein Algorithmus, so argumentiert sie, kann völlig rassistisch sein.

Big Data, große Missverständnisse

In einem faszinierenden Interview mit der Harvard Gazette erklärt O'Neil, wie ihre Erfahrung mit der Tätigkeit im Fonds während der Finanzkrise ihre Augen für die Tatsache geöffnet hat, dass Informationen, die sie zuvor als neutral und unpolitisch angesehen hatte, "sein könnten." bewaffnet. " Mathe, hörte sie, kann gezwungen werden zu lügen.

Das Problem geht jedoch tiefer als nur schlechte Religionsakteure, die wissentlich Berechnungen manipulieren, um die gewünschten Ergebnisse zu erzielen (z. B. höhere Ratings als für hypothekenbesicherte Wertpapiere gerechtfertigt). Das größere Problem ist, dass selbst Quants und ihre Unternehmen, die in gutem Glauben handeln, großen Schaden anrichten können. O'Neil beschreibt:

"Wesentliche Daten sind im Wesentlichen eine Möglichkeit, Gewinner und Verlierer zu trennen. Wesentliche Datenprofile von Personen. Sie enthalten alle Arten von Ratschlägen zum Verbraucherverhalten, alles, was in öffentlichen Aufzeichnungen, Abstimmungen und demografischen Daten leicht verfügbar ist. Sie profilieren Personen und formen Personen zu Gewinnern und Verlierer auf verschiedene Arten. Sind Sie derzeit wie ein Wähler überzeugend oder sind Sie als Wähler nicht überzeugend? Sind Sie wahrscheinlich Ihrer Zahltag-Vorauswerbung ausgesetzt oder sind Sie derzeit für diese Zahltagdarlehenswerbung undurchlässig? "

OK, gut, könnte man sagen, niemand mag es, als Verlierer bezeichnet zu werden, aber unterhalten Sie sich mit weniger entzündlicher Sprache über den gesamten Prozess, und Sie werden sehen, wie das Sortieren von Kunden dem Unternehmen viel verschwendeten Aufwand und Kunden viel nerviges, irrelevantes Marketing ersparen kann . Dabei fehlt jedoch die Tatsache, dass enorme Daten nicht nur dazu verwendet werden, um zu entscheiden, welche Gutscheine den Käufern angeboten werden sollen oder welcher Flyer an einen bestimmten Wähler gesendet werden soll.

Die Öffentlichkeit, behauptet O'Neil, "versteht nicht ganz, wie schädlich [Algorithmen] häufig sein können, weil wir normalerweise nicht dem schlimmsten aller Algorithmen ausgesetzt sind: jenen, die Menschen davon abhalten, Arbeit zu haben, da sie dies nicht tun." den Persönlichkeitstest bestehen, diejenigen, die kriminelle Angeklagte länger im Gefängnis verurteilen, wenn sie als hohe Rückfallgefahr eingestuft werden, oder sogar diejenigen, die willkürlich für Schullehrer bestraft werden. "

Dieser Sortiervorgang ist nicht immer eine Win-Win-Situation für Streusel und Sortierer. Es kann kontrovers sein, dem Unternehmen oder der Institution zugute kommen und der profilierten Person Schaden zufügen. Viele Männer und Frauen, schlägt O'Neil vor, beschönigen diese Realität.

Voreingenommenheit verschleiern

Und noch schlimmer ist, dass Quants und Unternehmen häufig Vorurteile gegenüber den Berechnungen haben, die wir verwenden, um Menschen in diesen kontroversen Situationen und Situationen mit großen Einsätzen zu formen. Die Faktoren, die verwendet werden, um die "Gewinner" und die "Champions" (oder ein beliebiges Formularlabel, das Sie verwenden möchten) zu trennen, können aus Merkmalen wie Geschlecht und Rasse bestehen, von denen die Menschen wissen, dass sie sehr anfällig für Voreingenommenheit sind - in Wirklichkeit sehr anfällig , deren Verwendung Ihnen gesetzlich untersagt ist, um viele der folgenreichsten Entscheidungen zu treffen.

Sie können nicht sagen, dass Sie einem Haushalt keinen Kredit gewährt haben, weil er schwarz war, ohne sich einer Klage zu stellen. Aber viele Algorithmen, selbst diejenigen, die auf von Experten geprüften Kreditmarktplätzen eingesetzt werden, ziehen Schlussfolgerungen, die teilweise auf der Rasse beruhen. Wir nehmen sie, wie sie in ein Furnier aus Mathematik gekleidet sind.

Mit ihrer Kritik, sagt O'Neil, möchte sie einen Dialog darüber beginnen, "was es für einen Algorithmus bedeutet, rassistisch zu sein".

Big Data birgt ein enormes Potenzial. Durchdacht eingesetzt, können Algorithmen tatsächlich individuelle Vorurteile aus der Schlussfolgerung entfernen. Aber Sie müssen sich der Schwierigkeit bewusst sein, dies zu korrigieren. Und viele Menschen, zum Beispiel viele Quants, sind es nicht.