Es ist wieder passiert. Forscher haben herausgefunden, dass das Ad-Targeting-System von Google diskriminierend ist. Männlichen Webnutzern wurden eher hochbezahlte Anzeigen von Führungskräften gezeigt als weiblichen Besuchern.
Die Forscher haben einen Artikel veröffentlicht, der auf dem Symposium Privacy Enhancing Technologies in Philadelphia vorgestellt wurde.
Ich hatte vor fast zwei Jahren über die dunkle Seite von Big Data gebloggt. Latanya Sweeney, eine Harvard-Professorin, googelte ihren eigenen Namen, um eine Anzeige neben ihrem Namen zu finden, die darauf hindeutet, dass sie verhaftet wurde.
Sie grub tiefer und kam zu dem Schluss, dass sogenannte schwarz identifizierende Namen wesentlich wahrscheinlicher die Ziele für solche Anzeigen waren. Sie hat dies in ihrer Arbeit Diskriminierung bei der Online-Anzeigenschaltung dokumentiert. Google bestritt daraufhin ohnehin, dass AdWords diskriminierend ist, und Google bestritt derzeit, diskriminierend zu sein.
Ich möchte Google glauben. Ich glaube nicht, dass Google glaubt, dass sie diskriminierend sind. Und das ist die diskriminierende Schattenseite von Big Data. Ich habe nicht die Absicht, eine düstere Bild- und Schuldtechnologie zu malen, aber ich finde es beängstigend zu beobachten, dass sich die Technologie viel schneller ändert als die Fähigkeit der klügsten Köpfe, die Auswirkungen zu verstehen.
Eine Kombination aus massiv parallelem Rechnen und hochentwickelten Algorithmen, um diese Parallelität zu nutzen, sowie die Fähigkeit von Algorithmen, zu lernen und sich anzupassen, ohne dass manuelle Eingriffe relevanter werden, fast in Echtzeit, werden noch viel mehr solcher Probleme auftauchen lassen.
Als Kunde wissen Sie einfach nicht, ob die angebotenen Produkte oder Dienstleistungen zu einem bestimmten Preis auf diskriminierenden Praktiken beruhen.
Um dies weiter zu erschweren, wissen selbst Unternehmen in vielen Fällen nicht, ob Erkenntnisse, die sie aus einer Vielzahl interner und externer Daten gewinnen, diskriminierend sind oder nicht. Dies ist die dunkle Seite von Big Data.
Die Herausforderung bei Big Data besteht nicht in Big Data selbst, sondern darin, was Unternehmen mit Ihren Daten in Kombination mit anderen Daten tun können, ohne dass Sie genau wissen, wie Algorithmen funktionieren.
Um diskriminierende Praktiken zu verhindern, werden Beschäftigungspraktiken geprüft, um Chancengleichheit und Zulassung zu Hochschulen zu gewährleisten, um einen fairen Zulassungsprozess zu gewährleisten. Ich sehe jedoch nicht, wie diese Algorithmen und Datenpraktiken geprüft werden.
Disruptive Technologie stößt immer auf sozioökonomische Probleme, die vorher nicht existierten oder die nicht offensichtlich und unmittelbar bevorstanden. Manche Menschen sind verärgert, weil sie nicht genau verstehen, wie Technologie funktioniert.
Ich erinnere mich noch an Politiker, die versuchten, GMail dafür verantwortlich zu machen, dass sie E-Mails „gelesen“ hatten, um Werbung zu schalten. Ich glaube, dass Big Data eine weitere solche Störung ist, die ähnliche Probleme verursachen wird, und es ist enttäuschend, dass sich in den letzten zwei Jahren nicht viel geändert hat.
Es hat eine Weile gedauert, bis die Internetunternehmen herausgefunden haben, wie sie unsere persönlichen Daten schützen können, und sie sind noch nicht einmal dort, aber ihre Fähigkeit, die Art und Weise zu kontrollieren, wie diese Daten verwendet werden könnten, ist sehr fraglich. Vergessen wir nicht, dass Daten nicht diskriminieren.
Wir sollten diese Probleme nicht scheuen, sondern gemeinsam hart daran arbeiten, herauszustellen und zu vertiefen, was diese Probleme sein könnten, und sie anzugehen, anstatt die Technologie für das Böse verantwortlich zu machen.20
Mehr Infos zum Thema finden Sie hier: Big Data was ist der Nachteil