Forum: Netzwelt
Lücke im Recht: Vom Algorithmus diskriminiert
AP/ Montgomery County Sheriffs office

Je mehr Daten durchs Netz fließen, desto mehr Entscheidungen werden nicht mehr von Menschen, sondern von Algorithmen gefällt. Das zeigt eine Lücke im Recht: Algorithmen können diskriminieren - ungestraft.

Seite 4 von 4
spon-facebook-686104675 17.03.2016, 08:06
30. Verkürzte Darstellung

Der Autor verfolgt mit diesem Beitrag wohl eher das Ziel, eigene Aufträge als Rechtsanwalt zu generieren, als tatsächlich eine tiefgehende Debatte zu beginnen.
Wir als Betreiber einer algorithmisierten HR-Software (jacando.com) können sogar zeigen, dass Profile, die vielleicht auf den ersten Blick nur bedingt attraktiv oder spannend für den Arbeitgeber waren, erst durch den Algorithmus nach vorne kamen. Im Gegenzug sind Profile, die sehr "glatt" daherkamen im Nachteil. Daher kann ein richtig eingesetzter Algorithmus die Entscheidung fairer gestalten.

Beitrag melden Antworten / Zitieren
bluebill 17.03.2016, 09:51
31. Profit über alles

Es ist durchaus richtig, was der Autor behauptet. Einzelne Menschen werden anhand von abstrakten Kriterien, die sie nicht beeinflussen können, von bestimmten Leistungen ausgeschlossen. (Googelt mal infoscore). Kriegen keinen Kredit, weil sie im falschen Stadtviertel wohnen, werden nicht eingestellt, weil sie den falschen Vornamen haben. Wobei naiv- systemtreue Leute diese skurrilen Zusammenhänge dann sogar noch adaptieren und als "Erfahrung" weiter transportieren. - Eigentlich darf das laut Grundgesetz nicht passieren. Aber weil es zum Geschäftsmodell von mächtigen Wirtschaftszweigen gehört, wird es klaglos hingenommen. Schließlich wird der Profit großer Unternehmen und Konzerne höher bewertet als die individuellen Rechte von "Privatmenschen". Unsere Rechtsprechung unterliegt eben auch dem neoliberal-kapitalorientierten Weltbild. Das führt dann zu solch abstrusen Regelungen wie wir hier haben: Ich darf meine eigenen "Score"-Daten allenfalls gegen Gebühr mal ansehen, andere dürfen sie ungebremst bearbeiten und auswerten.

Beitrag melden Antworten / Zitieren
OskarVernon 17.03.2016, 10:05
32.

Zitat von bluebill
Eigentlich darf das laut Grundgesetz nicht passieren.
Es gibt nicht nur Großkonzerne - nun bin ich mal höchst gespannt, wie Sie aus dem Grundgesetz herleiten wollen, ich als etwas kleinerer Unternehmer müsste mit irgendeiner bestimmten Person Geschäfte machen, diese Person einstellen oder womöglich gar privat mit der Umgang pflegen.

Beitrag melden Antworten / Zitieren
bluebill 17.03.2016, 11:53
33. Scoring: Datenverbiegen als Geschäftsmodell

Große Unternehmen wie Infoscore oder Schufa leben gut davon, Verbraucherdaten zu sammeln, nach Belieben in Bezug miteinander zu setzen und auszuwerten. Bisher alles ihr eigenes Vergnügen. Gegen das Grundgesetz verstößt es aber, wenn die Ergebnisse dann als gültige Bewertung verkauft und verwendet werden. Denn das bringt Unternehmen und Personen wie den Vorschreiber "OscarVernon" dazu, ein völlig unzutreffendes Bild von Verbrauchern als Ultima Ratio und wahres Kriterium anzusehen und diese entsprechend zu behandeln. - Es ist einem Menschen sicher weniger wichtig, wenn ein Wildfremder falsch über ihn denkt und ihn meidet. Es wird ihn auch nicht beeinträchtigen, wenn von zwanzig Onlinehändlern einer ihm nichts verkaufen will. Aber wenn er weitgehend und systematisch von der Teilnahme am Geschäftsleben ausgeschlossen wird, von Banken und Versicherungen als fauler Kunde behandelt wird, ist das schon wichtig.

Beitrag melden Antworten / Zitieren
knopfimohr 17.03.2016, 11:59
34. Zentraler Bestandteil fehlt

Im Artikel wird zwar einiges angesprochen, aber ein zentraler Bestandteil fehlt, nämlich die Qualität und die Aussagekraft der Daten. Wie will aus einem System wie der Schufa etwas vernünftiges herauskommen, wenn bei jeder dritten Person fehlerhafte Einträge dabei sind? Letzteres sagen immer wieder Untersuchtungen. Weiter fragt sich, ob relevante Daten drin sind. Wieder Schufa - und das ist nur ein Beispiel - Ohne Zahlen über das Einkommen oder Depotgrößen die Kreditfähigkeit zu beurteilen, halte ich doch für ziemlich gewagt. Wohnt der schuldenfreien Multimillionär also im falschen Viertel, gibts keinen Kredit. Wie absurd!

Beitrag melden Antworten / Zitieren
OskarVernon 17.03.2016, 12:38
35.

Zitat von bluebill
Es ist einem Menschen sicher weniger wichtig, wenn ein Wildfremder falsch über ihn denkt und ihn meidet. Es wird ihn auch nicht beeinträchtigen, wenn von zwanzig Onlinehändlern einer ihm nichts verkaufen will. Aber wenn er weitgehend und systematisch von der Teilnahme am Geschäftsleben ausgeschlossen wird...
Wird er nicht: Geld gegen Ware oder Leistung geht immer.
Hier geht es ausschließlich darum, Waren oder Leistungen beziehen zu wollen, ohne die gleich bezahlen zu müssen. Überhaupt nix ungewöhnliches, einen Rechtsanspruch darauf seh ich allerdings nicht - und fände den auch nicht erstrebenswert.

Beitrag melden Antworten / Zitieren
felsen2000 18.03.2016, 10:07
36. Sachliche Beurteilung

Wenn ein Anwalt über eine neue Form von "Diskriminierung" schreibt, darf man Eigennutz unterstellen. Jede neue "Diskriminierung" eröffnet Anwälten Einnahmequellen. Außerdem zeigt der Artikel argumentative Schwächen und Mangel an Fachwissen. Da wird pauschal unterstellt, Entwickler wären verkappte Rassisten oder Frauenfeinde? Herr Lange-Hausstein hat offensichtlich noch nie einem Entwicklungsprojekt beigewohnt. Ein Entwickler entwickelt den Code, eine andere Entwicklerin macht das Codereview dazu, wieder ein anderer Kollege oder Kollegin den Systemtest. Dann die Abnahme durch den Propduktmanager, vielleicht noch ein Qualitätstest oder eine Kundenabnahme.

Die Behauptung, Entwickler würden die Motivation, Zeit und Freiheit haben, einfach mal so Diskriminierungen gegen Frauen, Sensioren oder Ausländer in eine Komponente einzubauen, entbehrt jeder Grundlage. Wer dazu einen Experten lesen möchte, kann nach folgenden Stichworten googeln: "danisch sexistische algorithmen". Diese Stichworte führen zum Blog des Informatikers Danisch. Ich weiß nicht, ob Links im SPON-Forum erlaubt sind, ich probier´s mal: www.danisch.de/blog/2016/01/19/sexistische-algorithmen/

Die vermeintliche "Diskriminierung" entpuppt sich schlicht als ungeliebte Realität. Das Beispiel von Herkunft oder Geschlecht bei Versicherungen sind schöne Beispiele dafür, dass es objektive, statistisch relevante Unterschiede gibt, die aus politischen (!) Gründen aber nicht ausgewertet/verwendet werden dürfen. Das kann man so machen, aber mit Beseitigung von Diskriminierung hat das nichts zu tun - im Gegenteil. Das Verbot solche Informationen zu verwenden und in einen Durchschnittspreis einzupreisen führt zu Bevorzugung bestimmter Gruppen.

Zentrale Idee solcher gesellschaftlicher Experimente ist die "absolut individuelle Behandlung" eines Menschen. Das Gegenstück dazu sei dann die "Institutionalisierte Diskriminierung" auf der Basis einer Gruppenzugehörigkeit. Aus zwei einfachen Gründen wird es eine absolut individuelle Behandlung aber niemals geben:

- Die Gedanken sind frei - man kann das auch übersetzen mit: Menschen lügen. Lügen ist so offensichtlich ein Bestandteil der menschlichen Natur (und in Deutschland bis auf Ausnahmen legale Handlungsweise), dass ich das gar nicht weiter begründe. Da aber Menschen lügen, ist man bei Verhandlungen, Bewertungen, Vergünstigungen und so weiter auf ANNAHMEN angewiesen, was ein Mensch möchte, braucht oder vorhat. ANNAHMEN beruhen aber auf der Auswertung von Daten - schwups schon ist man bei der Statistik.

- Verhandlungen, Bewertungen, Vergünstigungen und so weiter sind teuer. Man nennt das Transaktionskosten. Diese Kosten sind real und wie jeder weiß, kann man jede Mark nur einmal ausgeben. Die Bewertung von Menschen auf der Basis einer Gruppenzugehörigkeit ist bei weitem billiger; spart also Geld, dass man für wichtigere Dinge ausgeben kann.

Die Lösung kann also nur sein, auf eine übertriebene (!) Anwendung der Gruppenzugehörigkeit zu verzichten. Aber einen generellen Feldzug gegen Statistik und Informatik zu führen, ist einfach nur unsinnig und kontraporduktiv.

Beitrag melden Antworten / Zitieren
le.rummi 18.03.2016, 23:53
37. Konsequenz ...

der zunehmenden Automatisierung ist eine Pauschalisierung, das liegt völlig auf der Hand. Persönlichkeiten werden in Klassen unterteilt, der Ansichten und Verhaltensmerkmale sukzessive gruppiert. Diese Entwicklung ist erschreckend und doch schlägt sich dies meiner Meinung nach nicht in einer "algorithmischen" Diskriminierung wider. Das Warscheinlichkeitsmaß bedient sich bei der Beurteilung von Personen sowohl an positiven als auch negativen Merkmalen der Klassen, in die eine Persönlichkeit eingeordnet wird. Hier und dort für uns benachteiligend, an andere Stelle bevorteiligend.

Beitrag melden Antworten / Zitieren
le.rummi 18.03.2016, 23:55
38. Konsequenz ...

der zunehmenden Automatisierung ist eine Pauschalisierung, das liegt völlig auf der Hand. Persönlichkeiten werden in Klassen unterteilt, der Ansichten und Verhaltensmerkmale sukzessive gruppiert. Diese Entwicklung ist erschreckend und doch schlägt sich dies meiner Meinung nach nicht in einer "algorithmischen" Diskriminierung wider. Das Warscheinlichkeitsmaß bedient sich bei der Beurteilung von Personen sowohl an positiven als auch negativen Merkmalen der Klassen, in die eine Persönlichkeit eingeordnet wird. Hier und dort für uns benachteiligend, an andere Stelle bevorteiligend. Wir werden in der Lage sein, dies einzuordnen.

Beitrag melden Antworten / Zitieren
le.rummi 18.03.2016, 23:58
39. Konsequenz ...

der zunehmenden Automatisierung ist eine Pauschalisierung, das liegt völlig auf der Hand. Persönlichkeiten werden in Klassen unterteilt, der Ansichten und Verhaltensmerkmale sukzessive gruppiert. Diese Entwicklung ist erschreckend und doch schlägt sich dies meiner Meinung nach nicht in einer "algorithmischen" Diskriminierung wider. Das Warscheinlichkeitsmaß bedient sich bei der Beurteilung von Personen sowohl an positiven als auch negativen Merkmalen der Klassen, in die eine Persönlichkeit eingeordnet wird. Hier und dort für uns benachteiligend, an andere Stelle bevorteiligend.

Beitrag melden Antworten / Zitieren
Seite 4 von 4