Forum: Netzwelt
Künstliche Intelligenz: Wie viel Rassismus steckt in Algorithmen?
#womenofcolortechchat

Mutale Nkonde ist Forscherin und kämpft gegen Rassismus im Zeitalter künstlicher Intelligenz. Ihre bisherige Bilanz für die Tech-Branche ist vernichtend.

Seite 2 von 7
Karla Winterstein 15.06.2019, 17:21
10. Sie implementieren jedes Vorurteil, welches in den Daten steckt

Zitat von patriae.
Algorithmen, künstliche Intelligenzen, Bots können nicht rassistisch sein. Ist unmöglich, entweder müsste man sie rassistisch programmieren oder man tut das nicht und dann sind sie es auch nicht. Programme sind die mit Abstand rationalsten und objektivsten Dinge, die es gibt - sie haben weder Vorlieben noch Gefühle. Alles was sie tun, beziehen sie aus Daten. Mehr nicht.
Bei den heute üblichen Verfahren (z.B künstliche neuronale Netze) werden Algorithmen im Rahmen von Vorgehensweisen (Prozessen) zusammen mit Daten benutzt, um Klassifizierungssysteme zu erstellen.

Semiformal gesehen wird eine Funktion mit Algorithmen, Prozessen und Daten als Parameter aufgerufen, die ihrerseits eine Funktion erstellt, die aufgrund von Daten als Parameter einen Klassifizierungswert ausgibt.

Diese letzte Funktion basiert also auf Algorithmen, die meist Standard sind und von jedem, der programmieren kann, implementiert werden können, aus Vorgehensweisen, die auch allgemein bekannt sind, sowie aus vorab ausgewählten Daten.

Diese Daten kann man getrost "Vergangenheitsdaten" nennen, denn sie repräsentieren Datenverteilungen, die zum Zeitpunkt des Trainings gegebenenfalls schon überholt sein können. Sie entstammen üblicherweise Messungen oder Erhebungen. Sie repräsentieren also einen Ausschnitt aus der Realität der Vergangenheit.

In den Beurteilungsalgorithmus fliessen also neben allgemein verwertbaren Teilen die Daten ein. Dieses System beurteilt also aufgrund von Fakten der Vergangenheit, basiert also bezüglich der aktuellen Daten, die es beurteilen soll, auf Vorurteilen.

Wenn man diese vorurteilsbasierte Bewertung verändern will, dann muss man die Verteilung der für das Lernen benutzten Daten gezielt verändern. Diese Veränderung der Originaldaten geschieht also willkürlich aufgrund menschlicher Entscheidungen, direkt oder mittels eines für die Manipulation ausgewählten Algorithmus.

Wenn derart vorgegangen wird, dann sind die resultierenden Lerndaten bezüglich der menschlichen Vorgaben vorurteilsbehaftet.

Ob also Originaldaten oder veränderte Daten bei der Schulung eingesetzt werden, ist bezüglich der Vorurteilsfreiheit irrelevant.

Da Lernen immer mit schon gemachten Erfahrungen zu tun hat, geht vorurteilsfreies Lernen prinzipiell nicht.

Beitrag melden
practicus 15.06.2019, 17:25
11. Aha

Ein Algorithmus ist neutral und präsentiert seine Ergebnisse ohne Rücksicht auf PC..
Was kann ein Algorithmus dafür, wenn z.B. in Hamburg 1% der Schwarzafrikaner ihren Lebensunterhalt mit Drogenhandel verdienen , aber 95% der Dealer schwarze Afrikaner sind? Die Durchsuchung eines Afrikaners, der sich an einem Hotspot aufhält, wird mit vielfacher Wahrscheinlichkeit Drogen zutage fördern als die Durchsuchung eines Asiaten oder Kaukasier. Ist das dann rationale Allokation von öffentlichen Mitteln oder "racial profiling"?

Beitrag melden
disklord 15.06.2019, 17:25
12. Objektiv

Zitat von Susi64
Algorithmen werten aus. Wie und auf welcher Datengrundlage entscheiden Menschen. Das moralische Problem der Algorithmen ist kein programmiertechnisches Problem sondern der Tatsache geschuldet, dass Menschen keine Verantwortung übernehmen wollen und/oder können. Ein Algorithmus entscheidet nicht objektiv sondern wie es vorgegeben ist und das gnadenlos. Welcher Bankangestellte gibt einen Kredit aus, wenn der "heilige Schufascore" das nicht zu lässt? Für Moral und Verantwortung ist der Mensch zuständig und eben nicht ein Algorithmus.
Ein Algorithmus unterscheidet ohne Berücksichtigung weiterer Eigenschaften seiner Eingabeparameter. Damit trifft er eine objektive Bewertung eben dieser Parameter. Wenn diese Parameter nun eine bloße Korrelation und keine Kausalität darstellen, dann wurde die falsche Datengrundlage gewählt. Dies ist kein Problem (oder Rassismus) des Algorithmus, sondern seines Einsatzes. Hierfür kann der Algorithmus nichts, daß haben alleine die Personen zu verantworten, die ihn zum Einsatz bringen. Hier hilft es ganz speziell nicht, wenn die Algorithmen so lange getauscht werden, bis ein dem Anwender genehmes Ergebnis herauskommt.

Beitrag melden
Sumerer 15.06.2019, 17:31
13.

"Mutale Nkonde ist Forscherin und kämpft gegen Rassismus im Zeitalter künstlicher Intelligenz. Ihre bisherige Bilanz für die Tech-Branche ist vernichtend."

Zunächst: Ich habe nach meiner Ausbildung Hunderte von Progrmmierern ausgebildet und mich mit den damaligen KI-Sprachen (LISP, Prolog) und Algorithmern (Zelluläre Automaten, Star Wars läßt grüßen) beschäftigt.

Natürlich hat Mutale Nkonde Recht. Algorithmen lassen sich durch den Programmierer prägen. Und das kann eine rassistische Prägung sein. Alles andere sonst hier ist schlicht UNSINN!

Übrigens ist noch kein vernetztes Prozessorsystem so leistungsfähig, wie etwa die 100 Billionen Zellen eines Menschen (jede davon kann als Prozessor betrachtet werden, die realisieren abstrahiert Informationsverarbeitung und ich habe Cluster-Betriebssysteme mit Multiprozessoren entwickelt).

Für SPON habe ich auch noch etwas: Leute Ihr habt eine Softwareorganisation (desolat realisierte Funktionsaufrufe), die bei mir ein kaltes Grauen hervorruft! In SWE hatte ich eine 1.

Beitrag melden
Herr Knigge 15.06.2019, 17:38
14. rassistisch ist die Auswahl der Daten

Algorithmen/ML/Statistik ist natürlich niemals rassistisch. Aber durch das Füttern von falschen Daten, wird das Ergebnis rassistisch. Und hier ist genau das Problem: was sind die richtigen Daten? Einkommen, Bildung, Elternhaus, Herkunftsland, Raucher, Autofahrer, ÖPN-Nutzer, Vegetarier...die Daten müssen für die Fragestellung relevant sein. Deswegen sollten diese Dinge auch von Leuten ausgewählt werden, die die gesellschaftlichen Zusammenhänge kennen. Und die sind nun einmal eher nicht an der Hautfarbe fest zu machen, sondern eher an komplexeren Dingen. Da hier aber meist die Datenlage fehlt...Geht man halt doch wieder auf das sehr grobe Kriterium Hautfarbe - auch wenn dies nur Symptom und nicht Quelle ist. Aber selbst wenn man die Quelle erkennen würde, wäre das Ergebnis immer eine sich selbst verstärkende Funktion. Ein Algorithmus gibt keine Chance, sondern urteilt nach Statistik.

Beitrag melden
disklord 15.06.2019, 17:45
15. Algorithmen

Zitat von syracusa
Das machen Menschen letztendlich auch. Vorurteile beruhen auf sozial tradierten, selektiven Erfahrungen. Die Algorithmen sind also genau so rassistisch, wie diejenigen, die die Algorithmen schreiben und die Datengrundlage erfassen. Beispielsweise wird im Interview erwähnt, dass Algorithmen als Datenbasis bisher in Straftaten verdächtige Personen anwenden. Verdächtig aber ist einem Polizisten (und der muss dazu noch nicht mal selbst weiß sein!) eher ein Schwarzer in bunten Klamotten als ein Weißer im Anzug. Ja, der Algorithmus mag diese Datenbasis dann ganz "unvoreingenommen" auswerten, aber das Ergebnis ist dennoch rassisches Profiling.
Die Algorithmen, die hier zum Einsatz kommen, sind nicht im geringsten rassistisch und von den Algorithmen auf die Intentionen des Entwickler zu schliessen ist hanebüchen. Vermutlich haben sie keine Ahnung wie universell diese Algorithmen sind und wofür sie sonst noch eingesetzt werden. Leider kann jede Technik auch missbraucht werden, weil sie eben nicht für sich entscheiden kann. Selbst die Datenbasis, die sie hier explizit herausgepickt haben, hätte man so normieren können, daß es kein rassistisches Profiling mehr gibt. Eventuell hätt man auch mehrstufig Arbeiten müssen und mit mehreren Datenbasen trainieren müssen (naiv gesagt mit mehreren Algorithmen). Dann hätte man die eigentliche Auswertung auf Basis dieser Klassifikatoren machen können. Vermutlich waren es den verantwortlichen aber gut genug oder sogar gewollt. Da ist dann ihr Rassismus.
(Mit diesen Algorithmen kann man auch Getränkeflaschen nach Sorte in Kästen sortieren, falls sie noch einen neutralen Anwendungsfall brauchen.)

Beitrag melden
syracusa 15.06.2019, 17:58
16.

Zitat von disklord
Die Algorithmen, die hier zum Einsatz kommen, sind nicht im geringsten rassistisch und von den Algorithmen auf die Intentionen des Entwickler zu schliessen ist hanebüchen. Vermutlich haben sie keine Ahnung wie universell diese Algorithmen sind und wofür sie sonst noch eingesetzt werden.
Jaja, da bin ich völlig ahnungslos, auch wenn ich vor 35 Jahren meine Doktorarbeit über KI verfasst habe. Ein guter Programmierer wird ein KI-Programm so verfassen, dass es nicht auf falsch erfasste Daten hereinfällt. Wenn das Programm so gestrickt ist, dass es unreflektiert eine bekanntlich rassistische Datenbasis nutzt, dann ist es genau so rassistisch, wie ein Mensch auch. Und lustigerweise sogar aus den gleichen Gründen.

Beitrag melden
Sumerer 15.06.2019, 18:00
17.

Zitat von Herr Knigge
Algorithmen/ML/Statistik ist natürlich niemals rassistisch. ...
Das ist dadurch schlicht unsinnig, weil Datenverarbeitung zu Informationsverarbeitung führt. Und Beides wird programmiert - mithin von Menschen geprägt.

Ihr Phänomen kenne ich von Siemens/Nixdorf her aber auch aus der Zusmmenarbeit mit BP-IT-Experten, denen ich völlige Ahnungslosigkeit bescheinigen kann.

(Wenn es darauf ankommt, dann kapiert ein Prozessor nur Maschinensprache. Und ich auch mit einer glatten 1, über drei Jahre hinweg.)

Beitrag melden
squire0815 15.06.2019, 18:17
18. Die Crux mit dem Ist und Soll bei Daten/ Informationen

Datenerhebung erfolgt immer bezogen auf einen Kontext. Ist der Kontext bekannt können Korrelationen oder Kausalitäten mit grosser Zuverlässigkeit bestimmt werden. Nur ist es aber so dass Gesellschaften nicht auf dem aufbauen sondern auf eine Utopie ein soll

Beitrag melden
squire0815 15.06.2019, 18:35
19.

Datenerhebung erfolgt immer bezogen auf einen Kontext. Ist der Kontext bekannt können Korrelationen oder Kausalitäten mit grosser Zuverlässigkeit bestimmt werden. Nur ist es aber so dass Gesellschaften nicht auf dem aufbauen sondern auf einer Utopie. Ein Wie soll eine Gesellschaft sein. Sklaverei, Gleichheit und Sozialdtaatlichkeit wären und würden nie mit Big Data oder Data Mining abgeschafft. Es wäre eher zu befürchten, das einige findige Apologeten eine fast religiöse Informationsdiktatur etablieren würden. Denn nichts ist so neutral und rein wie sie Daten...die jemand erhoben hat....

Beitrag melden
Seite 2 von 7
Diskussion geschlossen - lesen Sie die Beiträge!