Forum: Netzwelt
Cebit 2018: Wie tickt eine künstliche Intelligenz?
DPA

Medizin, Recht, Finanzen: In vielen Bereichen treffen zunehmend künstliche Intelligenzen wichtige Entscheidungen. Damit Menschen diese nachvollziehen können, sollen KI-Systeme künftig ihre Beweggründe offenlegen.

Seite 1 von 2
alternativlos 15.06.2018, 19:34
1. KI ist totalitär

Die Hinwendung zum Menschen schließt die Menschwerdung, das Menschsein und das Menschnichtsein ein, der einem permanenten Prozess des sozialen Zusammenlebens folgt.

Diese zwischenmenschlichen Interaktionen durch automatische Algorithmen erfahren zu lassen, verändert nicht nur die Wahrnehmung unserer Gedanken. Wir begreifen auch nicht mehr das Lebensgefühl von menschlicher Wärme, die jedem Denken vorausgeht.

Erst wenn wir verstehen, dass unser Geist kein effizientes Instrument einer selbstüberholenden KI sein darf, spüren wir welchen Wert an sich das wiedererlangen einer einfachen Seele hat.

Seelen heilen Menschen, KI zerstört diese.

Beitrag melden Antworten / Zitieren
gersois 15.06.2018, 19:59
2. Naiv!

"Wer stellt denn schon infrage, ob die angezeigte Route wirklich die beste ist?" Jeder, der schon wieder über Feldwege statt breite Straßen geführt wurde! Ist auf dem Lande nicht so selten. Es sollte eigentlich selbstverständlich sein, die Entscheidungen von Algorithmen überprüfen zu können. Software ist nicht fehlerfrei! Und die Nachvollziehbarkeit einer Entscheidung ist einerseits notwendig, um die Korrektheit der Software zu sehen, andererseits um dem Betroffenen die Gründe darlegen zu können. Computerdiagnosen ohne offen gelegten Befund sind doch hoffentlich nur ein Witz.

Beitrag melden Antworten / Zitieren
squire0815 15.06.2018, 20:14
3. Computer say no/ yes oder Willkommen in der Datendiktatur

Eines der größten Problemen bei dem Einsatz von KIs ist die Entscheidungsdiffusion, d.h. ein Entscheider wird sich im Zweifel immer auf den " Computer" berufen. Ähnliches haben wir ja schon bei der Bankenkrise erlebt. Das System hat so entschieden , dass muss so richtig sein. Im Grunde genommenen müsste die wissenschaftliche Methode der Falsivizierung hier angewendet werden. Der Computer hat nur ein Modell der ( eine Beschränkte Sicht ) auf die Welt, die es bewertet. Also wird immer irgendwo falsch sein. Das müsste dann mit einer Ethischen Basiseinstellung kompensiert werden. Asimov mit seinen Robotergesetzen wäre da schon ein Anfang. Aber das ist ja so 1950 und zudem nicht neoliberal wo die heilenden Kräfte der Marktes alles ins Chaos stürzen....

Beitrag melden Antworten / Zitieren
da_pheles 15.06.2018, 21:13
4. positiv

KI's sind der Weg zu mehr Objektivität, Gleichbehandlung und schnellen nichtemotionalen Entscheidungen. Man darf durchaus skeptisch sein, denn KI's lassen sich durch Selektion der Trainingsdaten in ihrer Entscheidungstendenz beeinflussen, doch in gleicherweise mit Testdaten überprüfen. In der komplexen Welt wie heute wird es bald nicht mehr ohne technische Unterstützung weiter gehen. Wäre es nicht besser, wenn juristische Streitigkeiten in Minuten statt in Jahren von Tisch wären? Der Straßenverkehr auf Null Todesopfer zu reduzieren? Es gibt mehr Vorteile als Nachteile, und die Gesellschaft kann mit KIs nur besser werden. Wer Angst vor KIs hat, hat zu oft Terminator geschaut!

Beitrag melden Antworten / Zitieren
larsmach 15.06.2018, 21:46
5. Navigationssysteme verwenden keine Mustererkennung!

Zitat von gersois
"Wer stellt denn schon infrage, ob die angezeigte Route wirklich die beste ist?" Jeder, der schon wieder über Feldwege statt breite Straßen geführt wurde! Ist auf dem Lande nicht so selten. Es sollte eigentlich selbstverständlich sein, die Entscheidungen von Algorithmen überprüfen zu können. Software ist nicht fehlerfrei! Und die Nachvollziehbarkeit einer Entscheidung ist einerseits notwendig, um die Korrektheit der Software zu sehen, andererseits um dem Betroffenen die Gründe darlegen zu können. Computerdiagnosen ohne offen gelegten Befund sind doch hoffentlich nur ein Witz.
Navigationssysteme verwenden klare, spezifisch programmierte Algorithmen - keine Mustererkennung wie Gehirne es schnell (und KI Systeme es - noch - langsam vollbringen). Das ist logisch: Das eine muss präzise (!) aus klar vorhandenen Wege-Entfernungsdaten eine Route berechnen, das andere aus unscharfen, unvollständigen Eingaben eine "nur" optimale Lösung herausfiltern!
Zwei völlig verschiedene Herangehensweise, und dieser Paradigmenwechsel in der Informatik und seine Folgen scheinen durch das Publikum völlig unterschätzt in seinen Auswirkungen.

Beitrag melden Antworten / Zitieren
larsmach 15.06.2018, 21:50
6. Computer says "maybe"!

Zitat von squire0815
Eines der größten Problemen bei dem Einsatz von KIs ist die Entscheidungsdiffusion, d.h. ein Entscheider wird sich im Zweifel immer auf den " Computer" berufen. Ähnliches haben wir ja schon bei der Bankenkrise erlebt. Das System hat so entschieden , dass muss so richtig sein. Im Grunde genommenen müsste die wissenschaftliche Methode der Falsivizierung hier angewendet werden. Der Computer hat nur ein Modell der ( eine Beschränkte Sicht ) auf die Welt, die es bewertet. Also wird immer irgendwo falsch sein. Das müsste dann mit einer Ethischen Basiseinstellung kompensiert werden. Asimov mit seinen Robotergesetzen wäre da schon ein Anfang. Aber das ist ja so 1950 und zudem nicht neoliberal wo die heilenden Kräfte der Marktes alles ins Chaos stürzen....
Ja oder nein setzt klare Eingabedaten und messerscharfe Berechnungswege voraus (Algorithmus), Intelligenz (auch künstliche) basiert hingegen auf Mustererkennung - d.h. generell auf Näherungsverfahren! Dabei kommen dank unscharfer Eingabedaten fast immer Näherungswerte heraus, wie bei Menschen auch: "Ist das auf dem Foto hier ein Vogel?" Antwort: "Ja!". "Ist das hier auch ein Vogel?" (ein Kiwi!) - Antwort: "Ähm... eher ja."
Bei der Auswertung solcher "nur" optimaler Ergebnisse wird man wissen, dass es sich nicht um binäre (ja/nein) "Wahrheiten" handeln kann!

Beitrag melden Antworten / Zitieren
merapi22 15.06.2018, 22:18
7. KI = die Hoffnung für die Menschheit

Zitat von da_pheles
KI's sind der Weg zu mehr Objektivität, Gleichbehandlung und schnellen nichtemotionalen Entscheidungen. Man darf durchaus skeptisch sein, denn KI's lassen sich durch Selektion der Trainingsdaten in ihrer Entscheidungstendenz beeinflussen, doch in gleicherweise mit Testdaten überprüfen. In der komplexen Welt wie heute wird es bald nicht mehr ohne technische Unterstützung weiter gehen. Wäre es nicht besser, wenn juristische Streitigkeiten in Minuten statt in Jahren von Tisch wären? Der Straßenverkehr auf Null Todesopfer zu reduzieren? Es gibt mehr Vorteile als Nachteile, und die Gesellschaft kann mit KIs nur besser werden. Wer Angst vor KIs hat, hat zu oft Terminator geschaut!
Wie die KI sich selbst AlphaGo beigebracht hat, wird es die komplizierten Zusammenhänge unserer Welt erlernen und Lösungen erarbeiten auf die keine Mensch kommt. Nur die KI wird in der Lage sein, Lösungen für alle Weltprobleme zu finden. Die Hoffnung ist, dass dank der KI diese Kugel zu einen lebenswerteren Ort für alle Bewohner werden wird.
Dank KI werden wir alle Krankheiten heilen, auch die Erberkrankung Alterung. Von einer humanen Welt werden wir zu einer neuen transhumanen gelangen. Die Erkenntnis, dass alles in Symbiose miteinander verbunden ist wird die KI dazu bringen, für jeder Lebensform die bestmöglichen Bedingungen zu schaffen.

Beitrag melden Antworten / Zitieren
Rabies 16.06.2018, 23:29
8. Es macht keinen Sinn

Eine KI ist schlauer und kann mehr Daten auswerten den Lösungsweg Ihrer Lösung verstehen zu wollen ist sinnfrei. Wenn Sie Erfolg hat ist das Ziel ja erreicht man hat etwas entwickelt dass den menschlichen Horizont übersteigt

Beitrag melden Antworten / Zitieren
squire0815 16.06.2018, 08:19
9. @larsmach

Es geht darum, was mit dem Entscheidungsvorschlag einer ADM oder KI gemacht wird. % Wahrscheinich für ja oder nein. Eine ADM oder KI kann bei einer Fehlentscheidung nicht zu Verantwortung gezogen werden. Die Firma, die sie anwendet oder programmiert hat wird sich nicht zur Verantwortung stellen. Es wird dadurch eine Art "Gottesrecht" / "Naturrecht" aus einen Haufen von Daten abgeleitet, das keiner ethischen und moralischen Basis zu Grunde liegt. Damit wird der Entscheider bei seinen Handlung vom Gestalter zum passiven Mittäter und Trittbrettfahrer. Wollen Sie in solch eine Welt leben? Der Vor- und Nachteil den der Entscheider durch sein Tuns bekommt dann gleich einem Lotteriegewinn auch wenn er die Würfel dafür selber gezielt hat.
Beispiele dafür die UBER Fahrerin im März und die Fondsmanager und Finanzpolitiker bei der Finanzkrise. Beide Gruppen haben gegen ihre Aufsichtspflicht verstoßen und damit Leid verursacht, ohne dafür zur Verantwortung gezogen zu werden. Die eine möglicher Weise aus Naivität die anderen aus persönlicher Profitgier.
Der Computer hat ja gesagt weiter so oder nichts bemerkt. Also der Einstieg in eine technoktratische Theokratie...

Beitrag melden Antworten / Zitieren
Seite 1 von 2