Forum: Netzwelt
"Jeopardy"-Duell: Watson lässt Quiz-Könige alt aussehen

Der Menschheit droht eine schwere Schlappe: In der zweiten "Jeopardy"-Quizrunde ließ Superrechner Watson seine Kontrahenten aus Fleisch und Blut weit hinter sich. Seine Gegner haben jetzt eine allerletzte Chance, um*den gigantischen Vorsprung der IBM-Maschine aufzuholen.

Seite 4 von 4
forumgehts? 16.02.2011, 15:33
30. Software

Zitat von fred2007
Was ist mehr wert? a)Eine Uhr die steht. b)Eine Uhr, die eine Sekunde vor oder nach geht Mensch: Antwort b Computer: Antwort a. Denn sie zeigt zweimal am Tag die korrekte Zeit an.
Frage: hast du den Kuchen gebacken?
Antwort Computer: Ja/Nein
Antwort Frau: Warum? Schmeckt er dir nicht? Das war nur ein primitives Beispiel. Aber den Programmieraufwand möchte ich sehen, bis ein Computer wie eine Frau reagiert. Siehe hierzu auch Loriot. NB: ich liebe weibliche Reaktionen.

Beitrag melden Antworten / Zitieren
derwiese 16.02.2011, 16:13
31. ...

Zitat von Websingularität
Es droht keine Schlappe für die Menschheit, aber für Google, wenn Watson erstmal online geht. Wir alle wollen an Watsons unermeßlicher Weisheit teilhaben. Hoffentlich kennt er auch das deutsche Steuerrecht.
Für das deutsche Steuerrecht müsste man wohl mehrere Watson in Reihe schalten, das wird also vorerst nix, denke ich.

Beitrag melden Antworten / Zitieren
mavoe 16.02.2011, 17:51
32. Reihenschaltung...

Zitat von derwiese
Für das deutsche Steuerrecht müsste man wohl mehrere Watson in Reihe schalten, das wird also vorerst nix, denke ich.
...bringt nichts. Die Watsons müssten schon sequentiell verschaltet werden.

Beitrag melden Antworten / Zitieren
duschinabuschi 16.02.2011, 17:56
33. heute mal kein Titel

Zitat von A. Schulz
wer in anbetracht der Fakten zum "Supercomputer" ein solches Urteil (Menschheit erleidet Schlappe) fällt, der glaubt sicher auch, dass es ein Zeichen höchster Intelligenz ist, alle Faktenwissenfragen bei Jauch korrekt beantworten zu können. Aber ist es nicht so, dass die Besonderheiten von uns Menschen Schöpfertum, Intuition und Gefühle sind?
Die "Schlappe" würde ich eher auf dem Jobmarkt sehen, wo dank Watson viele ihren Job verlieren werden. Callcenter? Von Gestern. Selbst in hochgeschätzen Expertenberufen wie der Medizin wird man Stellen reduzieren können.

Watson ist so wie der Computer in Star Trek. Frag ihn irgendwas. Keine Suchmaschine sondern eine Antwortmaschine. Das als App auf einem iPhone -Voila, ein Trikorder. Einfach dranhalten... piep piep piep "Dieser Mann ist tot."

Jeopardy ist natürlich insofern eine starke Einschränkung, weil die Aufgaben und Antworten (Fragen) nach genauen Regeln ablaufen. Interessant wäre ja ein Watson, der Fragen beantwortet, die Menschen nicht beantworten können. "Was ist die Rettung der Welt?" Da kommt es dann darauf an, in was für Datenbasen er nachsieht. Irgendwo habe ich gelesen, dass er ebenfalls die Bibel abgespeichert hat. Vielleicht antwortet er dann "Jesus Christus."

Überhaupt ist in der ganzen Diskussion um Bewußtsein und Intelligenz die Zielsetzung immens wichtig. Maschinen wird immer ein Ziel vorgegeben. Um eine Maschine zu bauen, die ist wie ein Mensch, also eine, vor der man sich wirklich fürchten muss, müsste man wissen, was die Zielsetzung des Menschen ist - der Sinn des Lebens.

Beitrag melden Antworten / Zitieren
fpa 16.02.2011, 18:13
34. Gefühle

Zitat von A. Schulz
Wo bitte kann eine Rechenmaschiene kreativ sein oder nach Gefühlen handeln?
Muss sie das denn? Das hängt doch davon ab, welche Leistungsmerkmale/Features Sie für diese Maschine ins Pflichtenheft schreiben.

Sind dabei "Selbsterhaltung", "Autonomie", "Fortpflanzung", oder eine umfassende "Fehlertoleranz" unter Realzeitbedingungen, egal welche unbekannten äußeren Stimuli (vor allem auch physische) auch auf sie einprasseln, dann bräuchten Sie natürlich adäquate Pendents. Verzichten Sie hingegen darauf und beschränken sich im Pflichtenheft auf Features, die nur Funktionen reinen Wissens und logischen Denkens erfordern, dann bräuchten jene Maschinen das eigentlich nicht, und könnten uns dennoch im Bereich ihrer Leistungsmerkmale, inkl. Kreativität und Intuition, haushoch überlegen sein. Solange die Möglichkeiten endlich sind, kann im Prinzip Kreativität und Intuition durch Geschwindigkeit und Speicherplatzmasse ausgeglichen werden.

Erst die permanente Rückkopplung macht es wirklich schwer, einen maschinellen Ersatzmenschen zu bauen. Nehmen wir das simpleste von allen, Sensorik und Bewegung. In der Umgebung Produktionsstraße geht das einfach, und besser als mit unseren Sinnen. Aber schicken Sie Watson doch mal die Restonika hoch zum Lac de Melo und Lac de Capitello. Eine Aufgabe, aufrechte Bewegung über ein komplett ungleichmäßiges Gelände mit Geröll, das ist mit diesen Wissensstrategien und mit straigt-forward-Strategien nicht mehr zu lösen.

Analog zu Motorik/Sensorik eben auch bei Gefühlen, Immunsystem, etc. Das entzieht sich natürlich auch nicht grundsätzlich eines Entwurfes. Nur sind eben die Modelle dafür ungleich komplexer. Aber wenn man obige Eigenschaften gar nicht braucht, oder nicht einmal will? Oder nicht so etwas wie einen maschinellen "lebenden Organismus" will, dann kann man denke ich auf Gefühle für diese Maschine sehr wohl verzichten.

Beitrag melden Antworten / Zitieren
LouisWu 16.02.2011, 20:04
35. ...

Zitat von fpa
...Analog zu Motorik/Sensorik eben auch bei Gefühlen, Immunsystem, etc. Das entzieht sich natürlich auch nicht grundsätzlich eines Entwurfes. Nur sind eben die Modelle dafür ungleich komplexer. Aber wenn man obige Eigenschaften gar nicht braucht, oder nicht einmal will? Oder nicht so etwas wie einen maschinellen "lebenden Organismus" will, dann kann man denke ich auf Gefühle für diese Maschine sehr wohl verzichten.
Es ist ja m.W. noch nicht einmal vollständig geklärt, was Gefühle eigentlich sind, oder genauer: Welche Motivationsbasis sie haben.

Beispiel "Mitgefühl". Warum gibt es das? Ist es die reine Vorstellungskraft, dass man selbst in der Lage des so Bemitleideten sein könnte, also am Ende: Angst?
Hätten wir Menschen, wenn wir absolut unsterblich/unzerstörbar/unangreifbar wären, noch Mitgefühl mit anderen Wesen?

Ich denke mal, wenn es irgendwann eine "echte" KI geben sollte, dann wird sie ihre eigenen "Gefühle", "Ängste", "Triebe" haben, die evtl. sehr weit von unserem Vorstellungsvermögen entfernt sind....

Beitrag melden Antworten / Zitieren
fpa 17.02.2011, 01:23
36. Leistungsmerkmal "überleben" - "Mitgefühl" und "Angst" sind nur Mittel zum Zweck.

Zitat von LouisWu
Beispiel "Mitgefühl". Warum gibt es das? Ist es die reine Vorstellungskraft, dass man selbst in der Lage des so Bemitleideten sein könnte, also am Ende: Angst?
Sind das nicht klassische Überlebensfunktionen/Überlebensprogramme? Mitgefühl für die Gruppe/Spezies, und Angst für das Individuum?

Und wenn die Maschine nicht grundsätzlich überleben soll, weder als einzelne Maschine noch als Klasse von Maschinen, sondern Am-Leben-bleiben letzlich egal ist, weil sie einen Reset-Knopf hat, dann brauche ich diese Art von Überlebensfunktionen für die Maschine ja gar nicht. Dann ist try & error doch viel effektiver zum Lernen, als jene instant-Muster-Erkennungs-Prozesse, deren oberste Priorität eben überleben ist, und zwar unter allen Umständen, auch unter solchen, bis zu ihrem sich-Ereignens völlig undenkbar waren.

Und wenn die Maschine keine Echtzeitprobleme lösen muss, sondern für alles beliebig viel Zeit hat, dann brauche ich auch keine Streßverarbeitung. Geht es aber um Echtzeit, dann nimmt das Streßverarbeitungs-, d.h. das Lastverarbeitungs-Modell (Priorisierung, Verteilung, Rückstellung, Abwurf) sogar eine zentrale Rolle ein. Denn selbst, wenn die Maschine nicht überleben muss. Dass sie bei jedem unvorhergesehenen Kinkerlitzchen immer gleich abschmiert und resettet werden muss, das will man ja nun auch nicht.

Was ich an "Gefühlskonzepten" brauche und was nicht, und ob überhaupt, das ist abhängig vom Anforderungsprofil der Maschine.

Beitrag melden Antworten / Zitieren
Rainer Helmbrecht 17.02.2011, 07:39
37. Keine Macht den Titeln!

Zitat von LouisWu
Es ist ja m.W. noch nicht einmal vollständig geklärt, was Gefühle eigentlich sind, oder genauer: Welche Motivationsbasis sie haben. Beispiel "Mitgefühl". Warum gibt es das? Ist es die reine Vorstellungskraft, dass man selbst in der Lage des so Bemitleideten sein könnte, also am Ende: Angst? Hätten wir Menschen, wenn wir absolut unsterblich/unzerstörbar/unangreifbar wären, noch Mitgefühl mit anderen Wesen? Ich denke mal, wenn es irgendwann eine "echte" KI geben sollte, dann wird sie ihre eigenen "Gefühle", "Ängste", "Triebe" haben, die evtl. sehr weit von unserem Vorstellungsvermögen entfernt sind....
Hallo Gerhard,

bei mir hat so ein Nagetier einige Kabel im Motorraum durch genagt. Da könnte ich mir vorstellen, dass eine intelligente Maschine auch Angst hätte, dass so ein Nager den Saft abstellt;o).

Wenn man diesen Gedanken weiter spinnt, könnte das zu einem Overkill gegen Nager führen, bei dem die Maschine, als Kollateralschaden, den Menschen gleich mit auslöscht;o).

Immer an das Ende, bzw, zu Ende denken.

MfG. Rainer

Beitrag melden Antworten / Zitieren
LouisWu 17.02.2011, 20:30
38. ...

Zitat von fpa
Sind das nicht klassische Überlebensfunktionen/Überlebensprogramme? Mitgefühl für die Gruppe/Spezies, und Angst für das Individuum?
Es heißt, dass Menschen mit ausgeprägter Empathie bessere persönliche Beziehungen aufbauen können und daher i.d.R. erfolgreicher sind. Auf KI's bezogen wäre das eigentlich eine unnötige Eigenschaft, ist sie doch in der Lage, sich die Befindlichkeiten jeder anderen KI 1:1 als Datenpakete übertragen zu lassen und damit exakt nachvollziehen zu können. Und die Befindlichkeiten von Menschen können ihr ab einem gewissen Entwicklungsstand egal sein....
Zitat von fpa
..Was ich an "Gefühlskonzepten" brauche und was nicht, und ob überhaupt, das ist abhängig vom Anforderungsprofil der Maschine.
Sicher, wenn es einprogrammiert wird. Asimov's "Robotergesetze" gehen ja ein wenig in diese Richtung. Zwar nicht als Gefühle, sondern als Befehle, aber mit ähnlicher Wirkung.

Beitrag melden Antworten / Zitieren
LouisWu 17.02.2011, 20:38
39. ...

Zitat von Rainer Helmbrecht
Hallo Gerhard, bei mir hat so ein Nagetier einige Kabel im Motorraum durch genagt. Da könnte ich mir vorstellen, dass eine intelligente Maschine auch Angst hätte, dass so ein Nager den Saft abstellt;o). Wenn man diesen Gedanken weiter spinnt, könnte das zu einem Overkill gegen Nager führen, bei dem die Maschine, als Kollateralschaden, den Menschen gleich mit auslöscht;o). Immer an das Ende, bzw, zu Ende denken. MfG. Rainer
Hallo Rainer,

das könnte gut sein. Sogar beim Menschen scheint Mitgefühl zu einem Großteil anerzogen zu sein, wenn ich so an die kleinen Kinder in Asien denke, die lebend gefangenen Fröschen lächelnd die Beine abschneiden, um sie als Froschschenkel an Küchen zu verkaufen.

Ich denke, das Szenario aus dem Film "Terminator" ist so unwahrscheinlich nicht, im schlimmsten Falle...

MfG Gerhard

Beitrag melden Antworten / Zitieren
Seite 4 von 4