Forum: Netzwelt
Poker-Software Libratus: "Hätte die Maschine ein Persönlichkeitsprofil, dann Gangster
picture alliance/ AP/ Pittsburgh Post-Gazette

Eine künstliche Intelligenz hat erfolgreicher gepokert als menschliche Profis. Doch für die unterlegenen Top-Spieler gibt es immerhin einen Trost: Sie selbst haben ihrem Gegner den letzten Schliff gegeben.

Seite 1 von 2
napoleonwilson 08.02.2017, 17:49
1. 10 hoch 160

Wie geht das mit 52 Im Spiel befindlichen Karten ? 52! wirft 8.01 hoch 67 aus. Aber von Spieletheorie habe ich nicht viel Ahnung.

Beitrag melden Antworten / Zitieren
also-dann 08.02.2017, 18:56
2. Der Text hat es in sich.

Zur Beachtung. Genau das ist leicht zu übersehen, aber gesellschaftlich voraussichtlich enorm brisant. Weil angelernte neuronale Netze voraussichtlich in den nächsten Jahren unter dem Stichwort "künstliche Intelligenz" die meisten Menschen ersetzen werden.
Neuronale Netze lernen Muster aus dem, was ihnen vorgesetzt wird, und wenn das, was Ihnen vorgesetzt wird, nicht vollständig determiniert ist (das ist der Normalfall in der Realität), dann sind das Wiedererkennen und die darauf aufbauenden Entscheidungen eben tatsächlich teilweise zufällig.

Beitrag melden Antworten / Zitieren
TS_Alien 08.02.2017, 20:52
3.

Es gibt viele Bereiche, da kann man auch ohne Lerneffekte sehr gute und erfolgreiche Software schreiben. Der Lerneffekt wird oftmals überschätzt. Solange die sehr guten Gegner beim Poker ausreichend variabel spielen, wird sich auch dort kein größerer Lerneffekt einstellen.

Der Hype um neuronale Netze oder die KI wird irgendwann wieder nachlassen. Die wirklich schwierigen Probleme, für die man als Mensch Intelligenz und Kreativität benötigt, sind in der KI noch gar nicht angegangen worden. Stattdessen werden Nebenschauplätze bearbeitet. Schade.

Interessehalber würde ich gerne wissen, wie sich manche Software mit Lerneffekt verhält, wenn sie sehr oft gegen sich selbst Go oder Poker spielt. Es kann gut sein, dass dabei die völlig falschen Dinge gelernt werden, weil der menschliche Profi als Korrektiv fehlt.

Beitrag melden Antworten / Zitieren
brucewillisdoesit 09.02.2017, 00:10
4.

> Der Lerneffekt wird oftmals überschätzt. Solange die sehr guten
> Gegner beim Poker ausreichend variabel spielen, wird sich auch
> dort kein größerer Lerneffekt einstellen.
Ganze im Gegenteil. Das Training dauert nur länger, dafür ist der Lerneffekt umso höher je variabler die Gegner spielen, und umso weniger kommt es zum overfitting.

> Der Hype um neuronale Netze oder die KI wird irgendwann wieder >nachlassen. Die wirklich schwierigen Probleme, für die man als
>Mensch Intelligenz und Kreativität benötigt, sind in der KI noch gar >nicht angegangen worden.
Was auch nicht so ganz stimmt. Erstens sind es nicht nur neuronale Netze, sonern auch andere Algorithmen, zweitens ist das was sich dort in den letzten 10 Jahren getan hat schon revolutionär, Sei es nun Sprach- oder Gesichtserkennung, automatisches Fahren, oder Go. Insbesondere die Gesichtserkennung ist dramatisch. Der Mensch ist eine evolutionär eine auf Pattern recognition gedrillte Maschine und unterliegt troztdem inzwischen Computern in diesem Bereich. Starke AI gibt es zwar in der Tat nicht, aber Kreativität durchaus, oder zumindest durch Computer eigenständig erzeugte Kunstwerke, bei denen der Betrachter nicht unterscheiden kann, ob sie nun von einem Menschen oder Computer erzeugt wurden. Das London Symphony Orchestra hat z.B. eine CD veröffentlicht die von dem Programm Lamus kompiniert wurde. Ein anderes hat bereits ebenfalls 2 CDs veröffentlicht. In der AI gibt es inzwischen zahllose Beispiele von kreativen Programmen.
>Interessehalber würde ich gerne wissen, wie sich manche Software > mit Lerneffekt verhält, wenn sie sehr oft gegen sich selbst Go oder > Poker spielt. Es kann gut sein, dass dabei die völlig falschen Dinge
> gelernt werden, weil der menschliche Profi als Korrektiv fehlt.
Alpha Go wurde trainiert indem es gegen sich selbst spielte. Das Ergebnis durfte dann Lee Sedol ausbaden. Die Idee Lernen ginge nur mit supervised learning wurde bereits vor langem verworfen. Deswegen ist unsupervised learning, d.h. das selbstständige Lernen von Programmen ohne menschliches zutun, heute ein zentraler Aspekt der AI-Forschung. Das einzige was man dazu benötigt ist eine ausreichend große Datenbasis.

Beitrag melden Antworten / Zitieren
Lagrange 09.02.2017, 07:15
5.

Da können sich Onlinepoker Buden aber warm anziehen. Dann wird es bald bestimmt auch gute Versionen zum Nebenherverwenden geben, die der Branche ordentlich schaden

Beitrag melden Antworten / Zitieren
Achim Kaunert 09.02.2017, 07:25
6.

Zitat von napoleonwilson
Wie geht das mit 52 Im Spiel befindlichen Karten ? 52! wirft 8.01 hoch 67 aus. Aber von Spieletheorie habe ich nicht viel Ahnung.
Die Wahrscheinlichkeitsrechnung ist hier komplizierter, Sie müssen die mögliche Verteilung der Karten und zusätzlich die unterschiedlichen Wetteinsätze mit einberechnen.

Beitrag melden Antworten / Zitieren
theroadtoutopia 09.02.2017, 13:17
7. Da gibt es leider eine Mücke, die sich als Elefant entpuppte.

Dieser Elefant kann man mit "Realtime-Anforderung" bezeichnen. Nur zur Klarstellung: Ich meine hier mit Realtime nicht die allgemeine Vorstellung von Prozessen, die in Sekundenbruchteilen reagieren müssen, sondern allgemeiner die Vorgänge, die auf die Antwort zu einer gestellten Frage nicht warten können, bis sie kommt, sondern die sie zu einem bestimmten Zeitpunkt benötigen, weil sie ansonsten wertlos ist. Ein bekanntes Beispiel wäre es, wenn ich jetzt beginnen würde eine Wettervorhersage für den morgigen Tag zu erstellen, diese aber erst einen Tag später fertig ist.

Fast alle algorithmischen Lösungen für berechenbare Probleme benötigen zu viel Zeit um optimale Lösungen zu finden. Schlagworte, wie "NP" oder "exponentielles Zeitverhalten" spielen eine Rolle, aber auch polynomielle Algorithmen mit Laufzeiten O(n^5), die in Algorithmen zur natürlichen Sprachbearbeitung vorkommen, sind für grössere n nicht gerade optimal - freundlich ausgedrückt.
Mittels vieler unter dem Schlagwort "KI" zusammengefassten Verfahren gelingt es lokale Optima mit einem günstigeren Laufzeitverhalten zu ermitteln. Da es aber fast immer sehr viele lokale Optima gibt, ergeben sich unterschiedliche Ergebnisse, je nach (zufällig) vorgegebenem Startpunkt.

Eine andere (aktuelle) Vorgehensweise besteht darin, dass man Methoden, die ein zu ungünstiges Laufzeitverhalten zeigen, mit einem architektonischen "BIAS" belegt, ihre allgemeine Leistungsfähigkeit also bewusst und gezielt einschränkt. Ein Beispiel aus dem Umfeld künstlicher neuronaler Netze sind die "Restricted Boltzmann Machines".
Aktuell ist man eigentlich im grossen Rahmen mit der Fragestellung beschäftigt, was man denn überhaupt machen kann. Eine andere Frage kommt natürlich auch noch ins Spiel: Wieviel Energie verbrauchen diese Systeme? - Derzeit kann man deutlich sagen, dass es viel zu viel ist, diese Techniken also völlig ineffizient sind.

Das sind alles Fragen, die im Zusammenhang mit strategischen "grossen" Zielen beantwortet werden müssen, weil man ansonsten "KI"-Architekturen auf Treibsand aufbaut.
Zusätzlich kommt natürlich noch ein Punkt hinzu, der auch gerade hochaktuell ist (selbstfahrende Techniken): Wie kann man überhaupt feststellen, ob das Ergebnis anwendbar ist? - Das setzt zuerst einmal schon eine allgemeine Einschränkung fest, weil jede technische Lösung verworfen werden soll, die unserer vorgegebenen Vorstellung nicht entspricht. Freie Kreativität soll damit ja schon einmal ausgeschlossen werden, weil die natürlich auch gefährlich werden kann.

Wenn man also Lernverfahren einsetzt, dann sollte man sich auch grösstenteils vom klassischen technischen Testen verabschieden und stattdessen für Maschinen ähnliche Prüfungsstrukturen bereitstellen, wie heute in Schulen, Hochschulen und praktischen Ausbildungen vorhanden sind. Auch hier kann man nicht in die Köpfe schauen, sondern muss Ergebnisse bewerten, unabhängig davon, wie sie zustande gekommen sind.
Das ist schon alles eine Entwicklung, die sich mit zentralen Fragen beschäftigt.

Beitrag melden Antworten / Zitieren
theroadtoutopia 09.02.2017, 13:20
8. @TS_Alien: Da gibt es leider eine Mücke, die sich als Elefant entpuppte.

Diesen Elefant kann man mit "Realtime-Anforderung" bezeichnen. Nur zur Klarstellung: Ich meine hier mit Realtime nicht die allgemeine Vorstellung von Prozessen, die in Sekundenbruchteilen reagieren müssen, sondern allgemeiner die Vorgänge, die auf die Antwort zu einer gestellten Frage nicht warten können, bis sie kommt, sondern die sie zu einem bestimmten Zeitpunkt benötigen, weil sie ansonsten wertlos ist. Ein bekanntes Beispiel wäre es, wenn ich jetzt beginnen würde eine Wettervorhersage für den morgigen Tag zu erstellen, diese aber erst einen Tag später fertig ist.

Fast alle algorithmischen Lösungen für berechenbare Probleme benötigen zu viel Zeit um optimale Lösungen zu finden. Schlagworte, wie "NP" oder "exponentielles Zeitverhalten" spielen eine Rolle, aber auch polynomielle Algorithmen mit Laufzeiten O(n^5), die in Algorithmen zur natürlichen Sprachbearbeitung vorkommen, sind für grössere n nicht gerade optimal - freundlich ausgedrückt.
Mittels vieler unter dem Schlagwort "KI" zusammengefassten Verfahren gelingt es lokale Optima mit einem günstigeren Laufzeitverhalten zu ermitteln. Da es aber fast immer sehr viele lokale Optima gibt, ergeben sich unterschiedliche Ergebnisse, je nach (zufällig) vorgegebenem Startpunkt.

Eine andere (aktuelle) Vorgehensweise besteht darin, dass man Methoden, die ein zu ungünstiges Laufzeitverhalten zeigen, mit einem architektonischen "BIAS" belegt, ihre allgemeine Leistungsfähigkeit also bewusst und gezielt einschränkt. Ein Beispiel aus dem Umfeld künstlicher neuronaler Netze sind die "Restricted Boltzmann Machines".
Aktuell ist man eigentlich im grossen Rahmen mit der Fragestellung beschäftigt, was man denn überhaupt machen kann. Eine andere Frage kommt natürlich auch noch ins Spiel: Wieviel Energie verbrauchen diese Systeme? - Derzeit kann man deutlich sagen, dass es viel zu viel ist, diese Techniken also völlig ineffizient sind.

Das sind alles Fragen, die im Zusammenhang mit strategischen "grossen" Zielen beantwortet werden müssen, weil man ansonsten "KI"-Architekturen auf Treibsand aufbaut.

Zusätzlich kommt natürlich noch ein Punkt hinzu, der auch gerade hochaktuell ist (selbstfahrende Techniken): Wie kann man überhaupt feststellen, ob das Ergebnis anwendbar ist? - Das setzt zuerst einmal schon eine allgemeine Einschränkung fest, weil jede technische Lösung verworfen werden soll, die unserer vorgegebenen Vorstellung nicht entspricht. Freie Kreativität soll damit ja schon einmal ausgeschlossen werden, weil die natürlich auch gefährlich werden kann.

Wenn man also Lernverfahren einsetzt, dann sollte man sich auch grösstenteils vom klassischen technischen Testen verabschieden und stattdessen für Maschinen ähnliche Prüfungsstrukturen bereitstellen, wie heute in Schulen, Hochschulen und praktischen Ausbildungen vorhanden sind. Auch hier kann man nicht in die Köpfe schauen, sondern muss Ergebnisse bewerten, unabhängig davon, wie sie zustande gekommen sind.

Das ist schon alles eine Entwicklung, die sich mit zentralen Fragen beschäftigt.

Beitrag melden Antworten / Zitieren
pariah_aflame 09.02.2017, 13:20
9. gibt's schon lange

Zitat von Lagrange
Da können sich Onlinepoker Buden aber warm anziehen. Dann wird es bald bestimmt auch gute Versionen zum Nebenherverwenden geben, die der Branche ordentlich schaden
Im Internet gibt's schon lange Poker-Bots zu kaufen, die auf neuronalen Netzen basieren und nicht schlecht sind.

Die Online-Poker-Anbieter bekämpfen deren Einsatz aber natürlich mit allen Mitteln - und die sind nicht schlecht, denn dort sitzen auch fähige Programmierer.

Beitrag melden Antworten / Zitieren
Seite 1 von 2