Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Komplexitätsstrafen bedeuten, dass die optimale Strategie für ein gegebenes Spiel keine unbegrenzte Rekursionstiefe haben kann, es sei denn, sie ist entweder tail-call optimiert oder erzeugt exponentielle Belohnungen. Jeder rekursive Split fügt dem zeitlich entrollten Modell einer Strategie mindestens ein Bit an Komplexität hinzu.
Die meisten Spieltheorien, die ich gesehen habe, setzen sich nicht mit den Implikationen davon auseinander. Es ist eine andere Grenze als bloße Rechenkosten. Die Kosten der Berechnung können lokal bewertet werden, aber die Komplexität ist eine globale Grenze. Der Kontext ist wichtig.
(Wenn Sie von Spieltheorie wissen, die das zeitlich entrollte Verhalten des Spielers als ein Modell betrachtet, dessen Genauigkeit und Komplexität im Gleichgewicht sein müssen, lassen Sie es mich bitte wissen! Ich habe gesucht und nichts gefunden, aber das bedeutet nicht, dass ich die richtigen Schlüsselwörter verwendet habe…)
Dies besagt, dass die optimale Strategie für einen Spieler relativ zum Selbstmodell des Spielers bestimmt wird. Wenn du dich selbst modellierst, als würdest du zwischen zwei Optionen unter einer bestimmten Bedingung wählen, wächst der entrollte Baum. Wenn du es jedoch auf null rundest, erhält der Baum keinen neuen Zweig.
In der Tat gibt es ein "Entscheidungsbudget". Mehr detaillierte Entscheidungen hier hinzuzufügen bedeutet, dass Sie an anderer Stelle weniger detaillierte Entscheidungen treffen müssen. Nicht weniger Rechenleistung, sondern weniger Entscheidungen. Oder anders ausgedrückt, dies ist die Komplexitätskosten der nicht getroffenen Optionen.
Das Äquivalent von "günstigerer Berechnung" hier ist "bessere Hintergrundannahmen". Wie viele Entscheidungen Sie treffen, ist die Abweichung zwischen Ihrem Verhalten basierend auf dem Zustand in diesem Moment und Ihrem Verhalten, wenn es (Ihr Modell von) dem durchschnittlichen Moment der Erfahrung wäre. Gute Gewohnheiten!
Das ist eine Art Spiegel des allgemeinen Wissens... es sind allgemeine Handlungen. Die gewohnten vergangenen Handlungen eines Agenten schränken seine zukünftigen optimalen Handlungen ein. Das bedeutet, dass in gewissem Sinne das bloße übliche Handeln auf eine bestimmte Weise ein glaubwürdiges Vorabversprechen ist, die implizierte Strategie fortzusetzen.
Es sei denn, der Spieler handelt täuschend — er zahlt einen überraschend hohen Komplexitätskosten, um sich selbst so darzustellen, als würde er normalerweise anders handeln, um andere Hintergrundannahmen aufrechtzuerhalten, weil er erwartet, durch das spätere Betrügen der Getäuschten Profit zu machen.
Optimale Strategien sind robust optimal. Eine optimale Strategie mit höherer erwarteter Rendite, die zu Ruin führt, ist nicht optimal. Robustheit beruht auf Einfachheit, die relativ zur Theorie des Geistes sowohl des Selbst, des Anderen als auch des kollektiven "Wir" ist.
Diese Regeln über optimale Entscheidungen unter Unsicherheit sind keine Vorschläge, sie sind Gesetze, genau wie Bayesianische Updates. Was du über dich selbst weißt, ist kausal für deine optimale Strategie, und es gibt einen unvermeidlichen Komplexitätskosten für Täuschung, die das Selbstmodell mit der Realität verbindet.
4,29K
Top
Ranking
Favoriten