Kapitel 19Verhaltens- und Experimentalökonomik

Einleitung

Jedes Modell in diesem Buch hat rationale Akteure angenommen — Konsumenten, die den Erwartungsnutzen maximieren, Unternehmen, die Kosten minimieren, Händler mit konsistenten Zeitpräferenzen und korrekten Überzeugungen. Diese Annahmen sind mächtig: Sie liefern scharfe Vorhersagen, elegante Wohlfahrtstheoreme und elegante Mathematik. Aber stimmen sie?

Dieses Kapitel konfrontiert die Evidenz. Die Verhaltensökonomik dokumentiert vorhersagbare, systematische Abweichungen vom rationalen Standardmodell. Dies sind keine zufälligen Fehler, die sich in der Aggregation aufheben — es sind gemusterte Verzerrungen, die Wiederholung, Anreize und sogar Expertise überleben.

Wir beginnen mit den Rissen in der Erwartungsnutzentheorie — dem Allais- und dem Ellsberg-Paradoxon — und arbeiten uns zur Prospect Theory vor, der führenden deskriptiven Alternative. Dann untersuchen wir intertemporale Entscheidungen unter Gegenwartspräferenz, soziale Präferenzen, die reines Eigeninteresse verletzen, begrenzte Rationalität und Heuristiken, experimentelle Methodik, Nudge-Theorie und Behavioral Finance. Durchgehend ist der Ansatz formal: Wir stellen Nutzenfunktionen auf, leiten Vorhersagen ab und testen sie an Daten.

Am Ende dieses Kapitels werden Sie in der Lage sein:
  1. Das Allais- und das Ellsberg-Paradoxon als formale Verletzungen der Erwartungsnutzenaxiome identifizieren
  2. Die Wertfunktion und die Wahrscheinlichkeitsgewichtungsfunktion der Prospect Theory mit ihren parametrischen Formen angeben
  3. Gegenwartspräferenz mithilfe des quasi-hyperbolischen (Beta-Delta-)Rahmens modellieren und Zeitinkonsistenz herleiten
  4. Gleichgewichtsergebnisse unter Fehr-Schmidt-Ungleichheitsaversion berechnen
  5. Satisfizierung von Optimierung unterscheiden und die sparsame Maximierung charakterisieren
  6. Experimentelle Designentscheidungen bewerten — Labor vs. Feld, Nachfrageeffekte, Replikationsbedenken
  7. Nudge-Theorie und Entscheidungsarchitektur auf Politikgestaltung anwenden
  8. Erklären, warum rationale Arbitrage verhaltensbedingte Fehlbewertungen an Finanzmärkten nicht beseitigt

Voraussetzungen: Erwartungsnutzentheorie (Kap. 6), Spieltheorie (Kap. 7), Konsumtheorie (Kap. 6/10), Ökonometrie-Grundlagen (Kap. 9), Vertrautheit mit Mechanismusdesign (Kap. 11).

Genannte Literatur: Kahneman & Tversky (1979); Tversky & Kahneman (1992); Thaler (1980, 2015); Laibson (1997); Fehr & Schmidt (1999); Gabaix (2014); Shleifer & Vishny (1997); DeLong, Shleifer, Summers & Waldmann (1990).

19.1 Verletzungen der Erwartungsnutzentheorie

Der Erwartungsnutzen-Benchmark

Erinnern Sie sich aus Kapitel 6, dass unter den Axiomen der Vollständigkeit, Transitivität, Stetigkeit und dem Unabhängigkeitsaxiom Präferenzen über Lotterien durch den Erwartungsnutzen dargestellt werden können:

Erwartungsnutzen. Eine Theorie der Entscheidung unter Risiko, bei der ein Akteur die Lotterie $L$ wählt, die $EU(L) = \sum_{i=1}^{n} p_i \, u(x_i)$ maximiert, wobei $p_i$ die objektiven Wahrscheinlichkeiten, $x_i$ die Ergebnisse und $u(\cdot)$ eine Bernoulli-Nutzenfunktion über Endvermögen sind. EU ist der Benchmark, an dem alle verhaltensbedingten Abweichungen gemessen werden.
$$EU(L) = \sum_{i=1}^{n} p_i \, u(x_i)$$ (Eq. 19.1)
Unabhängigkeitsaxiom. Wenn Lotterie $A$ gegenüber $B$ bevorzugt wird, dann muss eine Mischung $pA + (1-p)C$ gegenüber $pB + (1-p)C$ für jede Lotterie $C$ und jede Wahrscheinlichkeit $p \in (0,1)$ bevorzugt werden. Das Einmischen einer gemeinsamen Komponente $C$ sollte Ihre Rangordnung von $A$ versus $B$ nicht umkehren. Das Allais-Paradoxon demonstriert systematische Verletzungen dieses Axioms.

Unabhängigkeit ist elegant und normativ ansprechend. Sie besagt, dass Ihre Präferenz zwischen zwei Glücksspielen nicht durch eine irrelevante gemeinsame Komponente beeinflusst werden sollte. Aber wie Maurice Allais 1953 zeigte, verletzen die meisten Menschen sie konsistent.

Das Allais-Paradoxon (1953)

Allais-Paradoxon. Der empirische Befund (Allais, 1953), dass die meisten Menschen eine sichere \$1 Million einem riskanten Glücksspiel mit höherem Erwartungswert vorziehen (der Sicherheitseffekt), gleichzeitig aber ein riskanteres Glücksspiel bevorzugen, wenn beide Optionen Unsicherheit beinhalten. Diese gemeinsamen Präferenzen verletzen das Unabhängigkeitsaxiom der Erwartungsnutzentheorie.

Betrachten Sie zwei Lotteriepaare:

Paar 1: Glücksspiel 1A: \$1M mit Sicherheit. Glücksspiel 1B: \$5M mit Wahrsch. 0,10, \$1M mit Wahrsch. 0,89, \$0 mit Wahrsch. 0,01.

Paar 2: Glücksspiel 2A: \$1M mit Wahrsch. 0,11, \$0 mit Wahrsch. 0,89. Glücksspiel 2B: \$5M mit Wahrsch. 0,10, \$0 mit Wahrsch. 0,90.

Das modale Muster: Die meisten Menschen wählen 1A gegenüber 1B und 2B gegenüber 2A. Diese gemeinsame Wahl $\{1A, 2B\}$ verletzt das Unabhängigkeitsaxiom.

Common-Consequence-Effekt. Ein Spezialfall der Verletzung des Unabhängigkeitsaxioms, bei dem sich Präferenzen umkehren, wenn eine gemeinsame Konsequenz, die beiden Optionen in einem Paar gemeinsam ist, geändert wird. Im Allais-Paradoxon ist die 0,89-Wahrscheinlichkeitskomponente, die beiden Glücksspielen in jedem Paar gemeinsam ist, die gemeinsame Konsequenz.

Nach dem Unabhängigkeitsaxiom sollte das Ersetzen der gemeinsamen Konsequenz (\$1M in Paar 1, \$0 in Paar 2) die Rangordnung nicht ändern. Wenn \$1A \succ 1B$, dann \$1A \succ 2B$. Die Umkehr enthüllt einen Sicherheitseffekt.

Das Ellsberg-Paradoxon (1961)

Ellsberg-Paradoxon. Der empirische Befund (Ellsberg, 1961), dass Menschen Glücksspiele mit bekannten Wahrscheinlichkeiten gegenüber Glücksspielen mit unbekannten (ambigen) Wahrscheinlichkeiten bevorzugen, selbst wenn die EU-Theorie Indifferenz vorhersagt. Dies offenbart Ambiguitätsaversion.

Betrachten Sie eine Urne mit 30 roten Kugeln und 60 Kugeln, die schwarz oder gelb sind in unbekannten Proportionen. Glücksspiel A: Gewinn \$100 bei Rot (Wahrsch. 1/3, bekannt). Glücksspiel B: Gewinn \$100 bei Schwarz (Wahrsch. unbekannt). Die meisten wählen A.

Aber dann: Glücksspiel C: Gewinn \$100 bei Rot oder Gelb. Glücksspiel D: Gewinn \$100 bei Schwarz oder Gelb. Die meisten wählen D. Unter EU erfordert $A \succ B$, dass $C \succ D$. Die gemeinsame Wahl $\{A, D\}$ verletzt das Sure-Thing-Prinzip.

Ambiguitätsaversion. Die Präferenz für bekannte Wahrscheinlichkeiten gegenüber unbekannten. Ein ambiguitätsaverser Akteur zieht ein 50/50-Glücksspiel aus einer bekannten Urne einem äquivalenten Glücksspiel aus einer Urne mit unbekannter Zusammensetzung vor. Dies verletzt die Savage-Axiome, die dem subjektiven Erwartungsnutzen zugrunde liegen.

Diese Paradoxien enthüllen, dass das Unabhängigkeitsaxiom deskriptiv versagt. Wir brauchen eine Theorie, die diese Verletzungen berücksichtigt.

Abbildung 19.3. Allais-Paradoxon-Detektor. Wählen Sie Ihr bevorzugtes Glücksspiel in jedem Paar und prüfen Sie dann, ob Ihre Entscheidungen das Unabhängigkeitsaxiom verletzen.

Pair 1

1A: \$1M sicher
1B: 10 % \$5M, 89 % \$1M, 1 % \$0

Pair 2

2A: 11 % \$1M, 89 % \$0
2B: 10 % \$5M, 90 % \$0
Beispiel 19.1 — Allais-Paradoxon — Berechnung

Aufgabe. Zwei Lotteriepaare. Annahme: CRRA-Nutzenfunktion u(x) = x^{0,5} (x in Millionen). (a) Berechnen Sie den EU jeder Lotterie. (b) Welche empfiehlt EU? (c) Zeigen Sie, dass {1A, 2B} die Unabhängigkeit verletzt.

Lösung.

(a) EU(1A) = 1,0 × 1^{0,5} = 1,000. EU(1B) = 0,89(1) + 0,10(2,236) + 0,01(0) = 1,1136. EU(2A) = 0,11(1) = 0,11. EU(2B) = 0,10(2,236) = 0,2236.

(b) EU empfiehlt 1B (1,114 > 1,000) und 2B (0,224 > 0,110). EU-konsistente Paare: {1A, 2A} oder {1B, 2B}.

(c) 1A ≻ 1B erfordert 1,11 u(1) > 0,10 u(5) + 0,01 u(0). 1B ≻ 2A erfordert 1,10 u(5) + 0,01 u(0) > 0,11 u(1). Diese stehen im direkten Widerspruch. Keine u(·) kann beide gleichzeitig erfüllen.


19.2 Prospect Theory

Vom Erwartungsnutzen zur Prospect Theory

Kahneman und Tversky (1979) schlugen die Prospect Theory als deskriptive Alternative vor, später verfeinert als kumulative Prospect Theory (1992). Sie modifiziert EU in vier Weisen: Referenzpunktabhängigkeit, Verlustaversion, abnehmende Sensitivität und Wahrscheinlichkeitsgewichtung.

Prospect Theory. Eine deskriptive Theorie der Entscheidung unter Risiko (Kahneman und Tversky, 1979), die den Erwartungsnutzen durch vier zentrale Modifikationen ersetzt: Referenzpunktabhängigkeit, Verlustaversion, abnehmende Sensitivität (konkav für Gewinne, konvex für Verluste) und Wahrscheinlichkeitsgewichtung.

Die Wertfunktion

Die Wertfunktion ersetzt $u(x)$, definiert über Endvermögen, durch $v(x)$, definiert über Gewinne und Verluste relativ zu einem Referenzpunkt:

Wertfunktion (S-förmig, geknickter Verlauf). Das Prospect-Theory-Analogon der Nutzenfunktion, definiert über Abweichungen von einem Referenzpunkt statt über absolute Vermögensniveaus. Sie ist konkav für Gewinne, konvex für Verluste und zeigt einen Knick am Referenzpunkt, wo die Steigung für Verluste die Steigung für Gewinne um den Verlustaversionskoeffizienten $\lambda$ übersteigt.
$$v(x) = \begin{cases} x^{\alpha} & \text{if } x \geq 0 \\ -\lambda(-x)^{\beta} & \text{if } x < 0 \end{cases}$$ (Eq. 19.2)

Die von Tversky und Kahneman (1992) geschätzten Parameter sind $\alpha = \beta = 0{,}88$ und $\lambda = 2{,}25$.

Drei Eigenschaften: (1) Referenzpunktabhängigkeit — Ergebnisse werden als Gewinne oder Verluste relativ zu $r$ kodiert. (2) Abnehmende Sensitivität — $\alpha, \beta < 1$ ergibt Konkavität für Gewinne und Konvexität für Verluste. (3) Verlustaversion — $\lambda > 1$ macht die Wertfunktion für Verluste steiler.

Verlustaversion. Der empirische Befund, dass Verluste schwerer wiegen als gleichwertige Gewinne: $|v(-x)| > v(x)$ für $x > 0$. Der Verlustaversionskoeffizient $\lambda \approx 2{,}25$ bedeutet, dass der Verlust von \$100 etwa 2,25-mal schlimmer empfunden wird als der Gewinn von \$100 gut empfunden wird.
Referenzpunktabhängigkeit. Das Prinzip, dass Ergebnisse als Gewinne oder Verluste relativ zu einem Referenzpunkt bewertet werden, nicht als absolute Vermögenszustände. Der Referenzpunkt ist typischerweise der Status quo, kann aber auch Erwartungen, Aspirationen oder soziale Vergleiche sein.

Abbildung 19.1. Prospect-Theory-Wertfunktion. Die S-förmige Kurve ist konkav für Gewinne und konvex für Verluste, mit steilerer Steigung für Verluste (Verlustaversion). Bei $\alpha = \beta = \lambda = 1$ kollabiert sie zur Linearen (EU). Ziehen Sie die Schieberegler zum Erkunden.

Die Wahrscheinlichkeitsgewichtungsfunktion

Wahrscheinlichkeitsgewichtungsfunktion. Die Funktion $w(p)$, die objektive Wahrscheinlichkeiten in subjektive Entscheidungsgewichte transformiert. Sie übergewichtet kleine Wahrscheinlichkeiten ($w(p) > p$ für kleine $p$), untergewichtet mittlere bis große Wahrscheinlichkeiten und erfüllt $w(0)=0$, $w(1)=1$.
$$w(p) = \dfrac{p^{\delta}}{(p^{\delta} + (1-p)^{\delta})^{1/\delta}}$$ (Eq. 19.3)

Der Tversky-Kahneman (1992) Parameter $\delta \approx 0{,}65$. Wenn $\delta = 1$, $w(p) = p$ (EU). Wenn $\delta < 1$, übergewichtet die Funktion kleine Wahrscheinlichkeiten und untergewichtet große. Kreuzungspunkt bei $p \approx 0{,}37$.

Abbildung 19.2. Tversky-Kahneman (1992) Wahrscheinlichkeitsgewichtungsfunktion. Die inverse S-Kurve übergewichtet kleine Wahrscheinlichkeiten und untergewichtet große. Bei $\delta = 1$ kollabiert sie zur 45-Grad-Linie (EU). Ziehen Sie den Schieberegler.

Die Prospect-Theory-Bewertung

$$V(L) = \sum_{i} w(p_i) \, v(x_i - r)$$ (Eq. 19.4)

Hinweis: Dies ist die ursprüngliche Prospect-Theory-Formulierung (Kahneman & Tversky, 1979), die Entscheidungsgewichte auf einzelne Wahrscheinlichkeiten anwendet. Die kumulative Prospect Theory (Tversky & Kahneman, 1992) wendet Entscheidungsgewichte auf kumulative Wahrscheinlichkeiten geordneter Ergebnisse an und behebt bestimmte Anomalien wie Verletzungen der stochastischen Dominanz.

Der Besitzeffekt

Besitzeffekt. Die Tendenz, einen Gegenstand höher zu bewerten, sobald man ihn besitzt, als man für seinen Erwerb zahlen würde. Folgt aus der Verlustaversion: Das Aufgeben eines besessenen Gegenstands wird als Verlust kodiert.

Das vierfache Muster der Risikoeinstellungen

Vierfaches Muster der Risikoeinstellungen. Die Kombination aus der S-förmigen Wertfunktion und der Wahrscheinlichkeitsgewichtung erzeugt vier unterschiedliche Risikoeinstellungen: Risikofreude bei kleinen Gewinnwahrscheinlichkeiten, Risikoaversion bei kleinen Verlustwahrscheinlichkeiten, Risikoaversion bei hohen Gewinnwahrscheinlichkeiten und Risikofreude bei hohen Verlustwahrscheinlichkeiten.

Das vierfache Muster: kleines $p$ + Gewinne = Risikofreude (Lotterien); kleines $p$ + Verluste = Risikoaversion (Versicherungen); großes $p$ + Gewinne = Risikoaversion (Sicherheitseffekt); großes $p$ + Verluste = Risikofreude (verzweifeltes Spielen).

Framing-Effekte und mentale Buchführung

Framing-Effekt. Das Phänomen, dass die Art der Präsentation (Rahmung) einer Entscheidung die Wahl beeinflusst, selbst wenn die objektiven Ergebnisse identisch sind.
Mentale Buchführung. Der kognitive Prozess, finanzielle Entscheidungen in separate “Konten” zu organisieren, anstatt Vermögen als fungibel zu behandeln.
Beispiel 19.2 — Prospect Theory vs. EU-Bewertung

Aufgabe. Ein Spiel bietet +\$1.000 mit Wahrsch. 0,5 und −\$800 mit Wahrsch. 0,5. Referenzpunkt r = 0. (a) Sicherheitsäquivalent unter EU mit CRRA u(x) = x^{0,5}, W = \$10.000. (b) PT-Bewertung mit Standardparametern. (c) Warum kehrt die Verlustaversion die Bewertung um?

Lösung.

(a) EU = 0,5(11.000)^{0,5} + 0,5(9.200)^{0,5} = 0,5(104,88) + 0,5(95,92) = 100,40. SÄ: \$100,40^2 = 10.080$. SÄ-Änderung = +80,2. Agent akzeptiert.

(b) v(+1000) = 1000^{0,88} = 436,5. v(−800) = −2,25 × 800^{0,88} = −2,25 × 358,7 = −807,1. Mit w(0,5) ≈ 0,439: V = 0,439(436,5) + 0,439(−807,1) = −162,6. Agent lehnt ab.

(c) Die Verlustaversion (λ = 2,25) lässt den \$800-Verlust weitaus schwerer wiegen als den \$1.000-Gewinn und kehrt so die Bewertung um.


19.3 Intertemporale Entscheidung und Gegenwartspräferenz

Der exponentielle Benchmark

Die Standardtheorie nimmt exponentielles Diskontieren mit Diskontfaktor $\delta \in (0,1)$ an. Die Schlüsseleigenschaft ist Zeitkonsistenz: Ein bei $t=0$ gemachter Plan bleibt zu jedem zukünftigen Zeitpunkt optimal.

Hyperbolisches und quasi-hyperbolisches Diskontieren

Experimentelle Evidenz lehnt konstantes Diskontieren überwältigend ab. Menschen zeigen abnehmende Ungeduld: Die Diskontrate zwischen heute und morgen ist viel höher als zwischen Tag 100 und Tag 101.

Hyperbolisches Diskontieren. Ein Modell der Zeitpräferenz, bei dem die Diskontfunktion die Form $D(t) = (1+kt)^{-1}$ annimmt statt der exponentiellen $\delta^t$. Erzeugt abnehmende Diskontraten und zeitinkonsistente Präferenzen.
Quasi-hyperbolisches (Beta-Delta-)Diskontieren. Ein handhabbares Modell der Gegenwartspräferenz (Laibson, 1997), bei dem die Diskontfunktion $\{1, \beta\delta, \beta\delta^2, \ldots\}$ mit $\beta \leq 1$ ist. Wenn $\beta = 1$, reduziert es sich auf exponentielles Diskontieren.
$$U_0 = u(c_0) + \beta \sum_{t=1}^{T} \delta^t \, u(c_t)$$ (Eq. 19.5)

Die quasi-hyperbolischen Diskontfaktoren sind $\{1, \beta\delta, \beta\delta^2, \ldots\}$. Die unmittelbare Periode erhält Gewicht 1, aber alle zukünftigen Perioden werden zusätzlich mit $\beta$ diskontiert. Wenn $\beta < 1$, gibt es einen diskreten Abfall zwischen “jetzt” und “der Zukunft”.

Gegenwartspräferenz. Die Tendenz, sofortigen Auszahlungen ein unverhältnismäßig hohes Gewicht zu geben im Vergleich zu zukünftigen Auszahlungen, über das hinaus, was exponentielles Diskontieren implizieren würde. Erfasst durch $\beta < 1$ im Beta-Delta-Modell.

Zeitinkonsistenz

$$\beta\delta u'(c_1) = u'(c_0) \neq \delta u'(c_1)$$ (Eq. 19.6)

Bei $t=0$ ist die Bedingung erster Ordnung für $c_1$: $\beta\delta u'(c_1) = u'(c_0)$. Bei $t=1$ ergibt die Neuoptimierung $u'(c_1) = \beta\delta u'(c_2)$. Das $\beta$ hat sich verschoben — der Plan ist zeitinkonsistent.

Naive vs. sophistizierte Akteure

Naiver Akteur. Ein gegenwartspräferenter Akteur, der fälschlicherweise glaubt, seine zukünftigen Ichs würden sich wie exponentielle Diskontierer verhalten ($\beta=1$ in der Zukunft). Schiebt kostspielige Handlungen ständig auf.
Sophistizierter Akteur. Ein gegenwartspräferenter Akteur, der die zukünftige Gegenwartspräferenz korrekt antizipiert. Verwendet Rückwärtsinduktion und kann Selbstbindungsinstrumente einsetzen.
Selbstbindungsinstrument. Jeder Mechanismus, den ein Akteur freiwillig einsetzt, um seine eigene zukünftige Wahlmenge einzuschränken. Beispiele: illiquide Altersvorsorgekonten, Fristsetzungen, automatische Gehaltsabzüge.

Ein naiver Akteur schiebt unbegrenzt auf. Ein sophistizierter Akteur verwendet Rückwärtsinduktion und kann Selbstbindungsinstrumente einsetzen.

Abbildung 19.4. Beta-Delta-Diskontierungs-Explorer. Der naive Akteur verschiebt ständig; der sophistizierte Akteur verwendet Rückwärtsinduktion. Bei $\beta = 1$ kollabieren alle Linien (keine Gegenwartspräferenz). Ziehen Sie die Schieberegler.

Beispiel 19.3 — Beta-Delta-Aufschiebeverhalten

Aufgabe. Ein Student muss ein Projekt fertigstellen. Kosten heute = 6 Nutzeneinheiten, Nutzen in 2 Perioden = 10 Nutzeneinheiten. β = 0,7, δ = 0,95, 5 Perioden. (a) Wann handelt ein naiver Agent? (b) Ein sophistizierter Agent?

Lösung.

(a) Naiv: In jeder Periode t, Nettonutzen des sofortigen Handelns = −6 + 0,7 × 0,95² × 10 = −6 + 6,32 = +0,32. Wahrgenommener Nettonutzen des Wartens = 0,7 × 0,95 × (−6) + 0,7 × 0,95³ × 10 = −3,99 + 6,00 = +2,01. Da 2,01 > 0,32, verschiebt er immer. Prokrastiniert bis zur Frist.

(b) Sophistiziert: Rückwärtsinduktion. Bei t = 2 (letzte mögliche Periode), Nettonutzen = +0,32 > 0, also handelt das Selbst bei t=2. Bei t = 1: Nettonutzen jetzt = +0,32, Nettonutzen des Wartens auf t=2 = +2,01 > 0,32, also wartet. Bei t = 0: ebenso, wartet. Der sophistizierte Agent handelt bei t = 2 — früher als die Frist des naiven Agenten.

Beispiel 19.4 — Wert eines Selbstbindungsinstruments

Aufgabe. Agent mit β = 0,7, δ = 0,95, logarithmischem Nutzen, Einkommen Y = 100 über 3 Perioden. (a) Sparen ohne Bindung. (b) Mit Bindung. (c) Wohlfahrtsgewinn.

Lösung.

(a) Ohne Bindung: t=0 teilt c₀ = 100/(1+0,665+0,632) = 43,54, verbleibend 56,46. Bei t=1 Re-Optimierung: c₁ = 56,46/1,665 = 33,91, c₂ = 22,55.

(b) Mit Bindung: c₁ = 0,665 × 100/2,297 = 28,95, c₂ = 0,632 × 100/2,297 = 27,51.

(c) Ohne: U = 3,774 + 2,344 + 1,967 = 8,085. Mit: U = 3,774 + 2,237 + 2,095 = 8,106. Gewinn = 0,020 Nutzeneinheiten. Der gebundene Agent erreicht einen glatteren Konsumpfad.


19.4 Soziale Präferenzen

Jenseits des Eigeninteresses

Jahrzehnte experimenteller Evidenz zeigen, dass Menschen systematisch vom reinen Eigeninteresse abweichen: Sie lehnen unfaire Angebote ab, geben an Fremde, kooperieren in Einmalspielen und bestrafen Trittbrettfahrer.

Ungleichheitsaversion. Ein Präferenzmodell, in dem Akteure ungleiche Ergebnisse ablehnen — sowohl wenn sie benachteiligt sind (Neid) als auch wenn sie bevorteilt sind (Schuld). Fehr und Schmidt (1999) formalisierten dies mit Parametern $\alpha$ für Neid und $\beta$ für Schuld.

Die Fehr-Schmidt-Nutzenfunktion

Fehr-Schmidt-Nutzenfunktion. Eine Nutzenfunktion, die eigennützige Auszahlungen durch Abzug von Disnutzen aus Ungleichheit modifiziert: $U_i = x_i - \alpha_i \max(x_j - x_i, 0) - \beta_i \max(x_i - x_j, 0)$.
$$U_i(x) = x_i - \alpha_i \max(x_j - x_i, 0) - \beta_i \max(x_i - x_j, 0)$$ (Eq. 19.7)

Die Beschränkungen $\alpha_i \geq \beta_i$ und $\beta_i < 1$ sind empirisch motiviert: Neid schmerzt mehr als Schuld, und niemand vernichtet Geld nur zur Gleichstellung.

Das Ultimatumspiel

Im Ultimatumspiel erfüllt das minimal akzeptable Angebot $s^*$ die Bedingung $s - \alpha_R(100-2s) \geq 0$, was $s^* = 100\alpha_R / (1+2\alpha_R)$ ergibt. Für $\alpha_R = 2$: $s^* = 40$.

Abbildung 19.6. Fehr-Schmidt-Ungleichheitsaversion. Höheres $\alpha$ (Neid) erhöht das minimal akzeptable Angebot. Bei $\alpha = \beta = 0$ gilt die Standardtheorie: Jedes positive Angebot wird akzeptiert. Ziehen Sie die Schieberegler.

Abbildung 19.5. Ultimatumspiel-Simulator. Spielen Sie als Antragsteller gegen verschiedene Antwortstrategien. Verfolgen Sie Ihre Erträge über die Runden.

0
Runde
\$0
Ihre Erträge
\$0
Erträge des Antwortenden
0
Ablehnungen
\$0
Durchschn. akzeptiertes Angebot

Diktatorspiele und öffentliche Güter

In Diktatorspielen beträgt die durchschnittliche Zuteilung 20–30 %. In öffentlichen-Güter-Spielen hält die Einführung von Bestrafung die Kooperation aufrecht.

Beispiel 19.5 — Fehr-Schmidt-Ultimatumspiel

Aufgabe. Ultimatumspiel mit \$100. Anbieter: α_P = 0,5, β_P = 0,3. Antwortender: α_R = 2,0, β_R = 0,6. (a) Minimales akzeptables Angebot. (b) Optimales Angebot. (c) Vergleich mit Standard-Nash.

Lösung.

(a) U_R = s − 2,0(100−2s) = 5s − 200 ≥ 0 ⇒ s* = 40.

(b) U_P = (100−s) − 0,3(100−2s) = 70 − 0,4s, fallend in s. Minimiere s unter s ≥ 40: optimales Angebot s* = 40. U_P = 54, U_R = 0.

(c) Standardpräferenzen (α = β = 0): Angebot \$1, akzeptiert. Fehr-Schmidt: Angebot \$40. Viel näher an den experimentellen Modalangeboten von 40-50 %.


19.5 Begrenzte Rationalität und Heuristiken

Simons Satisfizierung

Herbert Simon (1955) argumentierte, dass Akteure satisfizieren statt optimieren: Sie suchen, bis sie eine akzeptable Option finden, und hören dann auf.

Satisfizierung. Ein Entscheidungsverfahren (Simon, 1955), bei dem der Akteur ein Anspruchsniveau setzt und die erste Option wählt, die es erfüllt, anstatt alle Alternativen zu vergleichen.
Begrenzte Rationalität. Die Erkenntnis (Simon, 1955), dass menschliche Entscheidungsfindung durch kognitive Beschränkungen limitiert ist — begrenztes Gedächtnis, begrenzte Aufmerksamkeit und Berechnungskosten.

Heuristiken und Verzerrungen

Tversky und Kahneman (1974) identifizierten drei Kernheuristiken: Repräsentativität (Wahrscheinlichkeit nach Ähnlichkeit beurteilen), Verfügbarkeit (Häufigkeit nach Leichtigkeit des Erinnerns schätzen) und Verankerung (unzureichende Anpassung von einem Anfangswert).

Gabaix' sparsame Maximierung

Sparsame Maximierung. Ein Modell begrenzter Rationalität (Gabaix, 2014), in dem der Akteur den Nutzen abzüglich der Aufmerksamkeitskosten maximiert. Der Akteur verteilt Aufmerksamkeit optimal und widmet Dimensionen, die wichtig sind, mehr Aufmerksamkeit.
$$\max_{\mathbf{c}} \, u(\mathbf{c}) - \theta \|\mathbf{m}\|_1 \quad \text{s.t. } \mathbf{p} \cdot \mathbf{c} \leq w$$ (Eq. 19.8)

Gabaix (2014) formalisierte begrenzte Rationalität als Optimierungsproblem: Akteure maximieren den Nutzen abzüglich Aufmerksamkeitskosten $\theta$ pro Dimension. Der Akteur nimmt wahr $\hat{p}_k = \bar{p}_k + m_k(p_k - \bar{p}_k)$.


19.6 Experimentelles Design und Methodik

Laborexperimente

Laborexperimente bieten reale monetäre Anreize, Randomisierung und Kontrolle. Stärke: interne Validität. Schwäche: externe Validität.

Feldexperimente

Feldexperimente betten Manipulationen in reale Umgebungen ein: natürliches Verhalten, kein Bewusstsein, große Skala. Zielkonflikt: weniger Kontrolle für mehr Realismus.

Methodische Herausforderungen

Nachfrageeffekte: Probanden können ihr Verhalten ändern, weil sie wissen, dass sie beobachtet werden, oder die Absicht des Experimentators erraten. Die Täuschungsdebatte: Die Ökonomik hat eine starke Norm gegen Täuschung, anders als die Psychologie.

Die Replikationskrise: Nur 36 % der Psychologiestudien replizierten (Open Science Collaboration, 2015); die Ökonomik liegt höher (~60 %), ist aber dennoch besorgniserregend. Vorregistrierung adressiert P-Hacking und Publikationsverzerrung.


19.7 Nudge-Theorie und libertärer Paternalismus

Entscheidungsarchitektur

Wenn Entscheidungen von Framing und Defaults abhängen, dann ist Entscheidungsarchitektur — die Art, wie Entscheidungen präsentiert werden — relevant.

Entscheidungsarchitektur. Die Gestaltung der Umgebung, in der Menschen Entscheidungen treffen, einschließlich der Reihenfolge der Optionen, Standardeinstellungen, Informationsdarstellung und physischer Anordnung.
Nudge. Jeder Aspekt der Entscheidungsarchitektur, der das Verhalten vorhersagbar ändert, ohne Optionen zu verbieten oder wirtschaftliche Anreize wesentlich zu verändern (Thaler und Sunstein, 2008).
Libertärer Paternalismus. Eine Philosophie, die Wahlfreiheit bewahrt und gleichzeitig Entscheidungen durch Nudges statt durch Vorschriften in Richtung wohlfahrtssteigernder Ergebnisse lenkt.

Default-Effekte

Default-Effekt. Die überproportionale Tendenz, bei der voreingestellten Option zu bleiben, selbst wenn ein Wechsel einfach und kostenlos ist.

Der mächtigste Nudge ist der Default. Organspende: 15–20 % in Opt-in-Ländern, 85–99 % in Opt-out-Ländern. Altersvorsorge-Teilnahme springt von ~50 % auf über 90 % mit Opt-out.

$$P_{\text{enroll}} = \Phi\!\left(\frac{v - k \cdot (1-d)}{\sigma}\right)$$ (Eq. 19.9)

Bei Opt-in ($d=0$): $P = \Phi((v-k)/\sigma)$. Bei Opt-out ($d=1$): $P = \Phi(v/\sigma)$. Die Lücke ist am größten, wenn $v$ positiv, aber moderat ist und $k/\sigma$ nicht trivial.

Abbildung 19.7. Default-Effekt-Simulator. Höhere Wechselkosten vergrößern die Lücke zwischen Opt-in- und Opt-out-Teilnahme. Bei $k = 0$ spielt der Default keine Rolle. Ziehen Sie den Schieberegler.

Das EAST-Rahmenwerk

EAST-Rahmenwerk. Ein praktischer Leitfaden für Nudge-Design: Gewünschte Verhaltensweisen sollen Easy (einfach), Attractive (attraktiv), Social (sozial) und Timely (zeitlich passend) gestaltet werden.

Das EAST-Rahmenwerk: Easy (Reibung reduzieren), Attractive (auffällig machen), Social (Normen nutzen), Timely (zum richtigen Zeitpunkt anstoßen).

Sludge

Sludge. Reibung, die absichtlich oder unbeabsichtigt einem Prozess hinzugefügt wird und erwünschtes Verhalten entmutigt. Das Gegenteil eines Nudge.

Sludge ist Reibung, die erwünschtes Verhalten entmutigt. Sludge zu reduzieren ist oft so wirksam wie neue Nudges einzuführen.

Verhaltensökonomische Wohlfahrtsökonomik

Bernheim und Rangel (2009): Wohlfahrt anhand von Entscheidungen bewerten, die frei von Verhaltensverzerrungen sind — wenn Akteure gut informiert, aufmerksam und unverzerrt sind.


Standpunkt

'Libertarian paternalism is just paternalism with better PR' — Gilles Saint-Paul, The Tyranny of Utility

When Thaler and Sunstein published Nudge in 2008, it seemed like a policy cheat code: redesign defaults and people save more, eat better, donate organs — all without restricting choice. Governments loved it. The UK created a "Nudge Unit," and Obama hired Sunstein as regulatory czar. But the backlash was fierce. Gilles Saint-Paul called it "the tyranny of utility" — technocrats deciding what's good for you while pretending to respect your freedom. Op-eds called nudging "manipulation by the state." Is libertarian paternalism a brilliant synthesis, or a contradiction in terms?

Fortgeschritten

19.8 Behavioral Finance

Markteffizienz und ihre Herausforderer

Die Effizienzmarkthypothese besagt, dass Preise alle verfügbaren Informationen vollständig widerspiegeln. Behavioral Finance stellt dies in Frage: Viele Händler sind nicht rational, und rationale Arbitrageure unterliegen Grenzen.

Selbstüberschätzung und exzessiver Handel

Selbstüberschätzung erzeugt exzessiven Handel. Barber und Odean (2000): Die aktivsten Händler erzielten 6,5 Prozentpunkte weniger pro Jahr als die am wenigsten aktiven.

Der Dispositionseffekt

Dispositionseffekt. Die Tendenz, Gewinnerpositionen zu früh zu verkaufen und Verliererpositionen zu lange zu halten. Folgt aus der Prospect Theory: Gewinne liegen im konkaven (risikoaversen) Bereich, Verluste im konvexen (risikofreudigen) Bereich.

Der Referenzpunkt ist der Kaufpreis. Gewinne im konkaven Bereich (risikoavers, frühzeitig verkaufen); Verluste im konvexen Bereich (risikofreudig, halten).

Momentum- und Umkehr-Anomalien

Aktien performen über 3–12 Monate überdurchschnittlich (Momentum, Jegadeesh-Titman 1993) und über 3–5 Jahre unterdurchschnittlich (Umkehr, DeBondt-Thaler 1985).

Grenzen der Arbitrage

Grenzen der Arbitrage. Die Bedingungen, unter denen rationale Arbitrageure Fehlbewertungen nicht vollständig beseitigen können: Fundamentalrisiko, Noise-Trader-Risiko, Umsetzungskosten und Agency-Probleme.
Noise Trader. Ein Anleger, der auf Basis von Stimmungen statt fundamentaler Analyse handelt. Führt unvorhersehbare Preisverzerrungen ein. Im DSSW-Modell können Noise Trader überleben und sogar prosperieren.

Selbst rationale Händler können Fehlbewertungen möglicherweise nicht korrigieren: Noise-Trader-Risiko, Umsetzungskosten und Agency-Probleme schränken sie ein.

Das DSSW-Noise-Trader-Modell

$$p_t = f_t + \frac{\gamma \, \rho_t \, \mu_t}{1+r}$$ (Eq. 19.10)

DeLong, Shleifer, Summers und Waldmann (1990): Höheres $\mu$ drückt den Preis von den Fundamentaldaten weg; höheres $\rho$ verstärkt die Abweichung; höheres $\gamma$ (Risikoaversion der Arbitrageure) bedeutet weniger aggressiven Handel gegen die Fehlbewertung, sodass die Abweichung zunimmt.

Das Paradoxon: Noise Trader können höhere erwartete Renditen erzielen, indem sie das Risiko tragen, das sie selbst geschaffen haben.

Abbildung 19.8. DSSW-Noise-Trader-Modell. Noise-Trader-Stimmung drückt Preise von den Fundamentaldaten weg. Risikoaverse Arbitrageure können die Fehlbewertung nicht vollständig korrigieren. Ziehen Sie die Schieberegler.

Beispiel 19.6 — Noise-Trader-Preisbildung

Aufgabe. f = 100, ρ = 0,30, μ = 20 (bullisch), r = 0,05, γ = 2. (a) Gleichgewichtspreis berechnen. (b) Preisabweichung. (c) Was wenn γ = 0?

Lösung.

(a) p = 100 + (2 × 0,30 × 20)/1,05 = 100 + 12/1,05 = 100 + 11,43 = 111,43.

(b) Abweichung: p − f = 11,43. Der Vermögenswert ist überbewertet, da Noise Trader die Preise über die Fundamentaldaten treiben und risikoaverse Arbitrageure sie nicht vollständig ausgleichen.

(c) Mit γ = 0: p = 100 + 0 = 100. Risikoneutrale Arbitrageure handeln aggressiv genug, um die Fehlbewertung vollständig zu beseitigen. Die zentrale DSSW-Erkenntnis: Es ist die Risikoaversion der Arbitrageure (γ > 0), die es den durch Noise Trader verursachten Abweichungen ermöglicht, fortzubestehen.


Große Frage Nr. 4

Sind Menschen rational?

You now have prospect theory, present bias, social preferences, bounded rationality, and the DSSW noise trader model. This is the final stop — the question gets its resolution.

Was das Modell sagt

The behavioral case is now fully assembled. Prospect theory (Kahneman & Tversky 1979) provides a formal, testable alternative to expected utility: people evaluate outcomes relative to a reference point, are loss averse ($\lambda \approx 2.25$), and overweight small probabilities. Present bias ($\beta\delta$ discounting, Laibson 1997) explains procrastination, undersaving, and time inconsistency — people discount the immediate future far more heavily than the distant future. Social preferences (Fehr-Schmidt inequality aversion) explain cooperation and punishment in settings where pure self-interest predicts defection. Bounded rationality (Gabaix sparse maximization) formalizes the idea that attention is scarce and people optimize over a simplified model of the world. These are not isolated anecdotes — they are systematic, replicable, and survive high stakes. The violations of the rationality axioms documented at Stop 2 (Chapter 11) now have formal alternative models that fit the data better than expected utility theory does.

Das stärkste Gegenargument

Two powerful counterarguments survive the behavioral onslaught. First, ecological rationality (Gigerenzer): heuristics aren't biases — they're efficient adaptations to real-world environments with limited time and information. "Fast and frugal" heuristics often outperform full optimization in realistic settings with noisy data. The lab results that document "biases" may be artifacts of artificial environments that strip away the ecological context in which human cognition evolved to perform well. If the environment is uncertain enough, ignoring information can be optimal, not irrational. Second, market discipline: even if individuals are biased, competitive markets may aggregate away individual errors. Firms run by irrational managers get outcompeted. Consumers who systematically overpay get educated by experience. The "as if" defense — markets behave as if agents are rational, regardless of what happens inside their heads — remains a serious position, particularly for competitive product markets where entry is easy and feedback is fast.

Wie der Mainstream reagiert hat

Behavioral finance provided the critical test — and the "as if" defense failed in the one market where it should have been strongest. The DSSW noise trader model (1990) showed that irrational traders can survive and move prices because arbitrage is risky and limited. Shleifer and Vishny (1997) established the "limits to arbitrage": even sophisticated arbitrageurs face short-selling costs, margin calls, and career risk — they can't fully correct mispricings caused by noise traders. The equity premium puzzle, excess volatility, and momentum anomalies all persist despite decades of sophisticated arbitrage. If biases survive in financial markets — where information travels fastest, stakes are highest, and the smartest capital competes — the "as if" defense cannot be a general principle. The mainstream absorbed behavioral economics not by rejecting rational choice but by enriching it: prospect theory is now standard in finance, $\beta\delta$ preferences are standard in macro, and mechanism design increasingly incorporates behavioral agents.

Die Beurteilung (auf diesem Niveau)

People are not fully rational in the way the axioms require — the evidence is overwhelming and no longer seriously contested. The more important question is whether it matters for aggregate outcomes, and the answer is domain-specific. In financial markets: yes, biases survive and move prices, because limits to arbitrage are real and persistent. In consumer markets: sometimes — defaults and framing have large, durable effects on retirement saving, organ donation, and energy use. In competitive product markets: less clear — competition, entry, and experience may discipline many biases over time. The honest resolution is that "are people rational?" was the wrong question all along. Rationality is not binary. The right question is: when does irrationality matter for aggregate outcomes, and when does the market machinery wash it out? The answer depends on the specific market, the specific bias, and the specific institutional context. Behavioral economics didn't overthrow rational choice — it drew the map of where rational choice works, where it breaks, and what to use instead.

Was Sie noch nicht klären können

This is the final stop on BQ #4. The arc ran from the rationality assumption as a modeling tool (Ch 1), through its formalization and testable axioms (Ch 11), to the full behavioral challenge and its market test (here). The hardest unresolved question is about policy: if people are biased, should the government correct their choices? Nudge theory says yes, gently — libertarian paternalism. But the premise (systematic irrationality) may undermine the conclusion (people can be trusted to opt out). The "who nudges the nudgers?" problem has no clean answer — government regulators are themselves subject to the same biases they seek to correct. And the frontier keeps moving: neuroeconomics, computational models of bounded rationality, and machine learning approaches to preference estimation are reshaping what "rationality" even means in the 21st century.

Verwandte Standpunkte

Standpunkt

'Libertarian paternalism is just paternalism with better PR' — Gilles Saint-Paul, The Tyranny of Utility

Nudges work. But who decides what "better" means, and where does intervention stop? The internal logic of behavioral economics points toward hard paternalism, not the gentle kind.

Fortgeschritten
Standpunkt

"Every billionaire is a policy failure" — viral slogan, popularized by Dan Riffle / AOC's office

Dan Riffle popularized the slogan in 2019. The welfare theorems say competitive equilibria are efficient — but many billionaire fortunes arise from market power, not competition. Behavioral economics adds another layer: fairness norms shape what people tolerate.

Fortgeschritten
← Previous: Ch 11 — Rationality axiomatized Stop 3 of 3 — Final This question is now fully explored.
Große Frage Nr. 4

Sind Menschen rational?

BQ #4 reaches its verdict — biases are real, but do they survive markets? Prospect theory, present bias, and noise traders give the answer: rationality is a spectrum, and the question was wrong all along. It's not "are they rational" but "when does irrationality matter for aggregate outcomes?"

Explore this question →

Leitbeispiel: Mayas Unternehmen

Maya legte als Sommeraktion zu jedem Limonadenverkauf einen kostenlosen Keks bei. Der Umsatz stieg moderat — um 8 %. Als Maya den kostenlosen Keks wieder streicht (Rückkehr zum ursprünglichen Preis), ist die Gegenreaktion der Kunden unverhältnismäßig: Beschwerden, negative Bewertungen, verlorene Stammkunden. Der Umsatz sinkt um 15 % — unter das Ausgangsniveau vor der Aktion.

Prospect-Theory-Analyse. Während der Aktion hat sich der Referenzpunkt der Kunden von “Limonade” zu “Limonade + Keks” verschoben. Der Gewinn durch den Keks betrug $v(+\text{Keks}) = (\text{Kekswert})^{0{,}88}$. Aber der Verlust durch das Entfernen beträgt $v(-\text{Keks}) = -2{,}25 \times (\text{Kekswert})^{0{,}88}$. Der empfundene Verlust ist 2,25-mal so groß wie der ursprüngliche Gewinn. Die Aktion war eine Einbahnstraße: leicht zu geben, schmerzhaft wegzunehmen.

Maya entwirft ein Nudge-Experiment. Für ihr Treueprogramm testet Maya zwei Anmeldedesigns als Feldexperiment: Behandlung A (Opt-in): Kunden können sich an der Theke anmelden. Behandlung B (Opt-out): Jeder Kunde bekommt automatisch eine Karte; er kann ablehnen. Mit Gl. 19.9 und $v = 3$, $\sigma = 2$, $k = 2$: Opt-in $P = \Phi(0{,}5) = 0{,}69$; Opt-out $P = \Phi(1{,}5) = 0{,}93$. Mayas Feldexperiment bestätigt die Vorhersage. Sie wechselt für den vollständigen Rollout zu Opt-out.

Historische Perspektive

Kahneman und Tversky (1979). “Prospect Theory: An Analysis of Decision under Risk” ist einer der meistzitierten Aufsätze in der Ökonomik. Veröffentlicht in Econometrica, formalisierte er experimentelle Befunde zu einem kohärenten mathematischen Rahmenwerk. Kahneman erhielt 2002 den Nobelpreis; Tversky war 1996 verstorben.

Maurice Allais (1953). Der französische Ökonom präsentierte sein Paradoxon direkt Leonard Savage. Der Legende nach fiel Savage selbst in das Allais-Muster. Allais erhielt 1988 den Nobelpreis.

Richard Thaler (Nobelpreis 2017). Thalers “Anomalies”-Kolumne katalogisierte systematisch Verhaltensabweichungen. Sein 2008 erschienenes Buch Nudge (mit Sunstein) brachte verhaltensökonomische Erkenntnisse in die Politik und führte weltweit zu “Nudge Units”.

David Laibson (1997). “Golden Eggs and Hyperbolic Discounting” formalisierte das Beta-Delta-Modell und erklärte, warum Menschen gleichzeitig Kreditkartenschulden bei 18 % Zinsen und illiquide Ersparnisse bei 5 % halten.

Shleifer und Vishny (1997). “The Limits of Arbitrage” zeigte, warum rationale Händler Fehlbewertungen nicht beseitigen können, wenn sie fremdes Geld verwalten und Kapitalbeschränkungen unterliegen.

Zusammenfassung

  1. Verletzungen des Erwartungsnutzens. Das Allais-Paradoxon (Sicherheitseffekt) und das Ellsberg-Paradoxon (Ambiguitätsaversion) zeigen, dass EU-Axiome deskriptiv versagen.
  2. Prospect Theory. Die Alternative von Kahneman und Tversky weist Referenzpunktabhängigkeit, Verlustaversion ($\lambda \approx 2{,}25$), abnehmende Sensitivität und Wahrscheinlichkeitsgewichtung auf. Das vierfache Muster erklärt gleichzeitigen Lotteriescheinkauf und Versicherungsabschluss.
  3. Gegenwartspräferenz. Das quasi-hyperbolische Modell ($\beta < 1$) erfasst ein überproportionales Gewicht auf sofortige Auszahlungen, was Zeitinkonsistenz, Aufschiebeverhalten und Nachfrage nach Selbstbindungsinstrumenten erzeugt.
  4. Soziale Präferenzen. Fehr-Schmidt-Ungleichheitsaversion erklärt die Ablehnung unfairer Angebote, positives Geben in Diktatorspielen und bedingte Kooperation.
  5. Begrenzte Rationalität. Heuristiken (Repräsentativität, Verfügbarkeit, Verankerung) erzeugen systematische Verzerrungen. Gabaix' sparsame Maximierung formalisiert begrenzte Rationalität als optimale Aufmerksamkeitsallokation.
  6. Experimentelle Methodik. Laborexperimente bieten interne Validität; Feldexperimente bieten externe Validität. Die Replikationskrise hat Vorregistrierung und strengere Standards vorangetrieben.
  7. Nudge-Theorie. Entscheidungsarchitektur ist unvermeidlich; libertärer Paternalismus nutzt Defaults, Framing und Vereinfachung zur Wohlfahrtssteigerung, ohne die Wahlfreiheit einzuschränken. Das EAST-Rahmenwerk operationalisiert dies.
  8. Behavioral Finance. Selbstüberschätzung treibt exzessiven Handel. Der Dispositionseffekt folgt aus der Prospect Theory. Grenzen der Arbitrage (Shleifer-Vishny) und Noise-Trader-Risiko (DSSW) erklären, warum Fehlbewertungen bestehen bleiben.

Wichtige Gleichungen

BezeichnungGleichungBeschreibung
Gl. 19.1$EU(L) = \sum p_i u(x_i)$Erwartungsnutzen
Gl. 19.2$v(x) = x^\alpha$ (Gewinne), $-\lambda(-x)^\beta$ (Verluste)Prospect-Theory-Wertfunktion
Gl. 19.3$w(p) = p^\delta / (p^\delta + (1-p)^\delta)^{1/\delta}$Tversky-Kahneman-Wahrscheinlichkeitsgewichtung
Gl. 19.4$V(L) = \sum w(p_i) v(x_i - r)$Prospect-Theory-Bewertung
Gl. 19.5$U_0 = u(c_0) + \beta \sum \delta^t u(c_t)$Quasi-hyperbolisches Diskontieren
Gl. 19.6$\beta\delta u'(c_1) = u'(c_0) \neq \delta u'(c_1)$Zeitinkonsistenz
Gl. 19.7$U_i = x_i - \alpha_i \max(x_j-x_i,0) - \beta_i \max(x_i-x_j,0)$Fehr-Schmidt-Ungleichheitsaversion
Gl. 19.8$\max u(c) - \theta\|m\|_1$ s.t. $p \cdot c \leq w$Gabaix — sparsame Maximierung
Gl. 19.9$P_{\text{enroll}} = \Phi((v - k(1-d))/\sigma)$Default-sensitive Teilnahme
Gl. 19.10$p_t = f_t + \gamma \rho_t \mu_t / (1+r)$DSSW-Noise-Trader-Preisbildung

Übung

  1. Eine Lotterie zahlt $+\$500$ mit Wahrscheinlichkeit 0,6 und $-\$300$ mit Wahrscheinlichkeit 0,4. Berechnen Sie die Bewertung unter (a) Erwartungsnutzen mit $u(x) = \ln(W+x)$, $W = 10{,}000$, und (b) Prospect Theory mit $\alpha = \beta = 0{,}88$, $\lambda = 2{,}25$, $\delta = 0{,}65$. Akzeptiert oder lehnt der Akteur unter jedem Modell ab?
  2. Beweisen Sie algebraisch, dass das Wahlmuster $\{1A, 2B\}$ im Allais-Paradoxon das Unabhängigkeitsaxiom verletzt. Schreiben Sie den Erwartungsnutzen jedes Glücksspiels in Form einer allgemeinen $u(\cdot)$ und zeigen Sie, dass kein $u$ beide Präferenzen rationalisieren kann.
  3. Ein Akteur hat $\beta = 0{,}8$, $\delta = 0{,}90$. Vergleichen Sie den Barwert des Erhalts von \$100 bei $t = 3$ unter (a) Beta-Delta- und (b) exponentiellem Diskontieren. Um wieviel Prozent reduziert die Gegenwartspräferenz den wahrgenommenen Wert?
  4. In einem \$200-Ultimatumspiel hat der Antwortende $\alpha_R = 1{,}5$, $\beta_R = 0{,}4$. Berechnen Sie das minimal akzeptable Angebot $s^*$. Welcher Anteil am Gesamtbetrag ist dies?

Anwendung

  1. Erklären Sie mithilfe der Prospect Theory, warum dieselbe Person Lotterielose kauft und Versicherungen abschließt (das vierfache Muster). Berechnen Sie die subjektiven Bewertungen von: (a) einem \$5-Lotterielos mit 1:10.000-Chance auf \$50.000 und (b) einer \$200/Jahr-Versicherung gegen eine 1:10.000-Chance, \$500.000 zu verlieren. Verwenden Sie Standardparameter.
  2. Ein gegenwartspräferenter Student ($\beta = 0{,}6$, $\delta = 0{,}95$) hat drei Hausaufgaben fällig an den Tagen 1, 2, 3. Jede kostet 4 Nutzeneinheiten und bringt 8. Bestimmen Sie mithilfe der Rückwärtsinduktion für den sophistizierten Akteur den Arbeitsplan. Vergleichen Sie mit dem naiven Akteur.
  3. Berechnen Sie Opt-in- vs. Opt-out-Teilnahmeraten mit Gl. 19.9 bei $v=2$, $\sigma=3$, $k=4$. Wie groß ist die Teilnahmelücke? Wenn es 5.000 Mitarbeiter gibt, wie viele zusätzliche Teilnehmer ergeben sich durch den Wechsel zu Opt-out?
  4. Im DSSW-Modell mit $f = 50$, $\rho = 0{,}20$, $\mu = 10$, $r = 0{,}04$: Berechnen Sie den Gleichgewichtspreis für $\gamma = 1$, $\gamma = 3$, $\gamma = 10$. Was passiert mit der Abweichung, wenn die Risikoaversion steigt?

Herausforderung

  1. Leiten Sie den Dispositionseffekt mithilfe der Prospect Theory her. Ein Anleger kaufte bei $P_0 = 50$. Die Aktie steht bei $P_1 = 70$ (Gewinn) oder $P_1 = 30$ (Verlust). Jede kann mit gleicher Wahrscheinlichkeit um \$10 steigen oder fallen. Berechnen Sie den Nutzen von Verkaufen vs. Halten für jeden Fall. Zeigen Sie, dass der Anleger den Gewinner verkauft und den Verlierer hält.
  2. Ein Planer erwägt eine obligatorische Selbstbindung (illiquide Ersparnisse, die 20 % des Einkommens binden). Population: 60 % haben $\beta = 1$, 40 % haben $\beta = 0{,}6$. Alle haben $\delta = 0{,}95$, logarithmischen Nutzen. (a) Wohlfahrtsänderung für jeden Typ. (b) Wann senkt das Mandat die Gesamtwohlfahrt? (c) Warum könnte Opt-in besser sein?
  3. Wenden Sie Gabaix' sparsame Maximierung auf $n=3$ Güter an mit $p_1 = 10$, $p_2 = 10{,}50$, $p_3 = 50$, Default $\bar{p} = 10$, $\theta = 0{,}5$, Cobb-Douglas-Nutzen, Vermögen $w = 100$. (a) Welche Dimensionen erhalten Aufmerksamkeit? (b) Nachfrage bei voller vs. sparsamer Aufmerksamkeit. (c) Warum gibt der Konsument zu viel für Gut 3 aus?
  4. Zeigen Sie, dass DSSW-Noise-Trader höhere erwartete Renditen erzielen können als Arbitrageure. Mit mittlerer Fehleinschätzung $\mu > 0$ und Varianz $\sigma_\mu^2$: (a) Leiten Sie die erwartete Überrendite her; (b) zeigen Sie die Bedingung, unter der Noise Trader besser abschneiden; (c) erklären Sie das Paradoxon.