Jedes Modell in diesem Buch hat rationale Akteure angenommen — Konsumenten, die den Erwartungsnutzen maximieren, Unternehmen, die Kosten minimieren, Händler mit konsistenten Zeitpräferenzen und korrekten Überzeugungen. Diese Annahmen sind mächtig: Sie liefern scharfe Vorhersagen, elegante Wohlfahrtstheoreme und elegante Mathematik. Aber stimmen sie?
Dieses Kapitel konfrontiert die Evidenz. Die Verhaltensökonomik dokumentiert vorhersagbare, systematische Abweichungen vom rationalen Standardmodell. Dies sind keine zufälligen Fehler, die sich in der Aggregation aufheben — es sind gemusterte Verzerrungen, die Wiederholung, Anreize und sogar Expertise überleben.
Wir beginnen mit den Rissen in der Erwartungsnutzentheorie — dem Allais- und dem Ellsberg-Paradoxon — und arbeiten uns zur Prospect Theory vor, der führenden deskriptiven Alternative. Dann untersuchen wir intertemporale Entscheidungen unter Gegenwartspräferenz, soziale Präferenzen, die reines Eigeninteresse verletzen, begrenzte Rationalität und Heuristiken, experimentelle Methodik, Nudge-Theorie und Behavioral Finance. Durchgehend ist der Ansatz formal: Wir stellen Nutzenfunktionen auf, leiten Vorhersagen ab und testen sie an Daten.
Voraussetzungen: Erwartungsnutzentheorie (Kap. 6), Spieltheorie (Kap. 7), Konsumtheorie (Kap. 6/10), Ökonometrie-Grundlagen (Kap. 9), Vertrautheit mit Mechanismusdesign (Kap. 11).
Genannte Literatur: Kahneman & Tversky (1979); Tversky & Kahneman (1992); Thaler (1980, 2015); Laibson (1997); Fehr & Schmidt (1999); Gabaix (2014); Shleifer & Vishny (1997); DeLong, Shleifer, Summers & Waldmann (1990).
Erinnern Sie sich aus Kapitel 6, dass unter den Axiomen der Vollständigkeit, Transitivität, Stetigkeit und dem Unabhängigkeitsaxiom Präferenzen über Lotterien durch den Erwartungsnutzen dargestellt werden können:
Unabhängigkeit ist elegant und normativ ansprechend. Sie besagt, dass Ihre Präferenz zwischen zwei Glücksspielen nicht durch eine irrelevante gemeinsame Komponente beeinflusst werden sollte. Aber wie Maurice Allais 1953 zeigte, verletzen die meisten Menschen sie konsistent.
Betrachten Sie zwei Lotteriepaare:
Paar 1: Glücksspiel 1A: \$1M mit Sicherheit. Glücksspiel 1B: \$5M mit Wahrsch. 0,10, \$1M mit Wahrsch. 0,89, \$0 mit Wahrsch. 0,01.
Paar 2: Glücksspiel 2A: \$1M mit Wahrsch. 0,11, \$0 mit Wahrsch. 0,89. Glücksspiel 2B: \$5M mit Wahrsch. 0,10, \$0 mit Wahrsch. 0,90.
Das modale Muster: Die meisten Menschen wählen 1A gegenüber 1B und 2B gegenüber 2A. Diese gemeinsame Wahl $\{1A, 2B\}$ verletzt das Unabhängigkeitsaxiom.
Nach dem Unabhängigkeitsaxiom sollte das Ersetzen der gemeinsamen Konsequenz (\$1M in Paar 1, \$0 in Paar 2) die Rangordnung nicht ändern. Wenn \$1A \succ 1B$, dann \$1A \succ 2B$. Die Umkehr enthüllt einen Sicherheitseffekt.
Betrachten Sie eine Urne mit 30 roten Kugeln und 60 Kugeln, die schwarz oder gelb sind in unbekannten Proportionen. Glücksspiel A: Gewinn \$100 bei Rot (Wahrsch. 1/3, bekannt). Glücksspiel B: Gewinn \$100 bei Schwarz (Wahrsch. unbekannt). Die meisten wählen A.
Aber dann: Glücksspiel C: Gewinn \$100 bei Rot oder Gelb. Glücksspiel D: Gewinn \$100 bei Schwarz oder Gelb. Die meisten wählen D. Unter EU erfordert $A \succ B$, dass $C \succ D$. Die gemeinsame Wahl $\{A, D\}$ verletzt das Sure-Thing-Prinzip.
Diese Paradoxien enthüllen, dass das Unabhängigkeitsaxiom deskriptiv versagt. Wir brauchen eine Theorie, die diese Verletzungen berücksichtigt.
Abbildung 19.3. Allais-Paradoxon-Detektor. Wählen Sie Ihr bevorzugtes Glücksspiel in jedem Paar und prüfen Sie dann, ob Ihre Entscheidungen das Unabhängigkeitsaxiom verletzen.
Pair 1
Pair 2
Aufgabe. Zwei Lotteriepaare. Annahme: CRRA-Nutzenfunktion u(x) = x^{0,5} (x in Millionen). (a) Berechnen Sie den EU jeder Lotterie. (b) Welche empfiehlt EU? (c) Zeigen Sie, dass {1A, 2B} die Unabhängigkeit verletzt.
Lösung.
(a) EU(1A) = 1,0 × 1^{0,5} = 1,000. EU(1B) = 0,89(1) + 0,10(2,236) + 0,01(0) = 1,1136. EU(2A) = 0,11(1) = 0,11. EU(2B) = 0,10(2,236) = 0,2236.
(b) EU empfiehlt 1B (1,114 > 1,000) und 2B (0,224 > 0,110). EU-konsistente Paare: {1A, 2A} oder {1B, 2B}.
(c) 1A ≻ 1B erfordert 1,11 u(1) > 0,10 u(5) + 0,01 u(0). 1B ≻ 2A erfordert 1,10 u(5) + 0,01 u(0) > 0,11 u(1). Diese stehen im direkten Widerspruch. Keine u(·) kann beide gleichzeitig erfüllen.
Kahneman und Tversky (1979) schlugen die Prospect Theory als deskriptive Alternative vor, später verfeinert als kumulative Prospect Theory (1992). Sie modifiziert EU in vier Weisen: Referenzpunktabhängigkeit, Verlustaversion, abnehmende Sensitivität und Wahrscheinlichkeitsgewichtung.
Die Wertfunktion ersetzt $u(x)$, definiert über Endvermögen, durch $v(x)$, definiert über Gewinne und Verluste relativ zu einem Referenzpunkt:
Die von Tversky und Kahneman (1992) geschätzten Parameter sind $\alpha = \beta = 0{,}88$ und $\lambda = 2{,}25$.
Drei Eigenschaften: (1) Referenzpunktabhängigkeit — Ergebnisse werden als Gewinne oder Verluste relativ zu $r$ kodiert. (2) Abnehmende Sensitivität — $\alpha, \beta < 1$ ergibt Konkavität für Gewinne und Konvexität für Verluste. (3) Verlustaversion — $\lambda > 1$ macht die Wertfunktion für Verluste steiler.
Abbildung 19.1. Prospect-Theory-Wertfunktion. Die S-förmige Kurve ist konkav für Gewinne und konvex für Verluste, mit steilerer Steigung für Verluste (Verlustaversion). Bei $\alpha = \beta = \lambda = 1$ kollabiert sie zur Linearen (EU). Ziehen Sie die Schieberegler zum Erkunden.
Der Tversky-Kahneman (1992) Parameter $\delta \approx 0{,}65$. Wenn $\delta = 1$, $w(p) = p$ (EU). Wenn $\delta < 1$, übergewichtet die Funktion kleine Wahrscheinlichkeiten und untergewichtet große. Kreuzungspunkt bei $p \approx 0{,}37$.
Abbildung 19.2. Tversky-Kahneman (1992) Wahrscheinlichkeitsgewichtungsfunktion. Die inverse S-Kurve übergewichtet kleine Wahrscheinlichkeiten und untergewichtet große. Bei $\delta = 1$ kollabiert sie zur 45-Grad-Linie (EU). Ziehen Sie den Schieberegler.
Hinweis: Dies ist die ursprüngliche Prospect-Theory-Formulierung (Kahneman & Tversky, 1979), die Entscheidungsgewichte auf einzelne Wahrscheinlichkeiten anwendet. Die kumulative Prospect Theory (Tversky & Kahneman, 1992) wendet Entscheidungsgewichte auf kumulative Wahrscheinlichkeiten geordneter Ergebnisse an und behebt bestimmte Anomalien wie Verletzungen der stochastischen Dominanz.
Das vierfache Muster: kleines $p$ + Gewinne = Risikofreude (Lotterien); kleines $p$ + Verluste = Risikoaversion (Versicherungen); großes $p$ + Gewinne = Risikoaversion (Sicherheitseffekt); großes $p$ + Verluste = Risikofreude (verzweifeltes Spielen).
Aufgabe. Ein Spiel bietet +\$1.000 mit Wahrsch. 0,5 und −\$800 mit Wahrsch. 0,5. Referenzpunkt r = 0. (a) Sicherheitsäquivalent unter EU mit CRRA u(x) = x^{0,5}, W = \$10.000. (b) PT-Bewertung mit Standardparametern. (c) Warum kehrt die Verlustaversion die Bewertung um?
Lösung.
(a) EU = 0,5(11.000)^{0,5} + 0,5(9.200)^{0,5} = 0,5(104,88) + 0,5(95,92) = 100,40. SÄ: \$100,40^2 = 10.080$. SÄ-Änderung = +80,2. Agent akzeptiert.
(b) v(+1000) = 1000^{0,88} = 436,5. v(−800) = −2,25 × 800^{0,88} = −2,25 × 358,7 = −807,1. Mit w(0,5) ≈ 0,439: V = 0,439(436,5) + 0,439(−807,1) = −162,6. Agent lehnt ab.
(c) Die Verlustaversion (λ = 2,25) lässt den \$800-Verlust weitaus schwerer wiegen als den \$1.000-Gewinn und kehrt so die Bewertung um.
Die Standardtheorie nimmt exponentielles Diskontieren mit Diskontfaktor $\delta \in (0,1)$ an. Die Schlüsseleigenschaft ist Zeitkonsistenz: Ein bei $t=0$ gemachter Plan bleibt zu jedem zukünftigen Zeitpunkt optimal.
Experimentelle Evidenz lehnt konstantes Diskontieren überwältigend ab. Menschen zeigen abnehmende Ungeduld: Die Diskontrate zwischen heute und morgen ist viel höher als zwischen Tag 100 und Tag 101.
Die quasi-hyperbolischen Diskontfaktoren sind $\{1, \beta\delta, \beta\delta^2, \ldots\}$. Die unmittelbare Periode erhält Gewicht 1, aber alle zukünftigen Perioden werden zusätzlich mit $\beta$ diskontiert. Wenn $\beta < 1$, gibt es einen diskreten Abfall zwischen “jetzt” und “der Zukunft”.
Bei $t=0$ ist die Bedingung erster Ordnung für $c_1$: $\beta\delta u'(c_1) = u'(c_0)$. Bei $t=1$ ergibt die Neuoptimierung $u'(c_1) = \beta\delta u'(c_2)$. Das $\beta$ hat sich verschoben — der Plan ist zeitinkonsistent.
Ein naiver Akteur schiebt unbegrenzt auf. Ein sophistizierter Akteur verwendet Rückwärtsinduktion und kann Selbstbindungsinstrumente einsetzen.
Abbildung 19.4. Beta-Delta-Diskontierungs-Explorer. Der naive Akteur verschiebt ständig; der sophistizierte Akteur verwendet Rückwärtsinduktion. Bei $\beta = 1$ kollabieren alle Linien (keine Gegenwartspräferenz). Ziehen Sie die Schieberegler.
Aufgabe. Ein Student muss ein Projekt fertigstellen. Kosten heute = 6 Nutzeneinheiten, Nutzen in 2 Perioden = 10 Nutzeneinheiten. β = 0,7, δ = 0,95, 5 Perioden. (a) Wann handelt ein naiver Agent? (b) Ein sophistizierter Agent?
Lösung.
(a) Naiv: In jeder Periode t, Nettonutzen des sofortigen Handelns = −6 + 0,7 × 0,95² × 10 = −6 + 6,32 = +0,32. Wahrgenommener Nettonutzen des Wartens = 0,7 × 0,95 × (−6) + 0,7 × 0,95³ × 10 = −3,99 + 6,00 = +2,01. Da 2,01 > 0,32, verschiebt er immer. Prokrastiniert bis zur Frist.
(b) Sophistiziert: Rückwärtsinduktion. Bei t = 2 (letzte mögliche Periode), Nettonutzen = +0,32 > 0, also handelt das Selbst bei t=2. Bei t = 1: Nettonutzen jetzt = +0,32, Nettonutzen des Wartens auf t=2 = +2,01 > 0,32, also wartet. Bei t = 0: ebenso, wartet. Der sophistizierte Agent handelt bei t = 2 — früher als die Frist des naiven Agenten.
Aufgabe. Agent mit β = 0,7, δ = 0,95, logarithmischem Nutzen, Einkommen Y = 100 über 3 Perioden. (a) Sparen ohne Bindung. (b) Mit Bindung. (c) Wohlfahrtsgewinn.
Lösung.
(a) Ohne Bindung: t=0 teilt c₀ = 100/(1+0,665+0,632) = 43,54, verbleibend 56,46. Bei t=1 Re-Optimierung: c₁ = 56,46/1,665 = 33,91, c₂ = 22,55.
(b) Mit Bindung: c₁ = 0,665 × 100/2,297 = 28,95, c₂ = 0,632 × 100/2,297 = 27,51.
(c) Ohne: U = 3,774 + 2,344 + 1,967 = 8,085. Mit: U = 3,774 + 2,237 + 2,095 = 8,106. Gewinn = 0,020 Nutzeneinheiten. Der gebundene Agent erreicht einen glatteren Konsumpfad.
Jahrzehnte experimenteller Evidenz zeigen, dass Menschen systematisch vom reinen Eigeninteresse abweichen: Sie lehnen unfaire Angebote ab, geben an Fremde, kooperieren in Einmalspielen und bestrafen Trittbrettfahrer.
Die Beschränkungen $\alpha_i \geq \beta_i$ und $\beta_i < 1$ sind empirisch motiviert: Neid schmerzt mehr als Schuld, und niemand vernichtet Geld nur zur Gleichstellung.
Im Ultimatumspiel erfüllt das minimal akzeptable Angebot $s^*$ die Bedingung $s - \alpha_R(100-2s) \geq 0$, was $s^* = 100\alpha_R / (1+2\alpha_R)$ ergibt. Für $\alpha_R = 2$: $s^* = 40$.
Abbildung 19.6. Fehr-Schmidt-Ungleichheitsaversion. Höheres $\alpha$ (Neid) erhöht das minimal akzeptable Angebot. Bei $\alpha = \beta = 0$ gilt die Standardtheorie: Jedes positive Angebot wird akzeptiert. Ziehen Sie die Schieberegler.
Abbildung 19.5. Ultimatumspiel-Simulator. Spielen Sie als Antragsteller gegen verschiedene Antwortstrategien. Verfolgen Sie Ihre Erträge über die Runden.
In Diktatorspielen beträgt die durchschnittliche Zuteilung 20–30 %. In öffentlichen-Güter-Spielen hält die Einführung von Bestrafung die Kooperation aufrecht.
Aufgabe. Ultimatumspiel mit \$100. Anbieter: α_P = 0,5, β_P = 0,3. Antwortender: α_R = 2,0, β_R = 0,6. (a) Minimales akzeptables Angebot. (b) Optimales Angebot. (c) Vergleich mit Standard-Nash.
Lösung.
(a) U_R = s − 2,0(100−2s) = 5s − 200 ≥ 0 ⇒ s* = 40.
(b) U_P = (100−s) − 0,3(100−2s) = 70 − 0,4s, fallend in s. Minimiere s unter s ≥ 40: optimales Angebot s* = 40. U_P = 54, U_R = 0.
(c) Standardpräferenzen (α = β = 0): Angebot \$1, akzeptiert. Fehr-Schmidt: Angebot \$40. Viel näher an den experimentellen Modalangeboten von 40-50 %.
Herbert Simon (1955) argumentierte, dass Akteure satisfizieren statt optimieren: Sie suchen, bis sie eine akzeptable Option finden, und hören dann auf.
Tversky und Kahneman (1974) identifizierten drei Kernheuristiken: Repräsentativität (Wahrscheinlichkeit nach Ähnlichkeit beurteilen), Verfügbarkeit (Häufigkeit nach Leichtigkeit des Erinnerns schätzen) und Verankerung (unzureichende Anpassung von einem Anfangswert).
Gabaix (2014) formalisierte begrenzte Rationalität als Optimierungsproblem: Akteure maximieren den Nutzen abzüglich Aufmerksamkeitskosten $\theta$ pro Dimension. Der Akteur nimmt wahr $\hat{p}_k = \bar{p}_k + m_k(p_k - \bar{p}_k)$.
Laborexperimente bieten reale monetäre Anreize, Randomisierung und Kontrolle. Stärke: interne Validität. Schwäche: externe Validität.
Feldexperimente betten Manipulationen in reale Umgebungen ein: natürliches Verhalten, kein Bewusstsein, große Skala. Zielkonflikt: weniger Kontrolle für mehr Realismus.
Nachfrageeffekte: Probanden können ihr Verhalten ändern, weil sie wissen, dass sie beobachtet werden, oder die Absicht des Experimentators erraten. Die Täuschungsdebatte: Die Ökonomik hat eine starke Norm gegen Täuschung, anders als die Psychologie.
Die Replikationskrise: Nur 36 % der Psychologiestudien replizierten (Open Science Collaboration, 2015); die Ökonomik liegt höher (~60 %), ist aber dennoch besorgniserregend. Vorregistrierung adressiert P-Hacking und Publikationsverzerrung.
Wenn Entscheidungen von Framing und Defaults abhängen, dann ist Entscheidungsarchitektur — die Art, wie Entscheidungen präsentiert werden — relevant.
Der mächtigste Nudge ist der Default. Organspende: 15–20 % in Opt-in-Ländern, 85–99 % in Opt-out-Ländern. Altersvorsorge-Teilnahme springt von ~50 % auf über 90 % mit Opt-out.
Bei Opt-in ($d=0$): $P = \Phi((v-k)/\sigma)$. Bei Opt-out ($d=1$): $P = \Phi(v/\sigma)$. Die Lücke ist am größten, wenn $v$ positiv, aber moderat ist und $k/\sigma$ nicht trivial.
Abbildung 19.7. Default-Effekt-Simulator. Höhere Wechselkosten vergrößern die Lücke zwischen Opt-in- und Opt-out-Teilnahme. Bei $k = 0$ spielt der Default keine Rolle. Ziehen Sie den Schieberegler.
Das EAST-Rahmenwerk: Easy (Reibung reduzieren), Attractive (auffällig machen), Social (Normen nutzen), Timely (zum richtigen Zeitpunkt anstoßen).
Sludge ist Reibung, die erwünschtes Verhalten entmutigt. Sludge zu reduzieren ist oft so wirksam wie neue Nudges einzuführen.
Bernheim und Rangel (2009): Wohlfahrt anhand von Entscheidungen bewerten, die frei von Verhaltensverzerrungen sind — wenn Akteure gut informiert, aufmerksam und unverzerrt sind.
When Thaler and Sunstein published Nudge in 2008, it seemed like a policy cheat code: redesign defaults and people save more, eat better, donate organs — all without restricting choice. Governments loved it. The UK created a "Nudge Unit," and Obama hired Sunstein as regulatory czar. But the backlash was fierce. Gilles Saint-Paul called it "the tyranny of utility" — technocrats deciding what's good for you while pretending to respect your freedom. Op-eds called nudging "manipulation by the state." Is libertarian paternalism a brilliant synthesis, or a contradiction in terms?
FortgeschrittenDie Effizienzmarkthypothese besagt, dass Preise alle verfügbaren Informationen vollständig widerspiegeln. Behavioral Finance stellt dies in Frage: Viele Händler sind nicht rational, und rationale Arbitrageure unterliegen Grenzen.
Selbstüberschätzung erzeugt exzessiven Handel. Barber und Odean (2000): Die aktivsten Händler erzielten 6,5 Prozentpunkte weniger pro Jahr als die am wenigsten aktiven.
Der Referenzpunkt ist der Kaufpreis. Gewinne im konkaven Bereich (risikoavers, frühzeitig verkaufen); Verluste im konvexen Bereich (risikofreudig, halten).
Aktien performen über 3–12 Monate überdurchschnittlich (Momentum, Jegadeesh-Titman 1993) und über 3–5 Jahre unterdurchschnittlich (Umkehr, DeBondt-Thaler 1985).
Selbst rationale Händler können Fehlbewertungen möglicherweise nicht korrigieren: Noise-Trader-Risiko, Umsetzungskosten und Agency-Probleme schränken sie ein.
DeLong, Shleifer, Summers und Waldmann (1990): Höheres $\mu$ drückt den Preis von den Fundamentaldaten weg; höheres $\rho$ verstärkt die Abweichung; höheres $\gamma$ (Risikoaversion der Arbitrageure) bedeutet weniger aggressiven Handel gegen die Fehlbewertung, sodass die Abweichung zunimmt.
Das Paradoxon: Noise Trader können höhere erwartete Renditen erzielen, indem sie das Risiko tragen, das sie selbst geschaffen haben.
Abbildung 19.8. DSSW-Noise-Trader-Modell. Noise-Trader-Stimmung drückt Preise von den Fundamentaldaten weg. Risikoaverse Arbitrageure können die Fehlbewertung nicht vollständig korrigieren. Ziehen Sie die Schieberegler.
Aufgabe. f = 100, ρ = 0,30, μ = 20 (bullisch), r = 0,05, γ = 2. (a) Gleichgewichtspreis berechnen. (b) Preisabweichung. (c) Was wenn γ = 0?
Lösung.
(a) p = 100 + (2 × 0,30 × 20)/1,05 = 100 + 12/1,05 = 100 + 11,43 = 111,43.
(b) Abweichung: p − f = 11,43. Der Vermögenswert ist überbewertet, da Noise Trader die Preise über die Fundamentaldaten treiben und risikoaverse Arbitrageure sie nicht vollständig ausgleichen.
(c) Mit γ = 0: p = 100 + 0 = 100. Risikoneutrale Arbitrageure handeln aggressiv genug, um die Fehlbewertung vollständig zu beseitigen. Die zentrale DSSW-Erkenntnis: Es ist die Risikoaversion der Arbitrageure (γ > 0), die es den durch Noise Trader verursachten Abweichungen ermöglicht, fortzubestehen.
You now have prospect theory, present bias, social preferences, bounded rationality, and the DSSW noise trader model. This is the final stop — the question gets its resolution.
The behavioral case is now fully assembled. Prospect theory (Kahneman & Tversky 1979) provides a formal, testable alternative to expected utility: people evaluate outcomes relative to a reference point, are loss averse ($\lambda \approx 2.25$), and overweight small probabilities. Present bias ($\beta\delta$ discounting, Laibson 1997) explains procrastination, undersaving, and time inconsistency — people discount the immediate future far more heavily than the distant future. Social preferences (Fehr-Schmidt inequality aversion) explain cooperation and punishment in settings where pure self-interest predicts defection. Bounded rationality (Gabaix sparse maximization) formalizes the idea that attention is scarce and people optimize over a simplified model of the world. These are not isolated anecdotes — they are systematic, replicable, and survive high stakes. The violations of the rationality axioms documented at Stop 2 (Chapter 11) now have formal alternative models that fit the data better than expected utility theory does.
Two powerful counterarguments survive the behavioral onslaught. First, ecological rationality (Gigerenzer): heuristics aren't biases — they're efficient adaptations to real-world environments with limited time and information. "Fast and frugal" heuristics often outperform full optimization in realistic settings with noisy data. The lab results that document "biases" may be artifacts of artificial environments that strip away the ecological context in which human cognition evolved to perform well. If the environment is uncertain enough, ignoring information can be optimal, not irrational. Second, market discipline: even if individuals are biased, competitive markets may aggregate away individual errors. Firms run by irrational managers get outcompeted. Consumers who systematically overpay get educated by experience. The "as if" defense — markets behave as if agents are rational, regardless of what happens inside their heads — remains a serious position, particularly for competitive product markets where entry is easy and feedback is fast.
Behavioral finance provided the critical test — and the "as if" defense failed in the one market where it should have been strongest. The DSSW noise trader model (1990) showed that irrational traders can survive and move prices because arbitrage is risky and limited. Shleifer and Vishny (1997) established the "limits to arbitrage": even sophisticated arbitrageurs face short-selling costs, margin calls, and career risk — they can't fully correct mispricings caused by noise traders. The equity premium puzzle, excess volatility, and momentum anomalies all persist despite decades of sophisticated arbitrage. If biases survive in financial markets — where information travels fastest, stakes are highest, and the smartest capital competes — the "as if" defense cannot be a general principle. The mainstream absorbed behavioral economics not by rejecting rational choice but by enriching it: prospect theory is now standard in finance, $\beta\delta$ preferences are standard in macro, and mechanism design increasingly incorporates behavioral agents.
People are not fully rational in the way the axioms require — the evidence is overwhelming and no longer seriously contested. The more important question is whether it matters for aggregate outcomes, and the answer is domain-specific. In financial markets: yes, biases survive and move prices, because limits to arbitrage are real and persistent. In consumer markets: sometimes — defaults and framing have large, durable effects on retirement saving, organ donation, and energy use. In competitive product markets: less clear — competition, entry, and experience may discipline many biases over time. The honest resolution is that "are people rational?" was the wrong question all along. Rationality is not binary. The right question is: when does irrationality matter for aggregate outcomes, and when does the market machinery wash it out? The answer depends on the specific market, the specific bias, and the specific institutional context. Behavioral economics didn't overthrow rational choice — it drew the map of where rational choice works, where it breaks, and what to use instead.
This is the final stop on BQ #4. The arc ran from the rationality assumption as a modeling tool (Ch 1), through its formalization and testable axioms (Ch 11), to the full behavioral challenge and its market test (here). The hardest unresolved question is about policy: if people are biased, should the government correct their choices? Nudge theory says yes, gently — libertarian paternalism. But the premise (systematic irrationality) may undermine the conclusion (people can be trusted to opt out). The "who nudges the nudgers?" problem has no clean answer — government regulators are themselves subject to the same biases they seek to correct. And the frontier keeps moving: neuroeconomics, computational models of bounded rationality, and machine learning approaches to preference estimation are reshaping what "rationality" even means in the 21st century.
Nudges work. But who decides what "better" means, and where does intervention stop? The internal logic of behavioral economics points toward hard paternalism, not the gentle kind.
FortgeschrittenDan Riffle popularized the slogan in 2019. The welfare theorems say competitive equilibria are efficient — but many billionaire fortunes arise from market power, not competition. Behavioral economics adds another layer: fairness norms shape what people tolerate.
FortgeschrittenMaya legte als Sommeraktion zu jedem Limonadenverkauf einen kostenlosen Keks bei. Der Umsatz stieg moderat — um 8 %. Als Maya den kostenlosen Keks wieder streicht (Rückkehr zum ursprünglichen Preis), ist die Gegenreaktion der Kunden unverhältnismäßig: Beschwerden, negative Bewertungen, verlorene Stammkunden. Der Umsatz sinkt um 15 % — unter das Ausgangsniveau vor der Aktion.
Prospect-Theory-Analyse. Während der Aktion hat sich der Referenzpunkt der Kunden von “Limonade” zu “Limonade + Keks” verschoben. Der Gewinn durch den Keks betrug $v(+\text{Keks}) = (\text{Kekswert})^{0{,}88}$. Aber der Verlust durch das Entfernen beträgt $v(-\text{Keks}) = -2{,}25 \times (\text{Kekswert})^{0{,}88}$. Der empfundene Verlust ist 2,25-mal so groß wie der ursprüngliche Gewinn. Die Aktion war eine Einbahnstraße: leicht zu geben, schmerzhaft wegzunehmen.
Maya entwirft ein Nudge-Experiment. Für ihr Treueprogramm testet Maya zwei Anmeldedesigns als Feldexperiment: Behandlung A (Opt-in): Kunden können sich an der Theke anmelden. Behandlung B (Opt-out): Jeder Kunde bekommt automatisch eine Karte; er kann ablehnen. Mit Gl. 19.9 und $v = 3$, $\sigma = 2$, $k = 2$: Opt-in $P = \Phi(0{,}5) = 0{,}69$; Opt-out $P = \Phi(1{,}5) = 0{,}93$. Mayas Feldexperiment bestätigt die Vorhersage. Sie wechselt für den vollständigen Rollout zu Opt-out.
Kahneman und Tversky (1979). “Prospect Theory: An Analysis of Decision under Risk” ist einer der meistzitierten Aufsätze in der Ökonomik. Veröffentlicht in Econometrica, formalisierte er experimentelle Befunde zu einem kohärenten mathematischen Rahmenwerk. Kahneman erhielt 2002 den Nobelpreis; Tversky war 1996 verstorben.
Maurice Allais (1953). Der französische Ökonom präsentierte sein Paradoxon direkt Leonard Savage. Der Legende nach fiel Savage selbst in das Allais-Muster. Allais erhielt 1988 den Nobelpreis.
Richard Thaler (Nobelpreis 2017). Thalers “Anomalies”-Kolumne katalogisierte systematisch Verhaltensabweichungen. Sein 2008 erschienenes Buch Nudge (mit Sunstein) brachte verhaltensökonomische Erkenntnisse in die Politik und führte weltweit zu “Nudge Units”.
David Laibson (1997). “Golden Eggs and Hyperbolic Discounting” formalisierte das Beta-Delta-Modell und erklärte, warum Menschen gleichzeitig Kreditkartenschulden bei 18 % Zinsen und illiquide Ersparnisse bei 5 % halten.
Shleifer und Vishny (1997). “The Limits of Arbitrage” zeigte, warum rationale Händler Fehlbewertungen nicht beseitigen können, wenn sie fremdes Geld verwalten und Kapitalbeschränkungen unterliegen.
| Bezeichnung | Gleichung | Beschreibung |
|---|---|---|
| Gl. 19.1 | $EU(L) = \sum p_i u(x_i)$ | Erwartungsnutzen |
| Gl. 19.2 | $v(x) = x^\alpha$ (Gewinne), $-\lambda(-x)^\beta$ (Verluste) | Prospect-Theory-Wertfunktion |
| Gl. 19.3 | $w(p) = p^\delta / (p^\delta + (1-p)^\delta)^{1/\delta}$ | Tversky-Kahneman-Wahrscheinlichkeitsgewichtung |
| Gl. 19.4 | $V(L) = \sum w(p_i) v(x_i - r)$ | Prospect-Theory-Bewertung |
| Gl. 19.5 | $U_0 = u(c_0) + \beta \sum \delta^t u(c_t)$ | Quasi-hyperbolisches Diskontieren |
| Gl. 19.6 | $\beta\delta u'(c_1) = u'(c_0) \neq \delta u'(c_1)$ | Zeitinkonsistenz |
| Gl. 19.7 | $U_i = x_i - \alpha_i \max(x_j-x_i,0) - \beta_i \max(x_i-x_j,0)$ | Fehr-Schmidt-Ungleichheitsaversion |
| Gl. 19.8 | $\max u(c) - \theta\|m\|_1$ s.t. $p \cdot c \leq w$ | Gabaix — sparsame Maximierung |
| Gl. 19.9 | $P_{\text{enroll}} = \Phi((v - k(1-d))/\sigma)$ | Default-sensitive Teilnahme |
| Gl. 19.10 | $p_t = f_t + \gamma \rho_t \mu_t / (1+r)$ | DSSW-Noise-Trader-Preisbildung |