Die Volkswirtschaftslehre erhebt kausale Ansprüche — Mindestlöhne beeinflussen die Beschäftigung, Bildung erhöht das Einkommen, Institutionen bestimmen das Wachstum. Die Überprüfung dieser Ansprüche erfordert Daten und eine Methode zur Unterscheidung von Kausalität und Korrelation. Ökonometrie ist diese Methode.
Dieses Kapitel ist kein Statistikkurs. Wir setzen Vertrautheit mit grundlegender Wahrscheinlichkeitsrechnung und Regression voraus. Stattdessen konzentrieren wir uns auf das zentrale Problem der empirischen Ökonomie: Identifikation — das Finden glaubwürdiger Quellen exogener Variation, die es uns ermöglichen, kausale Effekte zu schätzen. Jedes Werkzeug in diesem Kapitel — OLS, Instrumentalvariablen, Differenz-von-Differenzen, Regressionsdiskontinuität — ist eine Strategie zur Lösung des Identifikationsproblems.
Voraussetzungen: Kapitel 2 und 5 (ökonomischer Kontext für Beispiele). Mathematische Voraussetzungen: Lineare Algebra, Wahrscheinlichkeitsrechnung und Statistik.
Betrachten Sie die Frage: Erhöht ein zusätzliches Jahr Bildung das Einkommen? Wir beobachten, dass besser gebildete Menschen mehr verdienen. Aber liegt das daran, dass:
Beides ist mit der beobachteten Korrelation vereinbar. Das Identifikationsproblem besteht darin, dass wir dieselbe Person nicht direkt mit und ohne Bildung vergleichen können — das Kontrafaktische ist unbeobachtet.
Die grundlegende Gleichung:
wobei $Y_i$ das Ergebnis (Einkommen) ist, $X_i$ die Behandlung (Bildungsjahre), $\beta$ der kausale Parameter von Interesse und $\varepsilon_i$ alles andere erfasst, was $Y_i$ beeinflusst — Fähigkeit, familiärer Hintergrund, Motivation, Glück, Gesundheit und Tausende anderer Faktoren.
Das Identifikationsproblem entsteht, wenn $X_i$ mit $\varepsilon_i$ korreliert ist — wenn die „Behandlung“ nicht zufällig zugewiesen wird. In der Statistik wird dies als Endogenität bezeichnet. In der Ökonomie ist es die Norm, nicht die Ausnahme: Menschen wählen ihre Bildung (und die Wahl korreliert mit der Fähigkeit), Länder wählen ihre Politiken (und die Wahl korreliert mit ihren wirtschaftlichen Bedingungen), Unternehmen wählen ihre Preise (und die Wahl korreliert mit den Nachfragebedingungen).
In einem randomisierten Experiment wird die Behandlung $X_i$ per Münzwurf zugewiesen — sie ist konstruktionsbedingt unabhängig von $\varepsilon_i$. Aber Ökonomen haben selten den Luxus der Randomisierung bei den großen Fragen. Die Methoden in diesem Kapitel — OLS, IV, DiD, RD — sind Strategien, um „natürliche Experimente“ zu finden, die die Randomisierung in Beobachtungsdaten approximieren.
Für das multivariate Modell $Y = X\beta + \varepsilon$ (Matrixnotation):
Unter den Gauss-Markov-Annahmen hat OLS wünschenswerte Eigenschaften:
Unter diesen Annahmen ist OLS BLUE — der beste lineare unverzerrte Schätzer. „Best“ bedeutet niedrigste Varianz unter allen linearen unverzerrten Schätzern. „Unverzerrt“ bedeutet $E[\hat{\beta}] = \beta$.
Die kritische Annahme ist Nr. 4: $E[\varepsilon|X] = 0$. Wenn diese versagt — aufgrund ausgelassener Variablen, Simultanität oder Messfehler in $X$ — ist OLS verzerrt. Die Schätzung $\hat{\beta}$ konvergiert selbst bei unendlich vielen Daten nicht mehr zum wahren $\beta$. Dies ist kein Kleinproben-Problem — es ist ein grundlegender Designfehler, den mehr Daten nicht beheben können.
Ein Streudiagramm mit einer angepassten OLS-Regressionslinie. Ziehen Sie den Schieberegler, um einen Ausreißer an verschiedenen vertikalen Positionen hinzuzufügen, und beobachten Sie, wie die Regressionslinie kippt. Beobachten Sie, wie ein einzelner Punkt mit hohem Hebeleffekt die Steigung, $R^2$ und Koeffizienten dramatisch verändern kann.
Abbildung 10.1. OLS-Regression mit einem einstellbaren Ausreißer. Der Ausreißer befindet sich bei $X=14$ (hoher Hebeleffekt). Ziehen Sie den Schieberegler über „Kein Ausreißer“, um ihn einzuführen, und beobachten Sie, wie die Linie kippt. Hover für Werte.
Angenommen, das wahre Modell ist $Y = \beta_0 + \beta_1 X + \beta_2 Z + u$, aber wir lassen $Z$ aus und schätzen $Y = \alpha_0 + \alpha_1 X + e$. Dann:
Die Verzerrung entspricht dem Effekt der ausgelassenen Variablen ($\beta_2$) multipliziert mit der Assoziation zwischen der ausgelassenen Variablen und dem eingeschlossenen Regressor.
Vorzeichen der Verzerrung:
| $Cov(X, Z) > 0$ | $Cov(X, Z) < 0$ | |
|---|---|---|
| $\beta_2 > 0$ | Aufwärtsverzerrung (Überschätzung von $\beta_1$) | Abwärtsverzerrung |
| $\beta_2 < 0$ | Abwärtsverzerrung | Aufwärtsverzerrung |
Angenommen, die Fähigkeit ($Z$) ist sowohl mit Bildung ($X$) als auch mit Einkommen ($Y$) positiv korreliert. Dann ist $\beta_2 > 0$ (Fähigkeit erhöht das Einkommen) und $Cov(X,Z) > 0$ (fähigere Menschen erhalten mehr Bildung). Die OLS-Schätzung der Bildungsrendite ist nach oben verzerrt — sie schreibt einen Teil des Fähigkeitseffekts der Bildung zu.
Zwei Panels zeigen dieselben Daten. Links: die wahre Beziehung mit dem Störfaktor (Fähigkeit), dargestellt als Punktfarbe. Rechts: die naive OLS-Regression ohne Fähigkeit. Ziehen Sie den Schieberegler, um die Stärke des Störfaktors zu ändern, und beobachten Sie, wie die Verzerrung wächst.
Links: Wahres Modell mit dem Störfaktor (Fähigkeit), dargestellt als Farbe. Dunkler = höhere Fähigkeit.
Rechts: Naive OLS-Regression ohne Berücksichtigung der Fähigkeit. Die verzerrte Linie (rot gestrichelt) ist steiler als der wahre kausale Effekt (blau).
Wenn OLS verzerrt ist, weil $X$ endogen ist ($Cov(X, \varepsilon) \neq 0$), kann eine Instrumentalvariable die Schätzung retten.
Zweistufige Methode der kleinsten Quadrate (2SLS):
Erste Stufe: Regression von $X$ auf $Z$ (und etwaige Kontrollvariablen):
Dies isoliert den Teil von $X$, der vom Instrument angetrieben wird — den exogenen Teil. Die angepassten Werte $\hat{X}_i$ repräsentieren die „saubere“ Variation in $X$.
Zweite Stufe: Regression von $Y$ auf $\hat{X}$. In Matrixform:
Im einfachen Fall mit einem Instrument und einem endogenen Regressor:
Die IV-Schätzung ist das Verhältnis der reduzierten Form (Effekt von $Z$ auf $Y$) zur ersten Stufe (Effekt von $Z$ auf $X$). Die Intuition: $Z$ beeinflusst $Y$ nur über $X$ (Ausschlussrestriktion), daher isoliert die Division durch die erste Stufe den kausalen Effekt von $X$ auf $Y$.
Was IV schätzt. Bei heterogenen Behandlungseffekten identifiziert IV den lokalen durchschnittlichen Behandlungseffekt (LATE) — den kausalen Effekt für die Teilpopulation, deren Verhalten durch das Instrument verändert wird (die „Complier“).
Wenn $Z$ schwach mit $X$ korreliert ist, ist die erste Stufe schwach und die IV-Schätzung unzuverlässig (verzerrt in Richtung OLS, breite Konfidenzintervalle). Faustregel: F-Statistik der ersten Stufe > 10.
Das Geburtsquartal wurde als Instrument für die Schuljahre verwendet. Schulpflichtgesetze bedeuten, dass früher im Jahr geborene Schüler mit etwas weniger Bildung die Schule verlassen können. Das Geburtsquartal ist plausiblerweise: (a) mit der Schulbildung korreliert (Relevanz), und (b) nicht direkt mit dem Einkommen verbunden (Ausschluss). Die IV-Schätzung der Bildungsrendite betrug etwa 7–8 % pro Jahr.
Dieser gerichtete azyklische Graph zeigt die Kausalstruktur eines IV-Designs. Wechseln Sie zwischen Ansichten, um zu sehen, wie ein Instrument Z den Konfundierungspfad unterbricht.
Abbildung 10.2. DAG für das Instrumentalvariablen-Design. Z ist das Instrument, X ist der endogene Regressor, Y ist das Ergebnis und U ist der unbeobachtete Störfaktor. Die IV-Strategie nutzt nur die Variation in X, die von Z angetrieben wird, und umgeht den Störpfad durch U.
Die erste Differenz beseitigt zeitinvariante Gruppenmerkmale. Die zweite Differenz beseitigt gemeinsame Zeittrends.
Schlüsselannahme: Parallele Trends. In Abwesenheit der Behandlung hätten Behandlungs- und Kontrollgruppe demselben Trend gefolgt. Dies ist für die Nachbehandlungsperiode nicht testbar, aber für die Vorbehandlungsperiode beurteilbar.
New Jersey erhöhte seinen Mindestlohn im April 1992 von 4,25 $ auf 5,05 $; Pennsylvania nicht. Die DiD-Schätzung des Beschäftigungseffekts war positiv (+2,7 VZÄ), was der Vorhersage des einfachen Wettbewerbsmodells widersprach. Diese Studie löste eine Revolution in der empirischen Arbeitsmarktökonomie aus.
Regressionsformulierung:
Zwei Zeitreihen zeigen eine Behandlungs- und eine Kontrollgruppe. Die Behandlung erfolgt bei $t = 5$. Ziehen Sie den Schieberegler, um die Größe des Behandlungseffekts zu ändern, und beobachten Sie, wie sich die DiD-Schätzung aktualisiert. Parallele Trends vor der Behandlung sind sichtbar.
Abbildung 10.3. Differenz-von-Differenzen-Design. Die gestrichelte Linie zeigt das Kontrafaktische — was mit der Behandlungsgruppe ohne Behandlung passiert wäre (parallel zur Kontrolle). Die Lücke zwischen den tatsächlichen und kontrafaktischen Ergebnissen am Ende ist der Behandlungseffekt.
You now have difference-in-differences, instrumental variables, and the tools of causal identification. This is where the minimum wage debate gets resolved — not by theory, but by evidence.
Card and Krueger (1994) applied the method you just learned — difference-in-differences — to a natural experiment. When New Jersey raised its minimum wage from \$4.25 to \$5.05 in 1992, neighboring Pennsylvania didn't. By surveying fast-food restaurants on both sides of the border before and after the increase, they constructed a clean DiD estimate: the treatment group (NJ) versus the control group (PA), differencing out common trends. The result stunned the profession: employment in New Jersey fast-food restaurants didn't fall. If anything, it rose slightly. The competitive model's prediction — that a binding price floor reduces quantity demanded — failed its most direct empirical test. Subsequent studies using county-border designs (Dube, Lester & Reich, 2010) confirmed the pattern: comparing adjacent counties across state lines where one side raised its minimum wage and the other didn't, employment effects were small to negligible for moderate increases.
Neumark and Wascher mounted the most sustained challenge. Using payroll data from the Bureau of Labor Statistics instead of Card and Krueger's telephone surveys, they found employment did decline in New Jersey — the original result, they argued, was an artifact of noisy survey data. Beyond data quality, the critique has structural force: DiD captures short-run effects, but firms adjust on multiple margins over time. Hours get cut even when headcount doesn't (Jardim et al., 2022, on Seattle's \$15 minimum). Benefits erode. Automation accelerates — self-order kiosks and scheduling software aren't coincidental. And the border-design studies may systematically understate effects by comparing areas that are economically similar precisely because they trade workers across the border, contaminating the control group. The meta-analysis is genuinely mixed: which studies you weight, and how, determines whether you find small negative effects or no effects.
The field's response illustrates what economists call the "credibility revolution" — the shift from estimating structural models to designing identification strategies. Card and Krueger didn't just challenge a prediction; they changed how empirical economics is done. The question moved from "what does the model predict?" to "can we find a credible research design that isolates the causal effect?" Cengiz, Dube, Lindner, and Zipperer (2019) produced the most comprehensive answer to date, analyzing 138 state-level minimum wage changes using a bunching estimator. They looked at the entire wage distribution: jobs paying just below the new minimum disappeared, jobs paying at or just above it appeared, and — crucially — total employment in the affected range barely changed. The jobs didn't vanish; they moved up the wage ladder. This is exactly what the monopsony model from Chapter 6 predicts and exactly what the competitive model says shouldn't happen.
The textbook prediction — that minimum wages cause unemployment — is wrong as a general empirical claim. Moderate minimum wage increases, up to roughly 50–60% of the local median wage, produce minimal detectable employment effects in most credible studies. This is consistent with monopsony power in low-wage labor markets: when employers have wage-setting power, a moderate minimum wage pushes them toward the competitive outcome rather than away from it. But "moderate" is the operative word. The competitive model isn't wrong — it's incomplete. Push the minimum wage high enough relative to local conditions (above 60% of the median, as a federal \$15 would in low-wage regions), and the standard prediction reasserts itself. The deeper lesson is methodological: a theoretical prediction that seemed airtight for decades was overturned not by better theory but by better identification. The model was logically correct; its empirical relevance was the question all along.
This Big Question is essentially resolved at this level: moderate minimum wages don't cause significant unemployment, consistent with monopsony. The remaining frontier is calibration, not direction. How high can you go before disemployment appears? The answer varies by region, sector, and time horizon — and the automation margin (kiosks, AI scheduling, self-checkout) may make long-run effects larger than short-run DiD estimates capture. The debate has shifted from "does it cause unemployment?" to "what's the right number for this labor market?" — which is a policy design question, not an economic theory question. The tools you learned in this chapter — DiD, IV, identification strategy — are exactly how that calibration question gets answered.
The Fight for \$15 made a number into a movement. But \$15 in San Francisco is very different from \$15 in rural Mississippi. The evidence says moderate increases work — is \$15 moderate?
EinführungIf the minimum wage isn't about employment anymore, it's about adequacy. How do economists measure what "enough" means — and who decides?
MittelstufeSchlüsselannahme: Stetigkeit. Alle Faktoren, die $Y$ beeinflussen (außer der Behandlung), variieren stetig am Schwellenwert — keine Sortierung oder Manipulation um den Schwellenwert.
Ein Stipendium wird an Studierende vergeben, die bei einer Prüfung über 80 Punkte erzielen. Studierende mit 79 und 81 Punkten sind in ihren Fähigkeiten ähnlich, aber einer erhält das Stipendium und der andere nicht. Die Diskontinuität der Ergebnisse (z. B. Studienabschlussquoten) an der 80-Punkte-Schwelle schätzt den kausalen Effekt des Stipendiums.
Ein Streudiagramm mit einer Laufvariablen (Testergebnis). Studierende oberhalb des Schwellenwerts erhalten die Behandlung (Stipendium). Polynom-Anpassungen auf jeder Seite zeigen den Sprung am Schwellenwert. Passen Sie die Position des Schwellenwerts und die Bandbreite an, um zu sehen, wie sich der geschätzte Behandlungseffekt ändert.
Abbildung 10.4. Regressionsdiskontinuität. Die vertikale gestrichelte Linie markiert den Schwellenwert. Punkte links des Schwellenwerts sind unbehandelt (grau); rechts sind behandelt (grün). Der Sprung am Schwellenwert ist die Schätzung des Behandlungseffekts. Passen Sie die Bandbreite an, um sich auf Beobachtungen nahe dem Schwellenwert zu konzentrieren.
RCTs sind der „Goldstandard“ für interne Validität, da die Randomisierung konstruktionsbedingt $E[\varepsilon|X] = 0$ garantiert. Banerjee, Duflo und Kremer erhielten 2019 den Nobelpreis für ihren experimentellen Ansatz zur Bekämpfung globaler Armut.
Ein Berufsausbildungsprogramm weist 500 Personen zufällig der Behandlungsgruppe und 500 der Kontrollgruppe zu. Nur 60 % der zur Behandlung Zugewiesenen nehmen tatsächlich am Programm teil (Compliance-Rate = 0,6).
Ergebnisse: Durchschnittliches Einkommen: Behandlungsgruppe = 25.000 $, Kontrollgruppe = 23.000 $.
ITT: $\hat{\tau}_{ITT} = 25{,}000 - 23{,}000 = \\$1{,}000$. Dies ist der Effekt des Angebots des Programms.
TOT: $\hat{\tau}_{TOT} = 2{,}000 / 0.6 = \\$1{,}333$. Dies schätzt den Effekt der tatsächlichen Teilnahme am Programm (für Complier). Der TOT ist größer, da der ITT durch Nicht-Complier verdünnt wird.
Teststärke-Prüfung: Mit $n = 500$ pro Gruppe, $\sigma = \\$1{,}000$ und einem wahren Effekt von $\\$1{,}000$ beträgt die Teststärke $\approx 0.80$. Die Studie ist ausreichend gepowert, um den ITT zu erkennen.
Statistische Teststärke ist die Wahrscheinlichkeit, einen wahren Behandlungseffekt zu erkennen. Verwenden Sie die Schieberegler, um zu erkunden, wie Effektgröße, Stichprobengröße und Varianz die Teststärke beeinflussen. Die Teststärkekurve aktualisiert sich in Echtzeit, und der minimale erkennbare Effekt (MDE) bei 80 % Teststärke wird hervorgehoben.
Abbildung 10.5. Teststärkekurve: Wahrscheinlichkeit, den Effekt zu erkennen, als Funktion der Effektgröße. Die rote gestrichelte Linie markiert 80 % Teststärke. Die grüne Raute markiert die aktuelle Parameterkombination. Der MDE ist der kleinste erkennbare Effekt bei 80 % Teststärke bei gegebener Stichprobengröße und Varianz.
Eine Punktschätzung ohne Maß der Unsicherheit ist nahezu nutzlos.
Standardfehler (SE) sind die Quadratwurzeln der Diagonalelemente. Ein 95%-Konfidenzintervall beträgt ungefähr $\hat{\beta} \pm 1.96 \cdot SE(\hat{\beta})$.
Statistische Signifikanz: Wir lehnen $H_0: \beta = 0$ auf dem 5%-Niveau ab, wenn $|t| = |\hat{\beta}/SE(\hat{\beta})| > 1.96$.
Ökonomische Signifikanz vs. statistische Signifikanz: Ein Koeffizient kann statistisch signifikant, aber ökonomisch trivial sein. Umgekehrt kann eine unpräzise Schätzung ökonomisch groß, aber statistisch insignifikant sein. Gute empirische Arbeit diskutiert beides.
Eine praktische Regel: In der modernen angewandten Ökonomie sollten Sie immer robuste oder geclusterte Standardfehler verwenden.
Jede empirische Strategie hat Annahmen, die versagen können:
| Strategie | Schlüsselannahme | Bedrohung | Diagnostik |
|---|---|---|---|
| OLS | Keine ausgelassenen Variablen ($E[\varepsilon|X]=0$) | Konfundierung | Theorie + Sensitivitätsanalyse |
| IV | Ausschlussrestriktion | Direkter Effekt von $Z$ auf $Y$ | Nicht direkt testbar; theoretisch argumentieren |
| IV | Relevanz | Schwache Instrumente | F der ersten Stufe > 10 |
| DiD | Parallele Trends | Unterschiedliche Vorbehandlungstrends | Vorbehandlungstrends grafisch darstellen |
| RD | Keine Manipulation am Schwellenwert | Sortierung um den Schwellenwert | McCrary-Dichtetest |
| RCT | Keine Attrition, keine Spillover | Differenzieller Abbruch; Kontamination | Balance-Checks, Attritionsanalyse |
Ein Ökonom möchte den Effekt von Kaelanis neuer Bildungspolitik (kostenlose Schulbücher für die Klassen 1–6) auf die Testergebnisse schätzen. Die Politik wurde 2024 in den östlichen Provinzen eingeführt, aber nicht in den westlichen.
Design: Differenz-von-Differenzen.
| Vor der Politik (2023) | Nach der Politik (2025) | Veränderung | |
|---|---|---|---|
| Osten (Behandlung) | 55 | 63 | +8 |
| Westen (Kontrolle) | 52 | 56 | +4 |
| DiD-Schätzung | +4 |
Die DiD-Schätzung beträgt 4 Punkte. Kostenlose Schulbücher haben die Testergebnisse um 4 Punkte erhöht, nach Kontrolle des gemeinsamen Aufwärtstrends.
Bedrohungen: (1) Parallele Trends: Verbesserten sich die östlichen Provinzen bereits schneller? (2) Spillover-Effekte: Schickten Familien nahe der Grenze ihre Kinder in östliche Schulen? (3) Zusammensetzungsänderungen: Veränderten kostenlose Schulbücher die Einschreibungen?
Ein ergänzender Ansatz: Regressionsdiskontinuität an der Provinzgrenze, mit Vergleich von Dörfern direkt auf beiden Seiten.
| Bezeichnung | Gleichung | Beschreibung |
|---|---|---|
| Gl. 10.1 | $Y_i = \alpha + \beta X_i + \varepsilon_i$ | Strukturgleichung |
| Gl. 10.2 | $\hat{\beta}_{OLS} = (X'X)^{-1}X'Y$ | OLS-Schätzer |
| Gl. 10.3 | $E[\hat{\alpha}_1] = \beta_1 + \beta_2 \cdot Cov(X,Z)/Var(X)$ | Formel der Verzerrung durch ausgelassene Variablen |
| Gl. 10.5 | $\hat{\beta}_{IV} = Cov(Z,Y)/Cov(Z,X)$ | IV-Schätzer (einfach) |
| Gl. 10.6 | $\hat{\tau}_{DiD}$ = (treat change) − (control change) | DiD-Schätzer |
| Gl. 10.7 | $Y_{it} = \alpha + \beta_1 Treat + \beta_2 Post + \tau(Treat \times Post) + \varepsilon$ | DiD-Regression |
| Gl. 10.8 | $\hat{\tau}_{RD} = \lim_{x \downarrow c} E[Y|X=x] - \lim_{x \uparrow c} E[Y|X=x]$ | RD-Schätzer |
| Gl. 10.9 | $\hat{\tau}_{RCT} = \bar{Y}_{treat} - \bar{Y}_{control}$ | RCT-Schätzer |
| Gl. 10.10 | $Var(\hat{\beta}) = \sigma^2(X'X)^{-1}$ | OLS-Varianz |