第3章: 重回帰分析:推定

Jeffrey Wooldridge (2016).
Introductory Econometrics: A Modern Approach
Seventh Edition. Cengage Learning.

2026-01-23

準備

必要なパッケージの読み込み

library(wooldridge)

3-1 重回帰分析の動機

単回帰分析の限界

多重回帰モデルの一般形

\[ y = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_k x_k + u \]

3-2 OLS推定量の解釈

係数の解釈:セテリス・パリバス

\[ \Delta y = \beta_j \Delta x_j \quad (\text{他の } x \text{ は固定}) \]

“部分”回帰としての解釈

3-3 Rによる重回帰分析の実装

例: 賃金方程式の拡張 (wage1)

Rでの実行

data(wage1)

# 単回帰
model_simple <- lm(log(wage) ~ educ, data = wage1)

# 多重回帰
model_multi <- lm(log(wage) ~ educ + exper + tenure, 
                  data = wage1)

結果の比較

係数の比較
Variable Simple Multiple
(Intercept) Intercept 0.584 0.284
educ educ 0.083 0.092
exper exper NA 0.004
tenure tenure NA 0.022

3-4 決定係数 \(R^2\)

多重回帰における \(R^2\)

\[ R^2 = \frac{\text{SSE}}{\text{SST}} = 1 - \frac{\text{SSR}}{\text{SST}} \]

決定係数の計算例

summary(model_simple)$r.squared
## [1] 0.1858065
summary(model_multi)$r.squared
## [1] 0.3160133

3-5 除外変数バイアス (Omitted Variable Bias)

除外変数バイアスとは

このとき、\(\tilde{\beta}_1\) の期待値は以下のようになる。

\[ E(\tilde{\beta}_1) = \beta_1 + \beta_2 \frac{\text{Cov}(x_1, x_2)}{\text{Var}(x_1)} \]

バイアスの方向

バイアスの符号(プラスかマイナスか)は、\(\beta_2\) の符号と、\(x_1\)\(x_2\) の相関(\(\text{Corr}(x_1, x_2)\))によって決まる。

除外変数バイアスの方向
Corr.x1..x2. beta2 Bias
正 (+) 正 (+) 正 (+)
正 (+) 負 (-) 負 (-)
負 (-) 正 (+) 負 (-)
負 (-) 負 (-) 正 (+)

3-6 OLS推定量の分散

OLS推定量の分散

\[ \text{Var}(\hat{\beta}_j) = \frac{\sigma^2}{\text{SST}_j (1 - R_j^2)} \]

多重共線性 (Multicollinearity)

ガウス・マルコフの定理

  1. 線形性: パラメータについて線形である。
  2. ランダムサンプリング: 無作為標本である。
  3. 多重共線性なし: 独立変数間に完全な線形関係がない。
  4. ゼロ条件付き平均: \(E(u|x_1, \dots, x_k) = 0\)
  5. 均一分散: \(\text{Var}(u|x_1, \dots, x_k) = \sigma^2\)

まとめ

まとめ