最尤推定量とワルド検定・スコア検定・尤度比検定
1. パラメータの尤もらしさに関する統計的仮説検定
何らかのパラメトリックな確率モデル とコのデータサンプル(標本) に対して定義される対数尤度関数 を用いて、「あるパラメータ が最尤推定量 と一致しているかどうか」に真偽を与える統計的仮説検定を考えます。すなわち、仮説:
・対立仮説
を設けて、帰無仮説 を有意水準 で棄却する条件を、データ(標本)に基づく統計量とその分布から求めます。
このポストでは、上記の検定方式として、Wald検定・Score検定・尤度比検定の3つを紹介します。これらは、パラメータ空間 から への写像である対数尤度関数 を中心に考えると、自然な導出であることがわかります。(下図参照)
1.1 ワルド検定(Wald test)
ワルド検定では、現在のパラメータ と最尤推定量 との差を基に検定を行います。
最尤推定量 に対するワルド検定(Wald test)
最尤推定量の漸近正規性(Asymptotic normality):
が成り立つとき、仮説:
・対立仮説
で与えられる。
1.2 スコア検定(Score test)
スコア検定では、現在のパラメータ の対数尤度関数における傾き(スコア関数)を基に検定を行います。
最尤推定量 に対するスコア検定(Score test)
スコア関数 とフィッシャー情報量 の定義
より、スコア関数 の平均と分散が
であることから、中心極限定理(CLT, Central Limit Theorem)を用いて、
が成り立つ。よって、仮説:
・対立仮説
で与えられる。
1.3 尤度比検定(Likelihood ratio test)
尤度比検定では、現在のパラメータ の対数尤度と最尤推定量 との対数尤度の差を基に検定を行います。
最尤推定量 に対する尤度比検定(Likelihood ratio test)
尤度比検定統計量 を
と定義すると、仮説:
・対立仮説
において、帰無仮説 の下で、
で与えられる。
2. KL-divergenceとFischer情報量の関係
2.1 スコア関数とFischer情報量の定義
スコア関数 を以下のように定義します.
対数関数の微分に注意すると,スコア関数 の期待値は0になります.
さらに,スコア関数の分散は,Fischer情報量 といい,以下のように計算されます.
パラメータ がn次元の場合,スコア関数は を用いて定義されるn次元ベクトル,Fischer情報量 は 行列となります.
2.2 KL-divergence
ここで、パラメータ の尤度 と、パラメータ の値を微小量 だけ変化させたときの尤度 との乖離度として、KL-divergenceを考えます。
さらに、 を の関数とみて、 のまわりでテイラー展開(マクローリン展開)をすると、
となります。よって、パラメータ の微小変化に対する KL-divergence:
の局所二次近似は、
となります。すなわち、パラメータ のFischer情報量は、パラメータ の微小変化に対する KL-divergenceと密接に関連した量であることがわかります。以上の結果は、次の定理にまとめられます。
の対数尤度関数 に基づいて導かれる検定および統計量をまとめると下図のようになります。
最尤推定は、さまざまな確率モデルに対する最適化(学習)の基本であり、尤度関数(損失関数)の挙動を正確に把握することがとても重要です。Deep learningなど、高次元のパラメータ空間をもつ確率モデルの場合でも、二次の偏導関数(ヘッセ行列)によって、尤度関数の凸性・曲率が全て記述*1され、これはパラメータに対するFischer情報量行列と密に関連します。すなわち、Fischer情報量行列が正則行列でない*2場合、尤度関数はパラメータに対して非凸で複雑な関数となり、最尤推定量を探索することはより難しくなります。
Fischer情報量行列の定義やhessianとの関連については,以下のブログ記事が参考になります.
3. 参考書籍
- 作者:彰通, 竹村
- 発売日: 2020/11/10
- メディア: 単行本
- 作者:達也, 久保川
- 発売日: 2017/04/07
- メディア: 単行本
- 作者:Freedman, David,Pisani, Robert,Purves, Roger
- 発売日: 2007/02/20
- メディア: ペーパーバック