ベイズ推定の流れをまとめる(尤もらしさと不確実性)
ベイズ推定とは?
ベイズ推定の目的と主眼をまとめると、次のようになります。
- ベイズ推定の目的
確率変数 の真の分布 を、予測分布 で推定する。
また、推定プロセスで生じる誤差や、推定結果に対する信頼性を評価したい。
このポストでは、『ベイズ統計の理論と方法』(渡辺澄夫, 2012)の内容を基に、ベイズ推定の基本の流れを整理するとともに、ベイズ推定で行われる「尤度最大化」と「情報量最小化」は同じであることを軸に、各統計量についての解説・解釈を述べたいと思います。
- 作者: 渡辺澄夫
- 出版社/メーカー: コロナ社
- 発売日: 2012/03/01
- メディア: 単行本
- 購入: 1人 クリック: 4回
- この商品を含むブログ (8件) を見る
これから言及する「ベイズ推定の流れ」を、簡単にまとめました。
「ベイズ推定の流れ」
- 真の分布 :
に対して、
- 確率モデル :
- 事前分布 :
を仮定したとき、
- データ(標本)
を用いて、以下の分布・統計量を求める。
- 事後分布 :
- 予測分布 :
- 期待損失関数 :
- 経験損失関数 :
- 期待誤差関数 :
- 経験誤差関数 :
- 汎化損失 :
- 経験損失 :
1. 事後分布
まず、確率モデル と事前分布 から、パラメータ の事後分布 を導出します。ベイズの定理より、
$$ \begin{eqnarray} p(w|X_n) & = & \frac{ p(X_{n}|w)\varphi(w) }{ p(X_{n}) } \\ \\ p(w|X_n) & = & \frac{ p(X_{n}|w)\varphi(w) }{ \int_{w} p(X_{n}|w)\varphi(w) dw } \end{eqnarray} $$
となります。さらに、右辺の分母を正規化定数 とおけば、事後分布は以下のように定義することができます。
$$ \begin{eqnarray} p(w|X_n):=\frac{1}{Z} p(X_n|w)\varphi(w) \end{eqnarray} $$ ただし、 $$ \begin{eqnarray} Z:=\int_{w} p(X_{n}|w)\varphi(w) dw \end{eqnarray} $$
2. 予測分布
事前分布 を事後分布 におきかえて、再び確率モデル のパラメータ に対する期待値をとります。
$$ \begin{eqnarray} p^{*}(x)=p(x|X_n):=\int_{w} p(x|w)p(w|X_n) dw \end{eqnarray} $$
ここまでの流れをまとめると、次のようになります。
- 確率モデル と事前分布 を設定する。
- 確率モデル と事前分布 によって、事後分布 を導出する。
- 確率モデル と事後分布 によって、予測分布 を導出する。
- 予測分布 によって、真の分布 を推定する。
次に、確率モデルの推定誤差を定量化する統計量(標本に対する関数)や、推定誤差を小さくするパラメータ の推定量 を求めてみましょう。
3. 損失関数
「パラメータ の対数尤度の に対する期待値」として、損失関数 を定義します。損失関数 は、確率モデル とパラメータ によって、決定されます。 を期待損失関数、 を経験損失関数と呼びます。実際には、真の分布 がわからず期待損失関数 を求められないので、データ を用いて、経験損失関数 を導出することになります。
$$ \begin{eqnarray} L(w) & := & E_{X} \left[ -\log p(X|w) \right] \\ \\ L_n(w) & := & \frac{1}{n} \sum_{i=1}^{n} -\log p(X_i|w) \end{eqnarray} $$
よって、データ から導出される経験損失関数 に対して、パラメータ の最適化問題を考えることができます。確率モデル における、パラメータ の推定量 を以下で定めます。
$$ \begin{eqnarray} w_0:=\underset{w \in W}{\rm argmin} ~ L_n(w) \end{eqnarray} $$
推定量 について:
は、確率モデル によって推定された「データ に対する情報量(曖昧さ、不確実性)」を示しています。すなわち、ベイズ推定における推定量 は、「データ に対する不確実性を、平均的に最小化するようなパラメータ 」であると意味づけられます。損失関数 について:
は、「あるパラメータ を与えたとき、確率モデル がデータ に対してもつ平均的な不確実性」を表していると解釈できます。
4. 誤差関数
「任意のパラメータ に対する推定量 との誤差」として誤差関数 を定義します。まず、パラメータ と その推定量 との誤差を、次の対数尤度比で定義します。
$$ \begin{eqnarray} f(x,w):= \log \frac{ p(x|w_0) }{ p(x|w) } \end{eqnarray} $$
対数尤度比 を用いて、誤差関数 を定義します。 を期待誤差関数、 を経験誤差関数と呼びます。ここで、実際には真の分布 がわからず期待誤差関数 を求められないから、データ を用いて、経験誤差関数 を導出することになります。
$$ \begin{eqnarray} K(w) & := & E_{X} \left[ f(X,w) \right]=E_{X} \left[ \log \frac{ p(X|w_0) }{ p(X|w) } \right] \\ \\ K_{n}(w) & := & \frac{1}{n} \sum_{i=1}^{n} f(X_i, w)=\frac{1}{n} \sum_{i=1}^{n} \log \frac{p(X_i|w_0)}{p(X_i|w)} \end{eqnarray} $$
- 対数尤度比 について:
対数尤度比を分解すると、 $$ \begin{eqnarray} f(x, w) := \log \frac{ p(x|w_0) }{ p(x|w) } = \left[ -\log p(x|w) \right] - \left[ -\log p(x|w_0) \right] \geq 0 \end{eqnarray} $$ と表されるため、これは、あるパラメータ を与えたときの確率モデル がもつ「尤もらしさ」を、「尤もらしさの上限」で正規化した値を示します。別の見方をすると、対数尤度比: は、確率モデル がもつ「データ に対する不確実性」を、「最小の不確実性」で正規化した値とも考えられます。 - 誤差関数 について:
は、「あるパラメータ を与えたとき、確率モデル がデータ に対してもつ平均的な(正規化された)尤もらしさ」を表していると解釈できます。
5. 汎化損失・経験損失
「予測分布 と真の分布 との誤差」として、「推定方法」がもつ損失を定義します。 を汎化損失、 を経験損失と呼びます。
$$ \begin{eqnarray} G_{n} & := & E_{X} \left[ -\log p^{*}(X) \right] \\ \\ T_{n} & := & \frac{1}{n} \sum_{i=1}^{n} - \log p^{*}(X_i) \end{eqnarray} $$
汎化損失 について:
は、予測分布 によって推定された「データ に対する情報量(曖昧さ、不確実性)」を示します。すなわち、汎化損失 は、「パラメータ とデータ を与えたとき、確率モデル から推定された予測分布 が、データ に対してもつ平均的な不確実性」を表していると解釈できます。汎化損失 と KL-距離 の比例関係
$$ \begin{eqnarray} G_n &=& E_{X} [ -\log p^{*}(X) ] \\ \\ &=& \int_{X} q(x) \cdot -\log p^{*}(X) dx \\ \\ &=& - \int_{X} q(x) \log q(x) dx + \int_{X} q(x) \log \frac{q(x)}{p^{*}(x)} dx \\ \\ &=& H(X)+D_{KL}(q \parallel p^{*}) \end{eqnarray} $$ ここで、確率モデル と上式の関係を考えると、は、確率モデル に依らないから無視できます。つまり、汎化損失 は の真の分布 と予測分布 の間のカルバック・ライブラー距離(Kullback–Leibler divergence)は、確率モデル に対して比例関係にあります。
$$ \begin{align} G_n \propto D_{KL}(q \parallel p^{*}) \end{align} $$
- KL-距離 について:
真の分布 と予測分布 の間のカルバック・ライブラー距離(Kullback–Leibler divergence)の定義式は、 $$ \begin{eqnarray} D_{KL}(q \parallel p^{*}) := \int_{X} q(x) \log \frac{q(x)}{p^{*}(x)} dx \end{eqnarray} $$ ですから、これは「対数尤度比 の確率変数 に対する期待値」として解釈できます。例として、下図右は、2つの正規分布 と について、それぞれの分布に従う確率変数 の各値を横軸に、それによって計算される対数尤度比を縦軸にとったグラフを示しています。よって、 は、その期待値ですから、下図右で青く塗りつぶされた部分の「確率重みつき面積(期待値)」となります。