カルバック・ライブラー情報量

情報理論
情報量
通信路
単位
  • シャノン
  • ナット
  • ハートレー
その他
  • 漸近等分割性(英語版)
  • レート歪み理論(英語版)
カテゴリ カテゴリ

カルバック・ライブラー情報量(カルバック・ライブラーじょうほうりょう、: Kullback–Leibler divergence)は2つの確率分布の差異を計る尺度である。

確率論情報理論で利用され様々な呼び名がある。以下はその一例である:

  • カルバック・ライブラー・ダイバージェンスKLダイバージェンス
  • 情報ダイバージェンス: information divergence
  • 情報利得: information gain
  • 相対エントロピー: relative entropy
  • カルバック・ライブラー距離

ただしこの計量は距離の公理を満たさないので、数学的な意味での距離ではない。

応用上は、「真の」確率分布 P とそれ以外の任意の確率分布 Q に対するカルバック・ライブラー情報量が計算される事が多い。たとえば P はデータ、観測値、正確に計算で求められた確率分布などを表し、Q は理論値、モデル値、P の予測値などを表す。

この概念は1951年、ソロモン・カルバックとリチャード・ライブラーが2つの分布の間の directed divergence として用いたのが最初であり、ベクトル解析におけるダイバージェンスとは異なる概念である。

カルバック・ライブラー情報量は離散分布のみならず連続分布に対しても定義されており、連続分布に対するカルバック・ライブラー情報量は変数変換について不変である。したがって、情報理論の他の量(自己情報量エントロピー)よりも基本的であるともいえる。というのも、それらは離散的でない確率については未定義だったり、変数変換に対して不変ではなかったりするからである。

定義

PQ離散確率分布とするとき、PQ に対するカルバック・ライブラー情報量は以下のように定義される。

D K L ( P Q ) = i P ( i ) log P ( i ) Q ( i ) = E P [ log P ( i ) Q ( i ) ] {\displaystyle D_{\mathrm {KL} }(P\|Q)=\sum _{i}P(i)\log {\frac {P(i)}{Q(i)}}=\mathbb {E} _{P}\left[\log {\frac {P(i)}{Q(i)}}\right]}

ここで P(i)Q(i) はそれぞれ確率分布 PQ に従う確率変数の値が i となる確率である。

一方 PQ連続確率分布の場合は以下のように定義される。

D K L ( P Q ) = p ( x ) log p ( x ) q ( x ) d x = E P [ log p ( x ) q ( x ) ] {\displaystyle D_{\mathrm {KL} }(P\|Q)=\int _{-\infty }^{\infty }p(x)\log {\frac {p(x)}{q(x)}}\;dx=\mathbb {E} _{P}\left[\log {\frac {p(x)}{q(x)}}\right]}

ここで、pq はそれぞれ PQ確率密度関数を表す。

より一般に、PQ可測集合 X 上の確率測度で、PQ がなんらかの測度 μ に対して絶対連続な場合には、

D K L ( P Q ) = X d P d μ log d P / d μ d Q / d μ d μ {\displaystyle D_{\mathrm {KL} }(P\|Q)=\int _{X}{\frac {dP}{d\mu }}\log {\frac {dP/d\mu }{dQ/d\mu }}\;d\mu }

と定義できる。ここで dP/dμdQ/dμラドン・ニコディム導関数である。

これらの式に出てくる対数の底は、情報の単位をビットとするときは 2 とし、ナットを単位とするときはネイピア数 e を底とする。カルバック・ライブラー情報量に関わる方程式の多くは対数の底と無関係である。

直観的意味

最尤推定量による説明

有限次元のパラメータ θ によって特徴づけられる確率密度関数 q(x|θ) を用いて p(x) を推定するという文脈では、カルバック・ライブラー情報量の経験量の最小化

min θ 1 n i = 1 n log p ( X i ) q ( X i | θ ) {\displaystyle \min _{\theta }{\frac {1}{n}}\sum _{i=1}^{n}\log {\frac {p(X_{i})}{q(X_{i}|\theta )}}}

は、(対数変換した)最尤法

max θ 1 n i = 1 n log q ( X i | θ ) {\displaystyle \max _{\theta }{\frac {1}{n}}\sum _{i=1}^{n}\log q(X_{i}|\theta )}

と同値な問題になる。すなわち、最尤推定量は、カルバック・ライブラー情報量を経験的に最小化する推定方法だと考えられる。

ベイズ確率による説明

X確率変数とし、各 x に対し Xx である確率 Pr[X=x]Q(x) であったとする(ベイズ確率でいう事前分布)。いま X に関する新たなデータ I を知ったとし、その結果 X の従う(条件付き)確率 Pr[X=x|I]P(x) になったとする(ベイズ確率でいう事後分布)。

このとき、IX に関しどのくらいの情報を提供したといえるであろうか。情報量が事象の不確かさを図る尺度であったことを思い出されたい。I を知る前の X の不確かさ(すなわち自己情報量)は −logQ(x) であるが、I を知ることでそれは −logP(x) に減る。したがって I によって X に関して

( log Q ( x ) ) ( log P ( x ) ) = log P ( x ) Q ( x ) {\displaystyle (-\log Q(x))-(-\log P(x))=\log {\frac {P(x)}{Q(x)}}}

だけの自己情報量を得たことになる。xX に従って変わるので、この値の(事後確率分布による)平均値をとると、

x P ( x ) log P ( x ) Q ( x ) {\displaystyle \sum _{x}P(x)\log {\frac {P(x)}{Q(x)}}}

となる。これはカルバック・ライブラー情報量と一致する。

すなわち、カルバック・ライブラー情報量は、X に関してデータ I から得られる情報量の平均値を表していることになる。以上の理由により、カルバック・ライブラー情報量は情報利得(Information gain)とも呼ばれる。

符号化による説明

情報量H である確率変数X は平均ビット数が(ほぼ)H であるビット列に符号化できる(ハフマン符号)が、平均ビット数が H 未満であるようには符号化できない(情報源符号化定理)事が知られている。つまり、確率変数 X を符号化しようと考えた場合、H がビット数の最小値である。今確率変数 X が本当は分布 P に従っているのに、誤って分布 Q に従っていると判断してしまった場合、本来の最小値よりも多くのビット数を必要としてしまう。カルバック・ライブラー情報量は、このような誤りを犯してしまった場合に余分にかかってしまうビット数の平均値を表す。

性質

カルバック・ライブラー情報量は常に負でない値となる。

D K L ( P Q ) 0 {\displaystyle D_{\mathrm {KL} }(P\|Q)\geq 0}

これはギブスの不等式として知られており、DKL(P||Q) がゼロとなるのは P = Q であるときだけである。従って、エントロピー H(P) はクロスエントロピー H(P,Q) の下限値となる。このクロスエントロピーは P ではなく Q に基づく符号を使ったときに予測されるビット数を表している。従って、KLダイバージェンスは、X から x という値を特定する情報を得るために、P という真の分布ではなく Q という確率分布に対応した符号を使ったときに余分にかかると予想されるビット数を表しているのである。

カルバック・ライブラー情報量を確率分布空間における距離と呼ぶ場合もあるが、カルバック・ライブラー情報量には対称性がないため、距離と呼ぶのは正しくない。一般に

D K L ( P Q ) D K L ( Q P ) . {\displaystyle D_{\mathrm {KL} }(P\|Q)\neq D_{\mathrm {KL} }(Q\|P).}

さらに言えば、DKL(P||Q) は三角不等式を満足しない

情報理論における他の量との関係

情報理論の他の様々な量は、カルバック・ライブラー情報量の特殊なケースの応用として解釈できる。

自己情報量との関係

I ( m ) = D K L ( δ i m { p i } ) , {\displaystyle I(m)=D_{\mathrm {KL} }(\delta _{im}\|\{p_{i}\}),}

ここで δ i m {\displaystyle \delta _{im}} クロネッカーのデルタ

相互情報量との関係

I ( X ; Y ) = D K L ( P ( X , Y ) P ( X ) P ( Y ) ) = E X { D K L ( P ( Y | X ) P ( Y ) ) } = E Y { D K L ( P ( X | Y ) P ( X ) ) } {\displaystyle {\begin{aligned}I(X;Y)&=D_{\mathrm {KL} }(P(X,Y)\|P(X)P(Y))\\&=\mathbb {E} _{X}\{D_{\mathrm {KL} }(P(Y|X)\|P(Y))\}\\&=\mathbb {E} _{Y}\{D_{\mathrm {KL} }(P(X|Y)\|P(X))\}\end{aligned}}}

シャノン・エントロピーとの関係

H ( X ) = E x { I ( x ) } = log N D K L ( P ( X ) P U ( X ) ) {\displaystyle {\begin{aligned}H(X)&=\mathbb {E} _{x}\{I(x)\}\\&=\log N-D_{\mathrm {KL} }(P(X)\|P_{U}(X))\end{aligned}}}

ここでN は確率変数X の値域の元の数で、P_U(X)X の値域上の一様分布。

条件付きエントロピーの場合は以下のようになる:

H ( X | Y ) = log N D K L ( P ( X , Y ) P U ( X ) P ( Y ) ) = log N D K L ( P ( X , Y ) P ( X ) P ( Y ) ) D K L ( P ( X ) P U ( X ) ) = H ( X ) I ( X ; Y ) = log N E Y { D K L ( P ( X | Y ) P U ( X ) ) } {\displaystyle {\begin{aligned}H(X|Y)&=\log N-D_{\mathrm {KL} }(P(X,Y)\|P_{U}(X)P(Y))\\&=\log N-D_{\mathrm {KL} }(P(X,Y)\|P(X)P(Y))-D_{\mathrm {KL} }(P(X)\|P_{U}(X))\\&=H(X)-I(X;Y)\\&=\log N-\mathbb {E} _{Y}\{D_{\mathrm {KL} }(P(X|Y)\|P_{U}(X))\}\end{aligned}}}

交差エントロピーとの関係

D K L ( P Q ) = x p ( x ) log q ( x ) + x p ( x ) log p ( x ) = H ( P , Q ) H ( P ) {\displaystyle {\begin{aligned}D_{\mathrm {KL} }(P\|Q)&=-\sum _{x}p(x)\log q(x)+\sum _{x}p(x)\log p(x)\\&=H(P,Q)-H(P)\end{aligned}}}

関連項目

参考文献

  • Fuglede B, and Topsøe F., 2004, Jensen-Shannon Divergence and Hilbert Space Embedding, IEEE Int Sym Information Theory.
  • Kullback, S., and Leibler, R. A., 1951, On information and sufficiency, Annals of Mathematical Statistics 22: 79-86.
  • Rubner, Y., Tomasi, C., and Guibas, L. J., 2000. The Earth Mover's distance as a metric for image retrieval. International Journal of Computer Vision, 40(2): 99-121.
  • Kullback, S. Information Theory and Statistics. Dover reprint.
  • Matlab code for calculating KL divergence
確率の歴史
確率の定義
客観確率
  • 統計的確率
  • 古典的確率
  • 公理的確率
主観確率
確率の拡張
基礎概念
モデル
確率変数
確率分布
関数
用語
確率の解釈
問題
法則・定理
測度論
確率微分方程式
確率過程
情報量
応用
数理ファイナンス
系統学
カテゴリ カテゴリ