Kullback-Leibler-Divergenz

Die Begriffe Kullback-Leibler-Divergenz (kurz KL-Divergenz), Kullback-Leibler-Abstand und relative Entropie bezeichnen ein Maß für die Unterschiedlichkeit zweier Wahrscheinlichkeitsverteilungen. Typischerweise repräsentiert dabei eine der Verteilungen empirische Beobachtungen oder eine präzise Wahrscheinlichkeitsverteilung, während die andere ein Modell oder eine Approximation darstellt.

Weitere geläufige Bezeichnungen für die KL-Divergenz sind auch Kullback-Leibler-Entropie oder Kullback-Leibler-Information, nach Solomon Kullback und Richard Leibler; englisch Information Gain.

Ein Spezialfall der KL-Divergenz ist die Transinformation.

Definition

Die KL-Divergenz wird häufig mit einem D {\displaystyle D} (für "Divergenz") oder mit einem H {\displaystyle H} bzw. H {\displaystyle \mathrm {H} } notiert. Letzteres kommt daher, dass die Entropie mit einem Eta notiert wird.

Diskreter Fall

Für zwei diskrete Wahrscheinlichkeitsverteilungen P {\displaystyle P} und Q {\displaystyle Q} mit Wahrscheinlichkeitsfunktionen p ( x ) = P ( { x } ) {\displaystyle p(x)=P(\{x\})} und q ( x ) = Q ( { x } ) {\displaystyle q(x)=Q(\{x\})} auf einer Menge X {\displaystyle X} ist die KL-Divergenz als

D ( P Q ) = K L ( P , Q ) = x X p ( x ) log ( p ( x ) q ( x ) ) {\displaystyle D(P\|Q)=KL(P,Q)=\sum _{x\in X}p(x)\log \left({p(x) \over q(x)}\right)}

definiert.

Stetiger Fall

Für zwei stetige Wahrscheinlichkeitsverteilungen P {\displaystyle P} und Q {\displaystyle Q} mit Dichten p {\displaystyle p} und q {\displaystyle q} ist die KL-Divergenz als

D ( P Q ) = p ( x ) log ( p ( x ) q ( x ) ) d x {\displaystyle D(P\|Q)=\int _{-\infty }^{\infty }p(x)\log \left({\frac {p(x)}{q(x)}}\right)\;\mathrm {d} x}

definiert.

Allgemeiner Fall

Geben ist ein messbarer Raum ( E , F ) {\displaystyle (E,{\mathcal {F}})} mit zwei Wahrscheinlichkeitsmaßen μ {\displaystyle \mu } und ν {\displaystyle \nu } , weiter sei μ {\displaystyle \mu } absolut stetig bezüglich ν {\displaystyle \nu } . Dann ist die Kullback-Leibler-Divergenz

H ( μ ν ) = E log ( d μ d ν ) d μ = E d μ d ν log ( d μ d ν ) d ν {\displaystyle H(\mu \mid \nu )=\int _{E}\log \left({\frac {d\mu }{d\nu }}\right)d\mu =\int _{E}{\frac {d\mu }{d\nu }}\log \left({\frac {d\mu }{d\nu }}\right)d\nu } ,

wobei d μ d ν {\displaystyle {\frac {d\mu }{d\nu }}} die Radon-Nikodým-Ableitung von μ {\displaystyle \mu } bezüglich ν {\displaystyle \nu } ist.

Erläuterungen

Die Kullback-Leibler-Divergenz gibt aus informationstheoretischer Sicht an, wie viel Platz pro Zeichen im Mittel verschwendet wird, wenn eine auf Q {\displaystyle Q} basierende Kodierung auf eine Informationsquelle angewendet wird, die der tatsächlichen Verteilung P {\displaystyle P} folgt. Somit besteht ein Zusammenhang zur Kanalkapazität. Mathematisch ist dies verträglich mit der Aussage, dass die KL-Divergenz 0 {\displaystyle \geq 0} ist und Gleichheit nur dann gilt, wenn P und Q identisch sind.

Die konkrete Wahl der Basis des Logarithmus in der Berechnung hängt dabei davon ab, in welcher Informationseinheit gerechnet werden soll. In der Praxis gibt man die KL-Divergenz häufig in Bit bzw. Shannon an und verwendet dafür die Basis 2, seltener werden auch Nit (Basis e {\displaystyle e} ) und Ban (Basis 10) gebraucht.

Anstatt der Kullback-Leibler-Divergenz wird auch oft die Kreuzentropie verwendet. Diese liefert qualitativ vergleichbare Werte, kann jedoch ohne die genaue Kenntnis von P {\displaystyle P} geschätzt werden. In praktischen Anwendungen ist dies vorteilhaft, da die tatsächliche Hintergrundverteilung der Beobachtungsdaten meist unbekannt ist.

Die Minimierung der Kullback-Leibler-Divergenz ist äquivalent zur Maximierung der Evidence lower bound.

Abgrenzung Distanz

Obwohl die Kullback-Leibler-Divergenz teilweise auch als Kullback-Leibler-Distanz bezeichnet wird, erfüllt sie eine fundamentale Anforderung an Distanzmaße nicht: Sie ist nicht symmetrisch, es gilt also im Allgemeinen D ( P Q ) D ( Q P ) {\displaystyle D(P\|Q)\neq D(Q\|P)} . Um Symmetrie herzustellen, kann alternativ die Summe der beiden Divergenzen verwendet werden, die offensichtlich symmetrisch ist:

D 2 ( P Q ) = D 2 ( Q P ) = D ( P Q ) + D ( Q P ) {\displaystyle D_{2}(P\|Q)=D_{2}(Q\|P)=D(P\|Q)+D(Q\|P)}

Multivariate Normalverteilungen

Für zwei mehrdimensionale Normalverteilungen (mit Dimension k {\displaystyle k} ), mit Mittelwerten μ 0 , μ 1 {\displaystyle \mu _{0},\mu _{1}} und (nicht-singulären) Kovarianzmatrizen Σ 0 , Σ 1 {\displaystyle \Sigma _{0},\Sigma _{1}} ist die Kullback-Leibler-Divergenz gegeben durch:[1]

D KL ( N 0 N 1 ) = 1 2 ( Spur ( Σ 1 1 Σ 0 ) + ( μ 1 μ 0 ) T Σ 1 1 ( μ 1 μ 0 ) k + log ( det Σ 1 det Σ 0 ) ) . {\displaystyle D_{\text{KL}}({\mathcal {N}}_{0}\parallel {\mathcal {N}}_{1})={\frac {1}{2}}\left(\operatorname {Spur} \left(\Sigma _{1}^{-1}\Sigma _{0}\right)+(\mu _{1}-\mu _{0})^{\mathsf {T}}\Sigma _{1}^{-1}(\mu _{1}-\mu _{0})-k+\log \left({\frac {\det \Sigma _{1}}{\det \Sigma _{0}}}\right)\right).}

Belege

Einzelnachweise

  1. J. Duchi: Derivations for Linear Algebra and Optimization. S. 13.