カルバック・ライブラー情報量(カルバック・ライブラーじょうほうりょう、英: Kullback–Leibler divergence)は2つの確率分布の差異を計る尺度である。 確率論と情報理論で利用され様々な呼び名がある。以下はその一例である: カルバック・ライブラー・ダイバージェンス(KLダイバージェンス) 情報ダイバージェンス(英: information divergence) 情報利得(英: information gain) 相対エントロピー(英: relative entropy) カルバック・ライブラー距離 ただしこの計量は距離の公理を満たさないので、数学的な意味での距離ではない。 応用上は、「真の」確率分布 P とそれ以外の任意の確率分布 Q に対するカルバック・ライブラー情報量が計算される事が多い。たとえば P はデータ、観測値、正確に計算で求められた確率分布などを表し、Q