相互
情報量(Mutual Information)とは、確率変数同士の相互依存の度合いを表す指標であり、情報理論における基本的な概念の一つです。主に2つの確率変数XとYの関連性を測るために用いられ、その値は0以上であり、0の場合にはXとYが独立であることを意味します。一方、相互
情報量が高いほど、Xの情報からYを推測することが容易になることを示しています。相互
情報量の計算には、確率変数の
同時分布関数と
周辺分布関数の関係が用いられます。これにより、XとYの情報の共通部分を量化することが可能です。
定義と数式
相互
情報量は、次の数式によって定義されます。
離散確率変数の場合:
$$
I(X; Y) = ext{∑}_{y ∈ Y} ext{∑}_{x ∈ X} p(x, y) ext{log}rac{p(x,y)}{p(x)p(y)}
$$
ここで、p(x, y)はXとYの
同時分布関数、p(x)はXの周辺確率分布、p(y)はYの周辺確率分布を示します。連続確率変数の場合は、同様の式が定積分に置き換わります。
連続確率変数の場合:
$$
I(X; Y) = ext{∫}_{Y} ext{∫}_{X} p(x, y) ext{log}rac{p(x,y)}{p(x)p(y)} ext{d}x ext{d}y
$$
相互
情報量は常に非負であり、対称性が存在します。この特性により、XからYを知ることができる度合いとその逆の関係が同じであることが示されます。
相互
情報量は、2つの確率変数が共有する情報の量を示す直感的な指標です。例えば、XとYが完全に独立であれば、相互
情報量はゼロとなります。逆に、XとYが一つの情報を完全に共有していれば、相互
情報量はそれぞれのエントロピーに等しくなります。このように、相互
情報量は変数間の依存度を計量的に把握する方法でもあり、様々な応用が考えられます。
応用
相互
情報量は、通信路の容量定義や、機械学習における特徴選択、RNAの構造予測など多岐にわたって利用されています。また、医用画像処理においては画像の位置合わせ分析でも活用されるなど、情報理論の観点から多くの分野で重要な役割を果たしています。
まとめ
相互
情報量は、確率変数間の情報の共有や依存関係を定量的に測定するための重要な指標です。これにより、さまざまな分野での応用が進んでおり、情報理論における中心的な役割を担っています。今後もその利用範囲は広がることが期待されます。