情報量(じょうほうりょう)と
エントロピー(
エントロピー)は、
情報理論における主要な概念です。これらは、特定の出来事や
情報がどれだけの意味を持っているか、またはどれほど起こりにくいかを示す尺度です。
まず、
情報量について説明します。
情報量は、特定の事象が発生した際に、それがどれほど「意外」であるかを示します。一般的に、ありふれた出来事(例:「風の音」)は少ない
情報を持ち、その一方で特異な出来事(例:「曲の演奏」)はより多くの
情報を含んでいると考えられます。
この
情報量は、数学的に次のように定義されます。事象Eが起こる
確率をP(E)とした場合、その事象が発生したことを知らされたときの自己
情報量I(E)は、次の式で表されます。
$$
I(E) = - ext{log}(P(E))
$$
確率P(E)の値は0から1の範囲ですので、自己
情報量I(E)は常に非負となります。
確率が小さいほど、すなわち起こりにくい事象の方が、より高い
情報量を持つことになります。
この
情報量には、自己
情報量と平均
情報量という二つの側面があります。自己
情報量が特定の事象に対するものであるのに対し、平均
情報量は全体の
情報の分散を示すものです。
平均
情報量は
確率空間における事象の分布を用いて計算され、次のように表現されます。すべての事象A_iに対して、各事象の
確率P(A_i) と自己
情報量I(A_i)を用います。
$$
H(P) = - ext{Σ}_{A_i ext{ in } Ω} P(A_i) ext{log}(P(A_i))
$$
このH(P)は、
エントロピーとも呼ばれ、
情報量の
期待値を示します。
エントロピーは、
情報理論における非常に重要な概念であり、通常は正の値またはゼロを取ります。
情報量の加法性
情報量には加法性があり、
独立した事象AとBが同時に発生した場合、それらの
情報量の合計になります。この特性は、以下のように数学的に表現できます。
$$
I(A, B) = I(A) + I(B)
$$
例えば、52枚の
トランプから1枚を選び、そのカードが「ハートの4」である場合、その
情報量はlog(52)です。別々の事象「カードの
スートがハート」である
情報量と「カードの数字が4」である
情報量を考えると、これらの
情報量の合計は全体として同じ
情報量を形成します。
情報理論では、条件付き
情報量も重要です。事象Bが発生している状態での事象Aの
情報量は、次のように表現されます。
$$
I(A | B) = - ext{log}(P(A | B))
$$
また、
確率変数Xが存在する場合、Xの条件付き
エントロピーH(X | B)は、これを基にして
確率の
期待値を考慮することで得られます。
エントロピーは、
情報量の効率性を示すための基盤であり、さまざまな分野で利用されます。例えば、通信システムや
データ圧縮の技術の設計において、
エントロピーを最小化することが求められます。また、
熱力学においても
エントロピーの概念は適用され、物質の乱雑さやエネルギーの分散の度合いを測定するために使用されます。
エントロピーの概念は、
熱力学の分野で
1865年に
ルドルフ・クラウジウスによって提唱されました。その後、
1948年に
クロード・シャノンが
情報理論における
エントロピーを定義し、シャノン
情報量として知られるようになりました。彼の研究は、
情報の理論的側面と実用的側面の両方に革新をもたらしました。
このように、
情報量と
エントロピーは相互に関連し、
情報理論の土台を形成する重要な概念です。