最大
エントロピー原理(Principle of Maximum Entropy)は、推定したい
確率分布が、与えられた条件下で最も不確実性が高い分布であるべきだという考え方に基づいています。この原理は、エドウィン・トンプソン・ジェインズ(Edwin Thompson Jaynes)が
1957年に提唱したもので、彼の
統計力学に関する研究の一環として位置づけられています。
概要
状況を説明するために、
確率変数Xについてのみ条件Iが知られていると仮定します。Xが条件Iを満たす場合、Xの分布がどのように設定されるのが自然かを考えます。この際、Xの「不確かさ」を最大にするような分布を選ぶのが賢明です。それに基づいて、最大
エントロピー原理は、条件Iのもとで
エントロピーを最大にする分布を選択するべきであると述べます。
エントロピーは、不確実性の度合いを測る尺度として用いられますが、具体的には
情報の欠如や混乱の程度を示す指標です。連続変数の場合、技術的な理由により通常の微分
エントロピーではなく相対
エントロピーの概念が適用されます。相対
エントロピーは、基準となる
確率分布に対する
情報量を測定します。
制約条件に基づく分布の選択
最大
エントロピー原理を実際に適用するためには、与えられた制約条件を考慮する必要があります。例えば、以下の制約条件が与えられた場合の分布は次のようになります:
- - Xは区間[a,b]内にある場合、Xは一様分布に従います。
- - Xの期待値μと分散σ²が知られている場合、Xは正規分布に従います。
- - Xが区間[a,b]にあり、期待値μと分散σ²も知られている場合、切断正規分布になります。
具体的には、Xの取りうる値の範囲や
統計量の
期待値から、最も適切な
確率分布が選ばれ、その分布が最大
エントロピーの条件を満たすように調整されます。
相対
エントロピーは、特定の条件下で選択した
確率分布の最適性を判断するために用いられる重要なツールです。
期待値に関する制約がある場合の一般的な解は、以下の形で表されます。
$$
p(x) = \frac{1}{Z(\lambda_1, \ldots, \lambda_m)} m(x) \exp\left[ \lambda_1 T_1(x) + \ldots + \lambda_m T_m(x) \right]
$$
ここでZは正規化定数であり、λはラグランジュ乗数です。この形は、得られた
確率分布が与えられた制約条件に基づいて話されています。
物理学への応用
最大
エントロピー原理は、特に
統計力学において重要な役割を果たします。例えば、
マクスウェル分布は、気体中の分子がどのように分布するかを説明するために最大
エントロピー原理を用いて導かれます。この分布は、気体の分子が速度空間においてどのように広がるかを表すもので、分子の速度の
確率分布を示します。
結論
最大
エントロピー原理は、
情報理論や統計の分野において、与えられた条件下での最適な意思決定を行うための強力なツールです。
エントロピーの最大化を通じて、不確実性の高い状況に対して最も適切な分布を選択することが求められます。これにより、限られた
情報のもとでも理論的に優れた結果を導き出すことが可能になります。