確率論における独立
確率論で言う独立とは、2つの事象や
確率変数が相互に影響を及ぼすことがないことを指します。具体的には、2つの事象AとBが独立である場合、同時に発生する
確率はそれぞれの事象の
確率を掛け合わせたものに等しいとされます。数学的に表すと、次の式が成り立ちます。
$$
P(A ext{ and } B) = P(A) imes P(B)
$$
この式から、Aが起こったからといってBの起こる
確率が変わらないことが理解されます。事象AとBの独立性は記号で「A ⫫ B」と表されます。
確率変数の独立
確率変数についても同様の概念が適用され、2つの
確率変数XとYが独立である場合、任意の
実数a, bに対して以下の式が成り立ちます。
$$
P(X < a, Y < b) = P(X < a) imes P(Y < b)
$$
ここで、XとYの同時累
積分布関数がそれぞれの周辺累
積分布関数の
積に分解される場合、XとYは独立であると言えるのです。このように、複数の
確率変数が同時にどのような範囲に入るかという事象の
確率も、互いに影響しないことが条件となります。
事象の独立性
事象の独立性の定義は、より一般的には事象の族が独立する場合を考えることができます。有限の事象の族 {Aλ} が独立であるためには、その部分集合に対しても同様の独立性が成立する必要があります。
$$
P(A_{ ext{λ1}} ext{ and } A_{ ext{λ2}} ext{ and } ... ext{ and } A_{ ext{λn}}) = P(A_{ ext{λ1}}) imes P(A_{ ext{λ2}}) imes ... imes P(A_{ ext{λn}})
$$
このように、複数の事象が独立であるという概念は、様々な場合に拡張可能であり、個々の事象や
確率変数も独立であることが求められます。
完全加法族の独立
確率論では、「完全
加法族」と呼ばれる概念も重要です。複数の完全
加法族が独立であるためには、それぞれの部分族でも同様の独立性が必要です。事象に対して生成される完全
加法族によって独立性の定義を行うことができます。
日本産業規格では、
確率変数XとYが独立であるための条件が示されています。それは、
同時分布関数が次のように表されることです。
$$
F(x, y) = F(x, ext{∞}) imes F( ext{∞}, y) = G(x) imes H(y)
$$
ここで、G(x)およびH(y)はそれぞれXおよびYの
周辺分布関数です。
互いに独立な
確率変数に関して、
期待値や分散に関する定理も存在します。例えば、2つの
確率変数XとYに対して、以下の式が成り立ちます。
$$
E[XY] = E[X] imes E[Y]
$$
また、和に関する分散の性質もあり、2つの独立した
確率変数の分散は次のように示されます。
$$
V(X + Y) = V(X) + V(Y)
$$
独立性の検定
独立性を判断するためには、事象の挙動を調査し、独立性を仮定して矛盾が起こるかどうかを確認します。
カイ二乗検定などの方法が使われ、これを通じて2つの事象間の従属性を判断することができますが、独立であるかどうかを
積極的に決定することは難しいことがあります。
以上のように、
確率論における独立性は非常に重要な概念であり、さまざまな定理や性質が関与しています。独立性を正しく理解することで、より複雑な
確率の問題にも対処できるでしょう。