独立 (確率論)

確率論における独立



確率論で言う独立とは、2つの事象や確率変数が相互に影響を及ぼすことがないことを指します。具体的には、2つの事象AとBが独立である場合、同時に発生する確率はそれぞれの事象の確率を掛け合わせたものに等しいとされます。数学的に表すと、次の式が成り立ちます。

$$
P(A ext{ and } B) = P(A) imes P(B)
$$

この式から、Aが起こったからといってBの起こる確率が変わらないことが理解されます。事象AとBの独立性は記号で「A ⫫ B」と表されます。

確率変数の独立



確率変数についても同様の概念が適用され、2つの確率変数XとYが独立である場合、任意の実数a, bに対して以下の式が成り立ちます。

$$
P(X < a, Y < b) = P(X < a) imes P(Y < b)
$$

ここで、XとYの同時累分布関数がそれぞれの周辺累分布関数のに分解される場合、XとYは独立であると言えるのです。このように、複数の確率変数が同時にどのような範囲に入るかという事象の確率も、互いに影響しないことが条件となります。

事象の独立性



事象の独立性の定義は、より一般的には事象の族が独立する場合を考えることができます。有限の事象の族 {Aλ} が独立であるためには、その部分集合に対しても同様の独立性が成立する必要があります。

$$
P(A_{ ext{λ1}} ext{ and } A_{ ext{λ2}} ext{ and } ... ext{ and } A_{ ext{λn}}) = P(A_{ ext{λ1}}) imes P(A_{ ext{λ2}}) imes ... imes P(A_{ ext{λn}})
$$

このように、複数の事象が独立であるという概念は、様々な場合に拡張可能であり、個々の事象や確率変数も独立であることが求められます。

完全加法族の独立



確率論では、「完全加法族」と呼ばれる概念も重要です。複数の完全加法族が独立であるためには、それぞれの部分族でも同様の独立性が必要です。事象に対して生成される完全加法族によって独立性の定義を行うことができます。

日本産業規格における独立性の定義



日本産業規格では、確率変数XとYが独立であるための条件が示されています。それは、同時分布関数が次のように表されることです。

$$
F(x, y) = F(x, ext{∞}) imes F( ext{∞}, y) = G(x) imes H(y)
$$

ここで、G(x)およびH(y)はそれぞれXおよびYの周辺分布関数です。

確率変数の期待値と分散



互いに独立な確率変数に関して、期待値や分散に関する定理も存在します。例えば、2つの確率変数XとYに対して、以下の式が成り立ちます。

$$
E[XY] = E[X] imes E[Y]
$$

また、和に関する分散の性質もあり、2つの独立した確率変数の分散は次のように示されます。

$$
V(X + Y) = V(X) + V(Y)
$$

独立性の検定



独立性を判断するためには、事象の挙動を調査し、独立性を仮定して矛盾が起こるかどうかを確認します。カイ二乗検定などの方法が使われ、これを通じて2つの事象間の従属性を判断することができますが、独立であるかどうかを極的に決定することは難しいことがあります。

以上のように、確率論における独立性は非常に重要な概念であり、さまざまな定理や性質が関与しています。独立性を正しく理解することで、より複雑な確率の問題にも対処できるでしょう。

もう一度検索

【記事の利用について】

タイトルと記事文章は、記事のあるページにリンクを張っていただければ、無料で利用できます。
※画像は、利用できませんのでご注意ください。

【リンクついて】

リンクフリーです。