ベイズ因子とは
ベイズ因子(Bayes factor)とは、ベイズ
統計学において2つの異なる数学モデルの信頼性を比較するために使用される数値です。この手法は、伝統的な
仮説検定に代わる新たなアプローチとして注目を集めています。
ベイズ因子の定義
データ
ベクトル $x$ に基づいて、モデル $M_1$ と $M_2$ のどちらがより妥当であるかを判断する問題を考えます。ベイズ因子 $K$ は次のように定義されます:
$$
K = \frac{p(x|M_1)}{p(x|M_2)}
$$
ここで、$p(x|M_1)$ はモデル $M_1$ に基づく
条件付き確率、$p(x|M_2)$ はモデル $M_2$ に基づく
条件付き確率です。この数値を用いることで、どちらのモデルがデータにより適合しているかを明らかにします。
モデルは複数のパラメータとして定義されており、これらのパラメータを $ heta_1$ と $ heta_2$ に置き換えることができます。ベイズ因子は、モデルの不確実性を考慮に入れた形で、以下のように再定義できます:
$$
K = \frac{\int p(\theta_1|M_1) p(x|\theta_1, M_1) d\theta_1}{\int p(\theta_2|M_2) p(x|\theta_2, M_2) d\theta_2}
$$
この式においては、各モデルのパラメータに基づく全ての可能なデータ生成の
確率を考慮に入れています。
証拠の重み
ベイズ因子 $K$ の対数を取ることで、モデル $M_2$ を基準とした $M_1$ の証拠の重みを表すことができます。この重みは、モデルの比較において重要な指標となります。例えば、$K > 1$ であれば、データはモデル $M_1$ が $M_2$ よりも適切であることを示唆します。一方、$K < 1$ の場合はその逆の結果となります。古典的な
仮説検定との大きな違いは、ベイズ因子が両方の仮説を考慮に入れている点です。
具体例
成功か失敗かの2つの結果が考えられる
確率変数をモデルとして考えます。モデル $M_1$ では成功
確率 $q = ½$ とし、モデル $M_2$ では $q$ が不明で
一様分布を前提とします。200回の試行から成功が115回、失敗が85回のデータを得た場合、モデル $M_1$ と $M_2$ の尤度を計算することになります。
モデル $M_1$ の尤度は次のように表されます:
$$
P(X = 115|M_1) = {200 \choose 115} \left( \frac{1}{2} \right)^{200} \approx 0.00595
$$
モデル $M_2$ の場合、成功
確率 $q$ に対して次のようになります:
$$
P(X = 115|M_2) = \int_0^1 {200 \choose 115} q^{115} (1-q)^{85} dq \approx 0.00497
$$
これにより、ベイズ因子 $K$ は次のように計算されます:
$$
K \approx \frac{0.00595}{0.00497} \approx 1.197
$$
この結果は、モデル $M_1$ が $M_2$ より若干支持されることを示していますが、信頼の度合いはそれほど高くありません。
再現性の問題
現在の科学界では、発見された結果の再現性が問題となっています。近年の研究では、新しい証拠にかかる
統計的基準を見直す必要が指摘されています。たとえば、P値の閾値を0.05から0.005に引き下げる提案がされている一方で、特定の実験方法に偏る危険性も考えられます。多くの研究者がこのような問題を解消するために、従来のP値の代わりにベイズ因子を採用し始めています。これにより、より信頼性の高い
統計的評価が可能になることが期待されています。
ベイズ因子はその柔軟性と適切な情報の取り扱いにより、
統計学における重要な手法として位置づけられています。