ハートレー (Hartley) と情報量の単位
ハートレー(記号: Hart)は、
情報理論において
情報量や
エントロピーを測るための
単位として用いられます。国際規格である
IEC 80000-13で定義されており、
情報量の基本的な尺度の一つです。この
単位は、特に十進法に基づく情報の表現に適しています。ここでは、ハートレーに関連するディット(dit)やバン(ban)といった
単位についても説明します。
ハートレーの定義
1ハートレーは、ある事象が発生する
確率が1/10であるときに、その事象が持つ
情報量と定義されます。これは、10個の異なる可能性の中から1つが選ばれる場合に相当します。具体的には、1桁の十進数(0から9までのいずれかの数字)を特定するのに必要な
情報量と同等です。言い換えれば、1ハートレーは1ディットまたは1バンに相当します。
ディットとバン
ディット(dit)は、decimal digitの略であり、十進数の1桁を表す
情報量単位です。一方、バン(ban)も
情報量の
単位ですが、ディットとほぼ同じ意味で使われることがあります。厳密には、ハートレーは
情報量の概念を表す
単位であり、ディットとバンはデータ量の
単位として区別されますが、実際には1ハートレーの
情報量を表す際に1ディットまたは1バンが用いられることがあります。また、バンの1/10の
単位をデシバン(deciban)と呼びます。
ハートレーと対数
ハートレーは、事象の
確率の逆数に対して10を底とする対数(常用対数)を取ることで計算できます。例えば、
確率が1/10の事象の場合、その
情報量はlog₁₀(10) = 1 ハートレーとなります。同様に、
確率が1/100の事象の場合、その
情報量はlog₁₀(100) = 2 ハートレーとなります。
情報量を測るための
単位は他にも存在します。2を底とする
二進対数を用いたものがシャノン(shannon)、
ネイピア数(e)を底とする
自然対数を用いたものがナット(nat)です。これらの
単位は、それぞれ異なる基数に基づく
情報量の尺度であり、以下の換算式で相互に変換可能です。
1 hartley ≈ 3.322 shannon ≈ 2.303 nat
歴史
ハートレーという
単位名称は、
ラルフ・ハートレーに因んで命名されました。彼は1928年に、
情報量の測定において、区別可能な状態の数に等しい対数の底を使用することを提案しました。一方、バンとデシバンは、
アラン・チューリングとI・J・グッドによって1940年に考案されました。これらの
単位は、第二次世界大戦中にドイツ軍の暗号機であるエニグマの設定を解読する際に使用され、
ブレッチリー・パークの暗号解読者たちが、バンベリスムスという手順で
情報量を推定する際に用いられました。バンという名前は、暗号解読に使用された大量のカードが印刷された
バンベリーという町に由来します。グッドは、デシバンの逐次総和が
ベイズ推定の本質であると主張しました。一方、ドナルド・A・ギリースは、バンが
カール・ポパーによる試行の重要度の尺度と同様の概念であると指摘しました。
オッズの単位としての利用
デシバンは、特に
ベイズ因子や
オッズ比(その対数はロジットの差に等しい)などの、証拠の重みを測るための
単位として非常に有用です。10デシバンは10:1のオッズ、20デシバンは100:1のオッズに対応します。グッドは、1デシバンの証拠の重みの変化(例えば、1:1から5:4へのオッズの変化)は、人が仮説に対する確信の度合いを合理的に定量化できる程度に細かいと述べています。
以下に、整数値のデシバンに対応するオッズの近似値を示します。
- | - |
---|
1 | 5:4 |
2 | 3:2 |
3 | 2:1 |
4 | 5:2 |
5 | 3:1 |
6 | 4:1 |
7 | 5:1 |
8 | 7:1 |
9 | 8:1 |
10 | 10:1 |
これらの
単位は、
情報理論、暗号解読、統計学など、様々な分野で重要な役割を果たしています。