ハートレー (単位)

ハートレー (Hartley) と情報量単位



ハートレー(記号: Hart)は、情報理論において情報量エントロピーを測るための単位として用いられます。国際規格であるIEC 80000-13で定義されており、情報量の基本的な尺度の一つです。この単位は、特に十進法に基づく情報の表現に適しています。ここでは、ハートレーに関連するディット(dit)やバン(ban)といった単位についても説明します。

ハートレーの定義



1ハートレーは、ある事象が発生する確率が1/10であるときに、その事象が持つ情報量と定義されます。これは、10個の異なる可能性の中から1つが選ばれる場合に相当します。具体的には、1桁の十進数(0から9までのいずれかの数字)を特定するのに必要な情報量と同等です。言い換えれば、1ハートレーは1ディットまたは1バンに相当します。

ディットとバン



ディット(dit)は、decimal digitの略であり、十進数の1桁を表す情報量単位です。一方、バン(ban)も情報量単位ですが、ディットとほぼ同じ意味で使われることがあります。厳密には、ハートレーは情報量の概念を表す単位であり、ディットとバンはデータ量の単位として区別されますが、実際には1ハートレーの情報量を表す際に1ディットまたは1バンが用いられることがあります。また、バンの1/10の単位をデシバン(deciban)と呼びます。

ハートレーと対数



ハートレーは、事象の確率の逆数に対して10を底とする対数(常用対数)を取ることで計算できます。例えば、確率が1/10の事象の場合、その情報量はlog₁₀(10) = 1 ハートレーとなります。同様に、確率が1/100の事象の場合、その情報量はlog₁₀(100) = 2 ハートレーとなります。

他の情報量単位との比較



情報量を測るための単位は他にも存在します。2を底とする二進対数を用いたものがシャノン(shannon)、ネイピア数(e)を底とする自然対数を用いたものがナット(nat)です。これらの単位は、それぞれ異なる基数に基づく情報量の尺度であり、以下の換算式で相互に変換可能です。

1 hartley ≈ 3.322 shannon ≈ 2.303 nat

歴史



ハートレーという単位名称は、ラルフ・ハートレーに因んで命名されました。彼は1928年に、情報量の測定において、区別可能な状態の数に等しい対数の底を使用することを提案しました。一方、バンとデシバンは、アラン・チューリングとI・J・グッドによって1940年に考案されました。これらの単位は、第二次世界大戦中にドイツ軍の暗号機であるエニグマの設定を解読する際に使用され、ブレッチリー・パークの暗号解読者たちが、バンベリスムスという手順で情報量を推定する際に用いられました。バンという名前は、暗号解読に使用された大量のカードが印刷されたバンベリーという町に由来します。グッドは、デシバンの逐次総和がベイズ推定の本質であると主張しました。一方、ドナルド・A・ギリースは、バンがカール・ポパーによる試行の重要度の尺度と同様の概念であると指摘しました。

オッズの単位としての利用



デシバンは、特にベイズ因子オッズ比(その対数はロジットの差に等しい)などの、証拠の重みを測るための単位として非常に有用です。10デシバンは10:1のオッズ、20デシバンは100:1のオッズに対応します。グッドは、1デシバンの証拠の重みの変化(例えば、1:1から5:4へのオッズの変化)は、人が仮説に対する確信の度合いを合理的に定量化できる程度に細かいと述べています。

以下に、整数値のデシバンに対応するオッズの近似値を示します。

デシバン オッズの近似

- -
1 5:4
2 3:2
3 2:1
4 5:2
5 3:1
6 4:1
7 5:1
8 7:1
9 8:1
10 10:1

これらの単位は、情報理論、暗号解読、統計学など、様々な分野で重要な役割を果たしています。

もう一度検索

【記事の利用について】

タイトルと記事文章は、記事のあるページにリンクを張っていただければ、無料で利用できます。
※画像は、利用できませんのでご注意ください。

【リンクついて】

リンクフリーです。