ナット (nat) とは
ナット(nat)は、
情報理論における
情報量の
単位の一つで、「natural unit of information」(情報の自然
単位)の略称です。情報の量を測る際に、
ビット(bit)が2を底とする対数(
二進対数)を用いるのに対し、ナットは
自然対数を使用します。この
自然対数を使用する点が「情報の自然
単位」と呼ばれる所以です。
ナットの定義
ナットは、
自然対数に基づいて
情報量を表現します。具体的には、ある事象が発生する
確率を p とすると、その事象が持つ
情報量 H は以下の式で表されます。
math
H = -\sum_{i} p_{i} \ln p_{i}
ここで、\( p_i \) は各事象の発生
確率、\( \ln \) は
自然対数を表します。この式からわかるように、
情報量は
確率の
自然対数にマイナスをかけた値の合計として計算されます。
ボルツマン定数を1に正規化した自然
単位系においては、熱力学
エントロピーの値はナットで測定されます。
ナットは、他の
情報量単位である
ビットやハートレーとも関係があります。1ナットは、約1.44シャノン(
ビット)に相当し、約0.434ハートレーに相当します。この関係は、以下の式から導出されます。
math
2^x = e^1 \Rightarrow x = \frac{1}{\ln 2} \approx 1.44
math
10^x = e^1 \Rightarrow x = \frac{1}{\ln 10} \approx 0.434
これらの式は、2のx乗が
ネイピア数eになる場合、xはln2分の1となり、10のx乗が
ネイピア数eになる場合、xはln10分の1になることを示しています。
1ナットは、起こる
確率が 1/e の出来事が持つ
情報量と定義することもできます。
歴史
ナットという
単位は、
アラン・チューリングが「natural ban」と呼んでいたものが起源です。その後、ブルトンとウォーレスが最小メッセージ長の概念で使用した「ニト(nit)」という言葉が、
最小記述長の概念で使用する際に「ナット(nat)」に変更されました。この変更は、輝度の
単位として使用されていた「ニト(nit)」との混同を避けるためでした。
また、
ネイピア数(e)を使用することから、「ネピット(nepit)」とも呼ばれることがあります。
まとめ
ナットは
情報量を
自然対数で表現する
単位であり、
情報理論や熱力学において重要な役割を果たしています。
ビットやハートレーといった他の
情報量単位とも相互に換算可能であり、
情報量の概念を理解する上で欠かせない
単位の一つと言えるでしょう。
参考文献
Comley, J. W. & Dowe, D. L. (2005). “Minimum Message Length, MDL and Generalised Bayesian Networks with Asymmetric Languages”. In Grünwald, P.; Myung, I. J. & Pitt, M. A.. Advances in Minimum Description Length: Theory and Applications. Cambridge: MIT Press.
Reza, Fazlollah M. (1994). An Introduction to Information Theory. New York: Dover.