アルゴリズム
情報理論は、
情報理論と
計算機科学の交差点に位置する新しい学問分野です。この理論は、特に情報の複雑さを分析することに焦点を当てています。グレゴリー・チャイティンの言葉を借りれば、この分野は「シャノンの
情報理論とチューリングの計算
複雑性理論をブレンドしたもの」とも言えるでしょう。
概要
この理論では、主にコルモゴロフ
複雑性やその他の複雑さに関する指標が、特に
文字列や他の
データ構造に関連して研究されています。数学的オブジェクトの多くは、
文字列やそれに基づく
級数として表現されるため、アルゴリズム
情報理論は
整数や
実数を含むさまざまな数学オブジェクトの研究に適用できます。
「情報」という言葉は、圧縮性に基づいているため、使われる際に誤解を招くことがあります。アルゴリズム
情報理論の観点から見ると、ある
文字列の情報量は、その
文字列を自己完結型の最短表現で表すのに必要な長さと同等です。自己完結型の表現とは、本質的に元の
文字列を生成するプログラムを指します。
仮に3000ページからなる百科事典と、3000ページの無作為な
文字列を比較すると、情報の観点から見れば大きな違いがないように思えるかもしれません。これは、無作為な
文字列を生成するプログラムを考えると、個々の文字を理解する必要があるからです。一方で、百科事典の情報はそれなりに有益であり、全ての母音を削除した場合でも
英語を知っていれば再構築が可能です。こうした理由から、情報量の高い
文字列は「ランダム」と見なされることがあります。
歴史
アルゴリズム
情報理論は、1960年代に
アンドレイ・コルモゴロフ、レイ・ソロモノフ、グレゴリー・チャイティンによって発展しました。この分野にはいくつかの派生がありますが、その中でもLeonid Levinによる自己完結型プログラムに基づくものが広く使用されています。また、ペール・マルティン=レーフも重要な貢献をしています。ブラムの
公理に基づくアプローチは、Mark Burginによって1982年に紹介され、その後、関連する内容が書籍としてまとめられました。
正確な定義
バイナリ列がランダムであるとみなされる条件は、そのコルモゴロフ
複雑性が
文字列の長さ以上であることです。この考え方では、任意の長さの
文字列の一部がランダムとされ、多くの部分はランダムに近いと見なされます。また、無限のバイナリ列がランダムであるためには、ある定数が必要で、全ての最初のセグメントのコルモゴロフ
複雑性がその長さから一定の値を引いたものである必要があります。興味深いことに、この性質は異なる選択の万能機械に依存せず、無作為な列の集まり全体が似たような特性を示します。
このような定義は、ペール・マルティン=レーフに由来する「マルティン=レーフ無作為性」として知られています。他にも、幅広い分野で応用されるこの理論の哲学的な側面や数学的な結果が議論されており、知識や計算の限界に関する新しい視点を提供しています。