Category:情報理論
最大エントロピー原理
Principle of maximum entropyスペクトル効率
Spectral efficiency二値エントロピー関数
Binary entropy function自己相互情報量
Pointwise mutual information傾向推定
Linear trend estimationダメラウ・レーベンシュタイン距離
Damerau–Levenshtein distanceロバート・ファノ
Robert Fanoファノの不等式
Fano's inequality結合エントロピー
Joint entropy乱数生成
Random number generation情報熱
ラルフ・ハートレー
Ralph Hartleyグレゴリー・チャイティン
Gregory Chaitinクロード・E・シャノン賞
Claude E. Shannon Awardハリー・ナイキスト
Harry Nyquistシャノンの通信路符号化定理
Noisy-channel coding theoremメトカーフの法則
Metcalfe's law通信の数学的理論
A Mathematical Theory of Communication帯域幅
Bandwidth (signal processing)カルバック・ライブラー情報量
Kullback–Leibler divergenceシャノン=ハートレーの定理
Shannon–Hartley theorem情報理論
Information theory相互情報量
Mutual informationランダウアーの原理
Landauer's principle標本化定理
Nyquist–Shannon sampling theorem情報量
Entropy (information theory)SN比
Signal-to-noise ratioレイ・ソロモノフ
Ray Solomonoff