Category:情報理論
カルバック・ライブラー情報量
Kullback–Leibler divergence相互情報量
Mutual informationランダウアーの原理
Landauer's principle通信路容量
Channel capacityフィッシャー情報量
Fisher information乱数生成
Random number generation最大エントロピー原理
Principle of maximum entropyシャノンの情報源符号化定理
Shannon's source coding theorem標本化定理
Nyquist–Shannon sampling theoremリチャード・ハミング
Richard Hammingメトカーフの法則
Metcalfe's law結合エントロピー
Joint entropyギブスの不等式
Gibbs' inequalityウラジーミル・レーベンシュタイン
Vladimir Levenshtein符号レート
Code rateファノの不等式
Fano's inequalityブラ-ケット記法
Bra–ket notation自己相互情報量
Pointwise mutual information情報理論上の未解決問題
List of unsolved problems in information theoryハリー・ナイキスト
Harry Nyquistダメラウ・レーベンシュタイン距離
Damerau–Levenshtein distanceエントロピーレート
Entropy rateエントロピック重力
Entropic gravityクロード・E・シャノン賞
Claude E. Shannon Awardエルウィン・バーレカンプ
Elwyn Berlekamp位相因子
Phase factorソロモン・ゴロム
Solomon W. Golomb二分バンド幅
Bisection bandwidth