Category:情報理論

最大エントロピー原理
Principle of maximum entropy
フィッシャー情報量
Fisher information
シャノン=ハートレーの定理
Shannon–Hartley theorem
情報量
Entropy (information theory)
ハリー・ナイキスト
Harry Nyquist
ランダウアーの原理
Landauer's principle
シャノンの情報源符号化定理
Shannon's source coding theorem
カルバック・ライブラー情報量
Kullback–Leibler divergence
微分エントロピー
Differential entropy
標本化定理
Nyquist–Shannon sampling theorem
ダメラウ・レーベンシュタイン距離
Damerau–Levenshtein distance
シャノンの通信路符号化定理
Noisy-channel coding theorem
メトカーフの法則
Metcalfe's law
通信路容量
Channel capacity
データ量の比較
Orders of magnitude (data)
情報理論上の未解決問題
List of unsolved problems in information theory
MIMO
MIMO
結合エントロピー
Joint entropy
エントロピック重力
Entropic gravity
ギブスの不等式
Gibbs' inequality
クロード・E・シャノン賞
Claude E. Shannon Award自己相互情報量
Pointwise mutual information
リチャード・ハミング
Richard Hamming
符号レート
Code rate
傾向推定
Linear trend estimation
ラルフ・ハートレー
Ralph Hartley
二分バンド幅
Bisection bandwidth
二値エントロピー関数
Binary entropy function