Category:情報理論

最大エントロピー原理
Principle of maximum entropy▲1 trends
フィッシャー情報量
Fisher information
ランダウアーの原理
Landauer's principle
ハリー・ナイキスト
Harry Nyquist
シャノン=ハートレーの定理
Shannon–Hartley theorem
微分エントロピー
Differential entropy
メトカーフの法則
Metcalfe's law
シャノンの情報源符号化定理
Shannon's source coding theorem
ダメラウ・レーベンシュタイン距離
Damerau–Levenshtein distance
データ量の比較
Orders of magnitude (data)
情報理論上の未解決問題
List of unsolved problems in information theory
結合エントロピー
Joint entropy
リチャード・ハミング
Richard Hamming
通信路容量
Channel capacity
ギブスの不等式
Gibbs' inequality自己相互情報量
Pointwise mutual information
シャノンの通信路符号化定理
Noisy-channel coding theorem
傾向推定
Linear trend estimation
ラルフ・ハートレー
Ralph Hartley
二分バンド幅
Bisection bandwidth
エントロピック重力
Entropic gravity
二値エントロピー関数
Binary entropy function
符号レート
Code rate
スペクトル効率
Spectral efficiency
符号化率

ロブ・クリング
Rob Kling
Common data model
Common data model
エントロピー不確定性
Entropic uncertainty