Category:情報理論
情報量
Entropy (information theory)▲1 trendsカルバック・ライブラー情報量
Kullback–Leibler divergenceSN比
Signal-to-noise ratio交差エントロピー
Cross-entropy相互情報量
Mutual information結合エントロピー
Joint entropyメトカーフの法則
Metcalfe's lawMIMO
MIMO情報理論上の未解決問題
List of unsolved problems in information theoryグレゴリー・チャイティン
Gregory Chaitin最小記述長
Minimum description length通信の数学的理論
A Mathematical Theory of Communication自己相互情報量
Pointwise mutual informationシャノンの情報源符号化定理
Shannon's source coding theorem傾向推定
Linear trend estimation二分バンド幅
Bisection bandwidth二値エントロピー関数
Binary entropy functionスペクトル効率
Spectral efficiencyクロード・E・シャノン賞
Claude E. Shannon Award符号化率
ロブ・クリング
Rob KlingCommon data model
Common data modelエントロピー不確定性
Entropic uncertaintyエントロピーレート
Entropy rate冗長性 (情報理論)
Redundancy (information theory)情報源レート
符号レート
Code rateランダウアーの原理
Landauer's principle