Category:情報理論
情報量
Entropy (information theory)▲1 trendsカルバック・ライブラー情報量
Kullback–Leibler divergenceSN比
Signal-to-noise ratio交差エントロピー
Cross-entropy相互情報量
Mutual information結合エントロピー
Joint entropyMIMO
MIMOメトカーフの法則
Metcalfe's lawシャノン=ハートレーの定理
Shannon–Hartley theorem帯域幅
Bandwidth (signal processing)グレゴリー・チャイティン
Gregory Chaitin情報理論上の未解決問題
List of unsolved problems in information theoryランダウアーの原理
Landauer's principleシャノンの情報源符号化定理
Shannon's source coding theorem通信の数学的理論
A Mathematical Theory of Communication最小記述長
Minimum description lengthスペクトル効率
Spectral efficiency傾向推定
Linear trend estimation二分バンド幅
Bisection bandwidth二値エントロピー関数
Binary entropy function自己相互情報量
Pointwise mutual information符号レート
Code rateクロード・E・シャノン賞
Claude E. Shannon Award符号化率
ロブ・クリング
Rob KlingCommon data model
Common data modelエントロピー不確定性
Entropic uncertaintyエントロピーレート
Entropy rate