Category:情報理論
標本化定理
Nyquist–Shannon sampling theorem相互情報量
Mutual informationSN比
Signal-to-noise ratio乱数生成
Random number generationランダウアーの原理
Landauer's principle情報量
Entropy (information theory)帯域幅
Bandwidth (signal processing)メトカーフの法則
Metcalfe's lawシャノン=ハートレーの定理
Shannon–Hartley theoremMIMO
MIMO交差エントロピー
Cross-entropyフィッシャー情報量
Fisher informationダメラウ・レーベンシュタイン距離
Damerau–Levenshtein distance最小権限の原則
Principle of least privilegeリチャード・ハミング
Richard Hamming自己相互情報量
Pointwise mutual informationエントロピック重力
Entropic gravityデータ量の比較
Orders of magnitude (data)結合エントロピー
Joint entropyエントロピーレート
Entropy rate最小記述長
Minimum description lengthギブスの不等式
Gibbs' inequalityウラジーミル・レーベンシュタイン
Vladimir Levenshtein通信路容量
Channel capacityエルウィン・バーレカンプ
Elwyn Berlekamp情報理論上の未解決問題
List of unsolved problems in information theory二分バンド幅
Bisection bandwidthグレゴリー・チャイティン
Gregory Chaitin