Category:情報理論
標本化定理
Nyquist–Shannon sampling theorem▲1 trends相互情報量
Mutual information▲1 trends乱数生成
Random number generationSN比
Signal-to-noise ratio▲1 trendsメトカーフの法則
Metcalfe's lawランダウアーの原理
Landauer's principle情報量
Entropy (information theory)データ量の比較
Orders of magnitude (data)ダメラウ・レーベンシュタイン距離
Damerau–Levenshtein distanceシャノン=ハートレーの定理
Shannon–Hartley theorem最小権限の原則
Principle of least privilege微分エントロピー
Differential entropyグレゴリー・チャイティン
Gregory Chaitin結合エントロピー
Joint entropy交差エントロピー
Cross-entropyリチャード・ハミング
Richard Hammingフィッシャー情報量
Fisher informationエントロピック重力
Entropic gravity自己相互情報量
Pointwise mutual informationMIMO
MIMO最小記述長
Minimum description length二値エントロピー関数
Binary entropy functionレイ・ソロモノフ
Ray Solomonoff二分バンド幅
Bisection bandwidth傾向推定
Linear trend estimationギブスの不等式
Gibbs' inequalityエントロピーレート
Entropy rate符号化率