Category:情報理論

標本化定理
Nyquist–Shannon sampling theorem
クロード・シャノン
Claude Shannon
カルバック・ライブラー情報量
Kullback–Leibler divergence
ブラ-ケット記法
Bra–ket notation
帯域幅
Bandwidth (signal processing)
交差エントロピー
Cross-entropy
乱数生成
Random number generation
相互情報量
Mutual information
最小権限の原則
Principle of least privilege
情報理論
Information theory
SN比
Signal-to-noise ratio
グレゴリー・チャイティン
Gregory Chaitin自己相互情報量
Pointwise mutual information
MIMO
MIMO
ダメラウ・レーベンシュタイン距離
Damerau–Levenshtein distance
最大エントロピー原理
Principle of maximum entropy
情報熱

エントロピック重力
Entropic gravity
ファノの不等式
Fano's inequality
ギブスの不等式
Gibbs' inequality
ソロモン・ゴロム
Solomon W. Golomb
位相因子
Phase factor
符号レート
Code rate
フィッシャー情報量
Fisher information
二分バンド幅
Bisection bandwidth
二値エントロピー関数
Binary entropy function
リチャード・ハミング
Richard Hamming
ウラジーミル・レーベンシュタイン
Vladimir Levenshtein