Category:情報理論
標本化定理
Nyquist–Shannon sampling theorem▲1 trendsSN比
Signal-to-noise ratio▲1 trendsシャノン=ハートレーの定理
Shannon–Hartley theorem最大エントロピー原理
Principle of maximum entropy交差エントロピー
Cross-entropy乱数生成
Random number generation相互情報量
Mutual informationフィッシャー情報量
Fisher informationシャノンの情報源符号化定理
Shannon's source coding theorem最小権限の原則
Principle of least privilegeデータ量の比較
Orders of magnitude (data)結合エントロピー
Joint entropy通信路容量
Channel capacity符号レート
Code rateリチャード・ハミング
Richard Hammingファノの不等式
Fano's inequalityギブスの不等式
Gibbs' inequality位相因子
Phase factorクロード・シャノン
Claude Shannonハリー・ナイキスト
Harry Nyquist二値エントロピー関数
Binary entropy functionレイ・ソロモノフ
Ray Solomonoffダメラウ・レーベンシュタイン距離
Damerau–Levenshtein distance自己相互情報量
Pointwise mutual informationグレゴリー・チャイティン
Gregory Chaitinソロモン・ゴロム
Solomon W. Golombラルフ・ハートレー
Ralph Hartley最小記述長
Minimum description length