Category:情報理論
標本化定理
Nyquist–Shannon sampling theorem▲1 trendsSN比
Signal-to-noise ratio▲1 trendsシャノン=ハートレーの定理
Shannon–Hartley theorem最大エントロピー原理
Principle of maximum entropy乱数生成
Random number generation交差エントロピー
Cross-entropy最小権限の原則
Principle of least privilege通信路容量
Channel capacityダメラウ・レーベンシュタイン距離
Damerau–Levenshtein distanceシャノンの情報源符号化定理
Shannon's source coding theoremフィッシャー情報量
Fisher informationデータ量の比較
Orders of magnitude (data)結合エントロピー
Joint entropyハリー・ナイキスト
Harry Nyquistファノの不等式
Fano's inequality位相因子
Phase factor相互情報量
Mutual informationリチャード・ハミング
Richard Hammingランダウアーの原理
Landauer's principleウラジーミル・レーベンシュタイン
Vladimir Levenshteinエントロピーレート
Entropy rateソロモン・ゴロム
Solomon W. Golombレイ・ソロモノフ
Ray Solomonoffグレゴリー・チャイティン
Gregory Chaitinラルフ・ハートレー
Ralph Hartley符号化率
ロブ・クリング
Rob KlingCommon data model
Common data model