テキストのエントロピーを計算

テキストのシャノンエントロピー、情報密度、冗長性を測定します。

エントロピーを計算するテキストを入力

上記に内容を貼り付けるか、例を使用して情報密度を測定してください。

これらの例を試す

テキストエントロピーとは?

シャノンエントロピーは情報理論の概念で、データソースが生成する情報の平均量を測定します。テキストにおいては、文字列内の文字のランダム性または予測不可能性を定量化します。

高エントロピーの文字列は(ランダムなパスワードのように)予測が非常に難しく、低エントロピーの文字列は(「aaaaa」のように)多くの繰り返しパターンを持ちます。

数式

H(X) = -Σ P(xᵢ) log₂ P(xᵢ)
  • H(X): 1文字あたりのエントロピー(ビット単位)
  • P(xᵢ): 文字xᵢの確率
  • Σ: 全ユニーク文字の合計