Calcular Entropia do Texto

Meça a entropia de Shannon, densidade de informação e redundância do seu texto.

Insira texto para calcular entropia

Cole seu conteúdo acima ou use um exemplo para medir a densidade de informações.

Experimente Estes Exemplos

O que é Entropia de Texto?

A entropia de Shannon é um conceito da teoria da informação que mede a quantidade média de informação produzida por uma fonte de dados. No contexto de texto, ela quantifica a aleatoriedade ou imprevisibilidade dos caracteres em uma string.

Uma string com alta entropia é altamente imprevisível (como uma senha aleatória), enquanto uma string com baixa entropia tem muitos padrões repetitivos (como "aaaaa").

A Fórmula

H(X) = -Σ P(xᵢ) log₂ P(xᵢ)
  • H(X): Entropia em bits por caractere
  • P(xᵢ): Probabilidade do caractere xᵢ
  • Σ: Soma sobre todos os caracteres únicos