- Início
-
Calcular Entropia do Texto
Calcular Entropia do Texto
Meça a entropia de Shannon, densidade de informação e redundância do seu texto.
Insira texto para calcular entropia
Cole seu conteúdo acima ou use um exemplo para medir a densidade de informações.
Experimente Estes Exemplos
O que é Entropia de Texto?
A entropia de Shannon é um conceito da teoria da informação que mede a quantidade média de informação produzida por uma fonte de dados. No contexto de texto, ela quantifica a aleatoriedade ou imprevisibilidade dos caracteres em uma string.
Uma string com alta entropia é altamente imprevisível (como uma senha aleatória), enquanto uma string com baixa entropia tem muitos padrões repetitivos (como "aaaaa").
A Fórmula
- H(X): Entropia em bits por caractere
- P(xᵢ): Probabilidade do caractere xᵢ
- Σ: Soma sobre todos os caracteres únicos