- Inicio
-
Calcular Entropía del Texto
Calcular Entropía del Texto
Mide la entropía de Shannon, la densidad de información y la redundancia de tu texto.
Ingrese texto para calcular la entropía
Pegue su contenido arriba o use un ejemplo para medir la densidad de información.
Prueba Estos Ejemplos
¿Qué es la Entropía del Texto?
La entropía de Shannon es un concepto de la teoría de la información que mide la cantidad promedio de información producida por una fuente de datos. En el contexto del texto, cuantifica el azar o imprevisibilidad de los caracteres en una cadena.
Una cadena con alta entropía es altamente impredecible (como una contraseña aleatoria), mientras que una cadena con baja entropía tiene muchos patrones repetitivos (como "aaaaa").
La Fórmula
- H(X): Entropía en bits por carácter
- P(xᵢ): Probabilidad del carácter xᵢ
- Σ: Suma sobre todos los caracteres únicos