Calculer l'Entropie du Texte

Mesurez l'entropie de Shannon, la densité d'information et la redondance de votre texte.

Saisissez le texte pour calculer l'entropie

Collez votre contenu ci-dessus ou utilisez un exemple pour mesurer la densité d'information.

Essayez ces exemples

Qu'est-ce que l'entropie textuelle ?

L'entropie de Shannon est un concept de la théorie de l'information qui mesure la quantité moyenne d'informations produite par une source de données. Dans le contexte du texte, elle quantifie le caractère aléatoire ou imprévisibilité des caractères d'une chaîne.

Une chaîne à haute entropie est hautement imprévisible (comme un mot de passe aléatoire), tandis qu'une chaîne à faible entropie présente de nombreux motifs répétés (comme « aaaaa »).

La formule

H(X) = -Σ P(xᵢ) log₂ P(xᵢ)
  • H(X) : Entropie en bits par caractère
  • P(xᵢ) : Probabilité du caractère xᵢ
  • Σ : Somme sur tous les caractères uniques