Bereken tekst Entropie

Meet de Shannon-entropie, informatiedichtheid en redundantie van uw tekst.

Voer tekst in om entropie te berekenen

Plak uw inhoud hierboven of gebruik een voorbeeld om de informatiedichtheid te meten.

Probeer Deze Voorbeelden

Wat is tekstentropie?

Shannon-entropie is een concept uit de informatietheorie dat de gemiddelde hoeveelheid informatie meet die door een databron wordt geproduceerd. In de context van tekst kwantificeert het de willekeur of onvoorspelbaarheid van de tekens in een string.

Een string met hoge entropie is zeer onvoorspelbaar (zoals een willekeurig wachtwoord), terwijl een string met lage entropie veel herhalende patronen heeft (zoals "aaaaa").

De Formule

H(X) = -Σ P(xᵢ) log₂ P(xᵢ)
  • H(X): Entropie in bits per teken
  • P(xᵢ): Kans op teken xᵢ
  • Σ: Som over alle unieke tekens