Text-Entropie berechnen

Messen Sie Shannon-Entropie, Informationsdichte und Redundanz Ihres Textes.

Text eingeben, um Entropie zu berechnen

Fügen Sie Ihren Inhalt oben ein oder verwenden Sie ein Beispiel, um die Informationsdichte zu messen.

試試這些範例

Was ist Textentropie?

Die Shannon-Entropie ist ein Konzept aus der Informationstheorie, das die durchschnittliche Informationsmenge misst, die von einer Datenquelle erzeugt wird. Im Kontext von Text quantifiziert sie die Zufälligkeit oder Unvorhersagbarkeit der Zeichen in einer Zeichenfolge.

Ein String mit hoher Entropie ist sehr unvorhersehbar (wie ein zufälliges Passwort), während ein String mit niedriger Entropie viele sich wiederholende Muster aufweist (wie "aaaaa").

Die Formel

H(X) = -Σ P(xᵢ) log₂ P(xᵢ)
  • H(X): Entropie in Bits pro Zeichen
  • P(xᵢ): Wahrscheinlichkeit des Zeichens xᵢ
  • Σ: Summe über alle eindeutigen Zeichen