Calcola Entropia del Testo

Misura l'entropia di Shannon, la densità informativa e la ridondanza del tuo testo.

Inserisci il testo per calcolare l'entropia

Incolla il contenuto qui sopra o usa un esempio per misurare la densità informativa.

Prova questi esempi

Cos'è l'Entropia del Testo?

L'entropia di Shannon è un concetto della teoria dell'informazione che misura la quantità media di informazioni prodotte da una fonte di dati. Nel contesto del testo, quantifica la casualità o imprevedibilità dei caratteri in una stringa.

Una stringa con alta entropia è altamente imprevedibile (come una password casuale), mentre una stringa con bassa entropia ha molti schemi ripetuti (come "aaaaa").

La Formula

H(X) = -Σ P(xᵢ) log₂ P(xᵢ)
  • H(X): Entropia in bit per carattere
  • P(xᵢ): Probabilità del carattere xᵢ
  • Σ: Somma su tutti i caratteri unici