- Home
-
Calcola Entropia del Testo
Calcola Entropia del Testo
Misura l'entropia di Shannon, la densità informativa e la ridondanza del tuo testo.
Inserisci il testo per calcolare l'entropia
Incolla il contenuto qui sopra o usa un esempio per misurare la densità informativa.
Prova questi esempi
Cos'è l'Entropia del Testo?
L'entropia di Shannon è un concetto della teoria dell'informazione che misura la quantità media di informazioni prodotte da una fonte di dati. Nel contesto del testo, quantifica la casualità o imprevedibilità dei caratteri in una stringa.
Una stringa con alta entropia è altamente imprevedibile (come una password casuale), mentre una stringa con bassa entropia ha molti schemi ripetuti (come "aaaaa").
La Formula
- H(X): Entropia in bit per carattere
- P(xᵢ): Probabilità del carattere xᵢ
- Σ: Somma su tutti i caratteri unici