Entropia Shannona

Entropia Shannona jest jednym z najistotniejszych parametrów teorii informacji. Entropia mierzy niepewność związaną z losową zmienną tj. oczekiwaną ilość informacji w wiadomości (w klasycznej informatyce mierzona jest ona za pomocą bitów).

Pojęcie entropii wprowadził Claude E. Shannon w publikacji pt. „A Mathematical Theory of Communication” (1948). Entropia Shannona pozwala określić minimalną ilość bitów potrzebnych do zakodowania określonej wiadomości (uwzględniając wilkość alfabetu i częstość symboli).

Poniżej znajduje się prostu kalkulator, który pomoże zobrazować to.

Wklej ciąg znaków fla których ma być policzona entropia Shannona.


 

Entropia Shannona liczona jest ze wzoru:

wzór na entropię Shannona