6. ¿Entropía? Entropía : Para una fuente discreta cuyos símbolos son estadísticamente independientes y los mensajes son estáticos , es decir no combinan con el tiempo . P j = 1/m m P j log 1/p j J = 1 I j m = Cantidades de símbolos del alfabeto del mensaje. 0 < H < log m H = 0 No hay incertidumbre,no entrega información