SlideShare ist ein Scribd-Unternehmen logo
1 von 25
[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Universidad Nacional de Ingeniería
Contenido ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Teoría de la Información ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object]
Teoría de la Información ¿Qué entendemos por el término información?   La noción intuitiva y común de información se refiere a cualquier  nuevo conocimiento acerca de algo .  Sin embargo, en nuestro contexto, apelaremos a la teoría de la información. Esta disciplina de amplia base matemática ha efectuado aportaciones fundamentales, no solo a las comunicaciones, sino también a la ciencia del cómputo, la física estadística y la inferencia estadística, así como a la probabilidad y la estadística. En el contexto de las comunicaciones, la teoría de la información tiene que ver con el modelado y el análisis matemático de un sistema de comunicación y no con los canales y las fuentes físicos.
Teoría de la Información ,[object Object],[object Object],[object Object],[object Object],[object Object],...001011... ...010110... ...110101...
Teoría de la Información Una de las cosas más importantes que debemos acordar es: ¿podemos establecer una buena medida de lo que es información? ¿Cómo obtener un mecanismo para establecer el grado de información que contiene un grupo limitado de mensajes? La respuesta a estas preguntas se encuentran en la entropía de una fuente y en la capacidad de un canal. Entropía:   Se define en términos del comportamiento probabilístico de una fuente de información. Capacidad de Canal:   Se define como la posibilidad intrínseca de un canal para transportar información; se relaciona de forma natural con las características de ruido de canal.
Medida de la Información En términos generales, la medida de la información que genera una fuente está relacionada con la “calidad “ o “nivel” de novedad (conocimiento) que provee al destino. ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],•  La respuesta es que  la información es inversamente proporcional a la probabilidad  de ocurrencia del mensaje.
Medida de la Información ,[object Object],[object Object],[object Object],[object Object],•  Con base en lo anterior, se infiere que el mensaje x 4  conlleva  la mayor cantidad de información   por ser el menos probable  y encerrar un alto grado de incertidumbre.
Medida de la Información ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],Usamos la nomenclatura de información dada por:
Medida de la Información
Medida de la Información Una buena medida es la esperanza matemáticas de los valores estadísticos de un espacio muestral. Consideremos una fuente de información que envía uno de los símbolos del siguiente alfabeto: Cada uno de los símbolos es entonces una muestra de la variable aleatoria discreta X la cual toma símbolos de dicho alfabeto. La probabilidad que un símbolo x k  sea enviado (ocurra) está dada por: Entonces una medida de  la información  propia que acarrea cada símbolo x k  sería: Medida en bits Fuente Discreta de Información X
Medida de la Información El valor medio o esperanza de la información que acarrea la variable aleatoria discreta X, la cual sería: Sin embargo, definir la información del mensaje como I(x k )= 1/p k , crea un serio problema para establecer la esperanza de la medida de información y para cumplir con las 4 condiciones impuestas en la diapositiva #10. Se puede probar que esta inconveniencia desaparece si se estable que: El log 2  1/p k  se justifica dado que un bit es la cantidad mínima de información: la ausencia o presencia de un mensaje determinado. Medida en bits
En este caso se define a la  entropía , como la media de la información acarreada por la variable aleatoria discreta X, y se calcula como: La cantidad H(X) recibe el nombre de entropía de una fuente discreta sin  memoria con alfabeto de fuente. Esta es una medida del contenido de información promedia por símbolo de la fuente. Se debe notar que H(X) depende sólo de las probabilidades del símbolo en alfabeto  L X  de la fuente. Entropía Medida en bits
Propiedades de la Entropía
Ejemplo 1 Consideremos una fuente binaria discreta sin memoria (DMS) cuyo alfabeto está compuesto de símbolos enviados con las probabilidades p y 1 - p respectivamente. Determinaremos la entropía de este alfabeto, trazaremos su gráfica y determinaremos el valor de p que maximiza dicha entropía ,[object Object],[object Object],[object Object],Este resultado también se obtiene al derivar  H(X)  e igualando a cero para determinar su máximo. Luego se despeja  p,  o sea  hallar p tal que dH(p)/dp=0,   H(X) en bits Probabilidad de símbolo H máx
NOTA:  Observe que en el estudio que realizaremos sobre el formateo de señales  como PCM y DM, la tasa de muestreo r la denominaremos f S , y la velocidad de transmisión de información binaria como R b .  Codificación fuente (nuevamente) ,[object Object],[object Object],[object Object]
Ejemplo 2 Una fuente con un ancho de banda de 4000Hz es muestreada a la frecuencia de Nyquist y es cuantizada a cinco niveles. Asumiendo que la secuencia resultante puede modelarse aproximadamente por un DMS con un alfabeto {-2, -1, 0, 1, 2} y con sus probabilidades correspondientes de {1/2, 1/4, 1/8, 1/16, 1/16}. Determinaremos la tasa o velocidad de transmisión de la fuente en bits por segundos. Por tanto, podemos hallar la velocidad de transmisión como:
Ejemplo 3
Entropía de fuente extendida En la práctica, la transmisión de información ocurre mas en bloques de símbolos que en símbolos individuales. El alfabeto  L n X   compuesto de estos de K n  (donde K es el número de símbolos individuales distintos del alfabeto fuente original  L X ) bloques distintos suele nombrarse como alfabeto extendido en cuyo caso la determinación de la medida de información y de la entropía, cuando la fuente es DMS, se obtiene como:  donde: La entropía de un alfabeto compuesto de orden n es igual a n veces la entropía de el alfabeto original de orden 1 que le dio origen. Compuesto de K n  bloques de n símbolos Compuesto de K símbolos
Ejemplo 4 Considere una fuente discreta sin memoria con alfabeto de fuente  L X   ={x 0 , x 1 , x 2 } con probabilidades respectivas ={1/4, 1/4, 1/2}. Determinaremos la entropía H(X) y la entropía compuesta para n=2, o H(X 2 ). Se comprobará que H(X 2 )=2H(X). Se deja como ejercicio los detalles de este cálculo. Cuadro auxiliar donde se muestran los alfabetos  L X   y  L 2 X 1/4 1/8 1/8 1/8 1/16 1/16 1/8 1/16 1/16 Probabilidad de símbolos   L 2 X x 2 x 2 x 2 x 1 x 2 x 0 x 1 x 2 x 1 x 1 x 1 x 0 x 0 x 2 x 0 x 1 x 0 x 0 Secuencia correspondiente de símbolos   L X  8  7  6  5  4  3  2  1  0 Símbolos (bloques)  L 2 X
Ejemplo 3 Evaluando el resultado tenemos. De tal manera vemos que H(X 2 )=2H(X), es decir (3) = (2)*(3/2)
Codificación fuente (nuevamente) Hemos indicado que uno de los objetivos de la teoría de la información es establecer si es posible encontrar un código de fuente que permita enviar más información en menos tiempo, esto es, encontrar un código que sea suficientemente eficiente. Por código eficiente se entiende aquel código cuya longitud media es la mínima posible que resulta de asignar códigos mas cortos a símbolos mas probables y códigos mas largos a símbolos menos probables. En la  conferencia #3 , estudiamos un caso particular conocido como Código Huffman el cual cumple con esta condición. Alfabeto Fuente Probabilidad de los símbolos del Alfabeto Fuente Longitud media del código Varianza de la longitud de los códigos
Codificación fuente (nuevamente) Matemáticamente, la eficiencia    de un código se define como: Es el valor mínimo posible de L X El valor mínimo de L (L mín ) se obtiene a través del primer teorema de Shannon conocido como teorema de la codificación fuente. Este teorema se enuncia como: Entonces, la eficiencia del código se puede reescribir como: La redundancia del código se calcula como: Dada una fuente discreta sin memoria de entropía H(X),La longitud promedio de palabra de código L para cualquier esquema de codificación fuente sin distorsión está acotada como: Primero teorema de Shannon  Fuente discreta sin memoria Fuente discreta sin memoria x k a k Secuencia Binaria
Codificación fuente: código Huffman ,[object Object],[object Object],[object Object],[object Object]
Gracias por su Atención

Weitere ähnliche Inhalte

Was ist angesagt?

Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
Ejercicios Modulación Análoga & Digital resultados(fam)-rev3Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
Ejercicios Modulación Análoga & Digital resultados(fam)-rev3Francisco Apablaza
 
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOS
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOSCAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOS
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOSStudent A
 
Códigos de línea
Códigos de líneaCódigos de línea
Códigos de líneaOscar Llanos
 
4.TDM Multiplexacion por division de tiempo
4.TDM Multiplexacion por division de tiempo4.TDM Multiplexacion por division de tiempo
4.TDM Multiplexacion por division de tiempoEdison Coimbra G.
 
Tecnicas mic pdh sdh
Tecnicas mic pdh sdhTecnicas mic pdh sdh
Tecnicas mic pdh sdhLuis Yallerco
 
Gaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicasGaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicasVelmuz Buzz
 
Lecture 14 modulacion digital parte 2
Lecture 14 modulacion digital    parte 2Lecture 14 modulacion digital    parte 2
Lecture 14 modulacion digital parte 2nica2009
 
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE Toño Avilix
 
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...nica2009
 
Lecture 7 analisis radioprop p5
Lecture 7 analisis radioprop   p5Lecture 7 analisis radioprop   p5
Lecture 7 analisis radioprop p5nica2009
 
Lecture 20 detección en códigos lineales de bloque. generación de códigos cíc...
Lecture 20 detección en códigos lineales de bloque. generación de códigos cíc...Lecture 20 detección en códigos lineales de bloque. generación de códigos cíc...
Lecture 20 detección en códigos lineales de bloque. generación de códigos cíc...nica2009
 

Was ist angesagt? (20)

Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
Ejercicios Modulación Análoga & Digital resultados(fam)-rev3Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
Ejercicios Modulación Análoga & Digital resultados(fam)-rev3
 
Codigos de linea.pdfcódiga
Codigos de linea.pdfcódigaCodigos de linea.pdfcódiga
Codigos de linea.pdfcódiga
 
Reed Solomon
Reed SolomonReed Solomon
Reed Solomon
 
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOS
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOSCAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOS
CAPACIDAD DE CANAL DE COMUNICACIÓN DE DATOS
 
Modulacion AM
Modulacion AMModulacion AM
Modulacion AM
 
Modulacion ask
Modulacion askModulacion ask
Modulacion ask
 
Modulación AM - PM - FM
Modulación AM - PM - FMModulación AM - PM - FM
Modulación AM - PM - FM
 
Fm 2014 1
Fm 2014 1Fm 2014 1
Fm 2014 1
 
Final1 tomasi
Final1 tomasiFinal1 tomasi
Final1 tomasi
 
Códigos de línea
Códigos de líneaCódigos de línea
Códigos de línea
 
4.TDM Multiplexacion por division de tiempo
4.TDM Multiplexacion por division de tiempo4.TDM Multiplexacion por division de tiempo
4.TDM Multiplexacion por division de tiempo
 
Tecnicas mic pdh sdh
Tecnicas mic pdh sdhTecnicas mic pdh sdh
Tecnicas mic pdh sdh
 
Gaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicasGaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicas
 
Lecture 14 modulacion digital parte 2
Lecture 14 modulacion digital    parte 2Lecture 14 modulacion digital    parte 2
Lecture 14 modulacion digital parte 2
 
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN FUENTE
 
codificacion de linea
codificacion de lineacodificacion de linea
codificacion de linea
 
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
 
Funciones De Bessel Y Regla De Carson
Funciones De Bessel Y Regla De CarsonFunciones De Bessel Y Regla De Carson
Funciones De Bessel Y Regla De Carson
 
Lecture 7 analisis radioprop p5
Lecture 7 analisis radioprop   p5Lecture 7 analisis radioprop   p5
Lecture 7 analisis radioprop p5
 
Lecture 20 detección en códigos lineales de bloque. generación de códigos cíc...
Lecture 20 detección en códigos lineales de bloque. generación de códigos cíc...Lecture 20 detección en códigos lineales de bloque. generación de códigos cíc...
Lecture 20 detección en códigos lineales de bloque. generación de códigos cíc...
 

Andere mochten auch

Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacionOberdose
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la informaciónEdwin Ortega
 
Entropia y neguentropia
Entropia y neguentropiaEntropia y neguentropia
Entropia y neguentropiaRussel Gama
 
Teoría de la información - Shannon y Weaver
Teoría de la información - Shannon y WeaverTeoría de la información - Shannon y Weaver
Teoría de la información - Shannon y WeaverDaniela Escobar
 
6. Teoría matemática de la información
6. Teoría matemática de la información6. Teoría matemática de la información
6. Teoría matemática de la informaciónPauli Rodriguez
 
Historia De La Ciencia De La InformacióN
Historia De La Ciencia De La InformacióNHistoria De La Ciencia De La InformacióN
Historia De La Ciencia De La InformacióNMauricio Fino
 
Teoria de informacion Mapa Conceptual
Teoria de informacion Mapa Conceptual Teoria de informacion Mapa Conceptual
Teoria de informacion Mapa Conceptual Daylenis Isamar Ramos
 
Lecture 24 técnicas de espectro esparcido
Lecture 24 técnicas de espectro esparcidoLecture 24 técnicas de espectro esparcido
Lecture 24 técnicas de espectro esparcidonica2009
 
Lecture 10 isi and eye pattern
Lecture 10 isi and eye patternLecture 10 isi and eye pattern
Lecture 10 isi and eye patternnica2009
 
Lecture 8 formateo de señales dm y adm. multiplexión digital
Lecture 8 formateo de señales dm y adm. multiplexión digitalLecture 8 formateo de señales dm y adm. multiplexión digital
Lecture 8 formateo de señales dm y adm. multiplexión digitalnica2009
 
Lecture 4 principios de economía p3
Lecture 4 principios de economía p3Lecture 4 principios de economía p3
Lecture 4 principios de economía p3nica2009
 
Lecture 25 ss cdma espectro esparcido
Lecture 25 ss cdma   espectro esparcidoLecture 25 ss cdma   espectro esparcido
Lecture 25 ss cdma espectro esparcidonica2009
 
Lecture 11 precodificación y ecualización
Lecture 11 precodificación y ecualizaciónLecture 11 precodificación y ecualización
Lecture 11 precodificación y ecualizaciónnica2009
 
Lecture 19 codificación para control de errores. generación códigos lineales.
Lecture 19 codificación para control de errores. generación códigos lineales.Lecture 19 codificación para control de errores. generación códigos lineales.
Lecture 19 codificación para control de errores. generación códigos lineales.nica2009
 
Lecture 3 principios de economía p2
Lecture 3 principios de economía p2Lecture 3 principios de economía p2
Lecture 3 principios de economía p2nica2009
 

Andere mochten auch (20)

Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Teoría de la información
Teoría de la informaciónTeoría de la información
Teoría de la información
 
Entropia y neguentropia
Entropia y neguentropiaEntropia y neguentropia
Entropia y neguentropia
 
Teoría de la información - Shannon y Weaver
Teoría de la información - Shannon y WeaverTeoría de la información - Shannon y Weaver
Teoría de la información - Shannon y Weaver
 
Probabilidades
ProbabilidadesProbabilidades
Probabilidades
 
6. Teoría matemática de la información
6. Teoría matemática de la información6. Teoría matemática de la información
6. Teoría matemática de la información
 
3 teoría de la información
3 teoría de la información3 teoría de la información
3 teoría de la información
 
Historia De La Ciencia De La InformacióN
Historia De La Ciencia De La InformacióNHistoria De La Ciencia De La InformacióN
Historia De La Ciencia De La InformacióN
 
Teoria de informacion Mapa Conceptual
Teoria de informacion Mapa Conceptual Teoria de informacion Mapa Conceptual
Teoria de informacion Mapa Conceptual
 
Lecture 24 técnicas de espectro esparcido
Lecture 24 técnicas de espectro esparcidoLecture 24 técnicas de espectro esparcido
Lecture 24 técnicas de espectro esparcido
 
Mimo
MimoMimo
Mimo
 
Teoria de informacion
Teoria de informacionTeoria de informacion
Teoria de informacion
 
Lecture 10 isi and eye pattern
Lecture 10 isi and eye patternLecture 10 isi and eye pattern
Lecture 10 isi and eye pattern
 
Lecture 8 formateo de señales dm y adm. multiplexión digital
Lecture 8 formateo de señales dm y adm. multiplexión digitalLecture 8 formateo de señales dm y adm. multiplexión digital
Lecture 8 formateo de señales dm y adm. multiplexión digital
 
Lecture 4 principios de economía p3
Lecture 4 principios de economía p3Lecture 4 principios de economía p3
Lecture 4 principios de economía p3
 
Lecture 25 ss cdma espectro esparcido
Lecture 25 ss cdma   espectro esparcidoLecture 25 ss cdma   espectro esparcido
Lecture 25 ss cdma espectro esparcido
 
Texto, párrafo y enunciado
Texto, párrafo y enunciadoTexto, párrafo y enunciado
Texto, párrafo y enunciado
 
Lecture 11 precodificación y ecualización
Lecture 11 precodificación y ecualizaciónLecture 11 precodificación y ecualización
Lecture 11 precodificación y ecualización
 
Lecture 19 codificación para control de errores. generación códigos lineales.
Lecture 19 codificación para control de errores. generación códigos lineales.Lecture 19 codificación para control de errores. generación códigos lineales.
Lecture 19 codificación para control de errores. generación códigos lineales.
 
Lecture 3 principios de economía p2
Lecture 3 principios de economía p2Lecture 3 principios de economía p2
Lecture 3 principios de economía p2
 

Ähnlich wie Lecture 4 teoría de la información

lecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptxlecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptxssuser8106a7
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLaura Elizabeth Contreras
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLaura Elizabeth Contreras
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacionsaulparra10
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacionErick Calderin
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Marco Muñoz
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacionyaayiis
 

Ähnlich wie Lecture 4 teoría de la información (20)

lecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptxlecture4teoradelainformacin-120221112111-phpapp02.pptx
lecture4teoradelainformacin-120221112111-phpapp02.pptx
 
Expo 1
Expo 1Expo 1
Expo 1
 
Entropia
EntropiaEntropia
Entropia
 
Entropia
EntropiaEntropia
Entropia
 
Entropia
EntropiaEntropia
Entropia
 
Comunicacion 22 4.19
Comunicacion 22 4.19Comunicacion 22 4.19
Comunicacion 22 4.19
 
Markov
MarkovMarkov
Markov
 
Semana 9
Semana 9Semana 9
Semana 9
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicación
 
La comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicaciónLa comunicación humana y la teoría matemática de la comunicación
La comunicación humana y la teoría matemática de la comunicación
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Teoria de la informacion
Teoria de la informacion Teoria de la informacion
Teoria de la informacion
 
Teoria de-lainformacion 1
Teoria de-lainformacion 1Teoria de-lainformacion 1
Teoria de-lainformacion 1
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 
Franghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 tiFranghelina barreses ci.25.782.354 ti
Franghelina barreses ci.25.782.354 ti
 
Entropía de la información
Entropía de la informaciónEntropía de la información
Entropía de la información
 
Tdi
TdiTdi
Tdi
 
Entropia
EntropiaEntropia
Entropia
 
Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información Actividad n° 2 reforzando la entropía de la información
Actividad n° 2 reforzando la entropía de la información
 
Teoria de la informacion
Teoria de la informacionTeoria de la informacion
Teoria de la informacion
 

Mehr von nica2009

Lecture 14 radioenlaces terrenales servicio fijo p5
Lecture 14 radioenlaces terrenales servicio fijo   p5Lecture 14 radioenlaces terrenales servicio fijo   p5
Lecture 14 radioenlaces terrenales servicio fijo p5nica2009
 
Lecture 13 radioenlaces terrenales servicio fijo p4
Lecture 13 radioenlaces terrenales servicio fijo   p4Lecture 13 radioenlaces terrenales servicio fijo   p4
Lecture 13 radioenlaces terrenales servicio fijo p4nica2009
 
Lecture 12 radioenlaces terrenales servicio fijo p3
Lecture 12 radioenlaces terrenales servicio fijo   p3Lecture 12 radioenlaces terrenales servicio fijo   p3
Lecture 12 radioenlaces terrenales servicio fijo p3nica2009
 
Lecture 11 radioenlaces terrenales servicio fijo p2
Lecture 11 radioenlaces terrenales servicio fijo   p2Lecture 11 radioenlaces terrenales servicio fijo   p2
Lecture 11 radioenlaces terrenales servicio fijo p2nica2009
 
Lecture 10 radioenlaces terrenales servicio fijo p1
Lecture 10 radioenlaces terrenales servicio fijo   p1Lecture 10 radioenlaces terrenales servicio fijo   p1
Lecture 10 radioenlaces terrenales servicio fijo p1nica2009
 
Lecture 9 analisis radioprop p6
Lecture 9 analisis radioprop   p6Lecture 9 analisis radioprop   p6
Lecture 9 analisis radioprop p6nica2009
 
Lecture 8 revisión de ejercicios unidad ii
Lecture 8 revisión de ejercicios   unidad iiLecture 8 revisión de ejercicios   unidad ii
Lecture 8 revisión de ejercicios unidad iinica2009
 
Lecture 6 analisis radioprop p4
Lecture 6 analisis radioprop   p4Lecture 6 analisis radioprop   p4
Lecture 6 analisis radioprop p4nica2009
 
Lecture 5 analisis radioprop p3
Lecture 5 analisis radioprop   p3Lecture 5 analisis radioprop   p3
Lecture 5 analisis radioprop p3nica2009
 
Lecture 4 analisis radioprop p2
Lecture 4 analisis radioprop   p2Lecture 4 analisis radioprop   p2
Lecture 4 analisis radioprop p2nica2009
 
Lecture 3 analisis radioprop p1
Lecture 3 analisis radioprop   p1Lecture 3 analisis radioprop   p1
Lecture 3 analisis radioprop p1nica2009
 
Lecture 2 intro a sist radiocom p2
Lecture 2 intro a sist radiocom   p2Lecture 2 intro a sist radiocom   p2
Lecture 2 intro a sist radiocom p2nica2009
 
Lecture 15 radioenlaces terrenales servicio fijo p6
Lecture 15 radioenlaces terrenales servicio fijo   p6Lecture 15 radioenlaces terrenales servicio fijo   p6
Lecture 15 radioenlaces terrenales servicio fijo p6nica2009
 
Lecture 1 intro a sist radiocom p1
Lecture 1 intro a sist radiocom   p1Lecture 1 intro a sist radiocom   p1
Lecture 1 intro a sist radiocom p1nica2009
 
Lecture 8 principios de economía p7
Lecture 8 principios de economía p7Lecture 8 principios de economía p7
Lecture 8 principios de economía p7nica2009
 
Lecture 7 principios de economía p6
Lecture 7 principios de economía p6Lecture 7 principios de economía p6
Lecture 7 principios de economía p6nica2009
 
Lecture 6 principios de economía p5
Lecture 6 principios de economía p5Lecture 6 principios de economía p5
Lecture 6 principios de economía p5nica2009
 
Lecture 5 principios de economía p4
Lecture 5 principios de economía p4Lecture 5 principios de economía p4
Lecture 5 principios de economía p4nica2009
 
Lecture 2 principios de economía p1
Lecture 2 principios de economía p1Lecture 2 principios de economía p1
Lecture 2 principios de economía p1nica2009
 
Lecture 1 elementos básicos de proyectos
Lecture 1 elementos básicos de proyectosLecture 1 elementos básicos de proyectos
Lecture 1 elementos básicos de proyectosnica2009
 

Mehr von nica2009 (20)

Lecture 14 radioenlaces terrenales servicio fijo p5
Lecture 14 radioenlaces terrenales servicio fijo   p5Lecture 14 radioenlaces terrenales servicio fijo   p5
Lecture 14 radioenlaces terrenales servicio fijo p5
 
Lecture 13 radioenlaces terrenales servicio fijo p4
Lecture 13 radioenlaces terrenales servicio fijo   p4Lecture 13 radioenlaces terrenales servicio fijo   p4
Lecture 13 radioenlaces terrenales servicio fijo p4
 
Lecture 12 radioenlaces terrenales servicio fijo p3
Lecture 12 radioenlaces terrenales servicio fijo   p3Lecture 12 radioenlaces terrenales servicio fijo   p3
Lecture 12 radioenlaces terrenales servicio fijo p3
 
Lecture 11 radioenlaces terrenales servicio fijo p2
Lecture 11 radioenlaces terrenales servicio fijo   p2Lecture 11 radioenlaces terrenales servicio fijo   p2
Lecture 11 radioenlaces terrenales servicio fijo p2
 
Lecture 10 radioenlaces terrenales servicio fijo p1
Lecture 10 radioenlaces terrenales servicio fijo   p1Lecture 10 radioenlaces terrenales servicio fijo   p1
Lecture 10 radioenlaces terrenales servicio fijo p1
 
Lecture 9 analisis radioprop p6
Lecture 9 analisis radioprop   p6Lecture 9 analisis radioprop   p6
Lecture 9 analisis radioprop p6
 
Lecture 8 revisión de ejercicios unidad ii
Lecture 8 revisión de ejercicios   unidad iiLecture 8 revisión de ejercicios   unidad ii
Lecture 8 revisión de ejercicios unidad ii
 
Lecture 6 analisis radioprop p4
Lecture 6 analisis radioprop   p4Lecture 6 analisis radioprop   p4
Lecture 6 analisis radioprop p4
 
Lecture 5 analisis radioprop p3
Lecture 5 analisis radioprop   p3Lecture 5 analisis radioprop   p3
Lecture 5 analisis radioprop p3
 
Lecture 4 analisis radioprop p2
Lecture 4 analisis radioprop   p2Lecture 4 analisis radioprop   p2
Lecture 4 analisis radioprop p2
 
Lecture 3 analisis radioprop p1
Lecture 3 analisis radioprop   p1Lecture 3 analisis radioprop   p1
Lecture 3 analisis radioprop p1
 
Lecture 2 intro a sist radiocom p2
Lecture 2 intro a sist radiocom   p2Lecture 2 intro a sist radiocom   p2
Lecture 2 intro a sist radiocom p2
 
Lecture 15 radioenlaces terrenales servicio fijo p6
Lecture 15 radioenlaces terrenales servicio fijo   p6Lecture 15 radioenlaces terrenales servicio fijo   p6
Lecture 15 radioenlaces terrenales servicio fijo p6
 
Lecture 1 intro a sist radiocom p1
Lecture 1 intro a sist radiocom   p1Lecture 1 intro a sist radiocom   p1
Lecture 1 intro a sist radiocom p1
 
Lecture 8 principios de economía p7
Lecture 8 principios de economía p7Lecture 8 principios de economía p7
Lecture 8 principios de economía p7
 
Lecture 7 principios de economía p6
Lecture 7 principios de economía p6Lecture 7 principios de economía p6
Lecture 7 principios de economía p6
 
Lecture 6 principios de economía p5
Lecture 6 principios de economía p5Lecture 6 principios de economía p5
Lecture 6 principios de economía p5
 
Lecture 5 principios de economía p4
Lecture 5 principios de economía p4Lecture 5 principios de economía p4
Lecture 5 principios de economía p4
 
Lecture 2 principios de economía p1
Lecture 2 principios de economía p1Lecture 2 principios de economía p1
Lecture 2 principios de economía p1
 
Lecture 1 elementos básicos de proyectos
Lecture 1 elementos básicos de proyectosLecture 1 elementos básicos de proyectos
Lecture 1 elementos básicos de proyectos
 

Lecture 4 teoría de la información

  • 1.
  • 2.
  • 3.
  • 4. Teoría de la Información ¿Qué entendemos por el término información? La noción intuitiva y común de información se refiere a cualquier nuevo conocimiento acerca de algo . Sin embargo, en nuestro contexto, apelaremos a la teoría de la información. Esta disciplina de amplia base matemática ha efectuado aportaciones fundamentales, no solo a las comunicaciones, sino también a la ciencia del cómputo, la física estadística y la inferencia estadística, así como a la probabilidad y la estadística. En el contexto de las comunicaciones, la teoría de la información tiene que ver con el modelado y el análisis matemático de un sistema de comunicación y no con los canales y las fuentes físicos.
  • 5.
  • 6. Teoría de la Información Una de las cosas más importantes que debemos acordar es: ¿podemos establecer una buena medida de lo que es información? ¿Cómo obtener un mecanismo para establecer el grado de información que contiene un grupo limitado de mensajes? La respuesta a estas preguntas se encuentran en la entropía de una fuente y en la capacidad de un canal. Entropía: Se define en términos del comportamiento probabilístico de una fuente de información. Capacidad de Canal: Se define como la posibilidad intrínseca de un canal para transportar información; se relaciona de forma natural con las características de ruido de canal.
  • 7.
  • 8.
  • 9.
  • 10. Medida de la Información
  • 11. Medida de la Información Una buena medida es la esperanza matemáticas de los valores estadísticos de un espacio muestral. Consideremos una fuente de información que envía uno de los símbolos del siguiente alfabeto: Cada uno de los símbolos es entonces una muestra de la variable aleatoria discreta X la cual toma símbolos de dicho alfabeto. La probabilidad que un símbolo x k sea enviado (ocurra) está dada por: Entonces una medida de la información propia que acarrea cada símbolo x k sería: Medida en bits Fuente Discreta de Información X
  • 12. Medida de la Información El valor medio o esperanza de la información que acarrea la variable aleatoria discreta X, la cual sería: Sin embargo, definir la información del mensaje como I(x k )= 1/p k , crea un serio problema para establecer la esperanza de la medida de información y para cumplir con las 4 condiciones impuestas en la diapositiva #10. Se puede probar que esta inconveniencia desaparece si se estable que: El log 2 1/p k se justifica dado que un bit es la cantidad mínima de información: la ausencia o presencia de un mensaje determinado. Medida en bits
  • 13. En este caso se define a la entropía , como la media de la información acarreada por la variable aleatoria discreta X, y se calcula como: La cantidad H(X) recibe el nombre de entropía de una fuente discreta sin memoria con alfabeto de fuente. Esta es una medida del contenido de información promedia por símbolo de la fuente. Se debe notar que H(X) depende sólo de las probabilidades del símbolo en alfabeto L X de la fuente. Entropía Medida en bits
  • 14. Propiedades de la Entropía
  • 15.
  • 16.
  • 17. Ejemplo 2 Una fuente con un ancho de banda de 4000Hz es muestreada a la frecuencia de Nyquist y es cuantizada a cinco niveles. Asumiendo que la secuencia resultante puede modelarse aproximadamente por un DMS con un alfabeto {-2, -1, 0, 1, 2} y con sus probabilidades correspondientes de {1/2, 1/4, 1/8, 1/16, 1/16}. Determinaremos la tasa o velocidad de transmisión de la fuente en bits por segundos. Por tanto, podemos hallar la velocidad de transmisión como:
  • 19. Entropía de fuente extendida En la práctica, la transmisión de información ocurre mas en bloques de símbolos que en símbolos individuales. El alfabeto L n X compuesto de estos de K n (donde K es el número de símbolos individuales distintos del alfabeto fuente original L X ) bloques distintos suele nombrarse como alfabeto extendido en cuyo caso la determinación de la medida de información y de la entropía, cuando la fuente es DMS, se obtiene como: donde: La entropía de un alfabeto compuesto de orden n es igual a n veces la entropía de el alfabeto original de orden 1 que le dio origen. Compuesto de K n bloques de n símbolos Compuesto de K símbolos
  • 20. Ejemplo 4 Considere una fuente discreta sin memoria con alfabeto de fuente L X ={x 0 , x 1 , x 2 } con probabilidades respectivas ={1/4, 1/4, 1/2}. Determinaremos la entropía H(X) y la entropía compuesta para n=2, o H(X 2 ). Se comprobará que H(X 2 )=2H(X). Se deja como ejercicio los detalles de este cálculo. Cuadro auxiliar donde se muestran los alfabetos L X y L 2 X 1/4 1/8 1/8 1/8 1/16 1/16 1/8 1/16 1/16 Probabilidad de símbolos L 2 X x 2 x 2 x 2 x 1 x 2 x 0 x 1 x 2 x 1 x 1 x 1 x 0 x 0 x 2 x 0 x 1 x 0 x 0 Secuencia correspondiente de símbolos L X  8  7  6  5  4  3  2  1  0 Símbolos (bloques) L 2 X
  • 21. Ejemplo 3 Evaluando el resultado tenemos. De tal manera vemos que H(X 2 )=2H(X), es decir (3) = (2)*(3/2)
  • 22. Codificación fuente (nuevamente) Hemos indicado que uno de los objetivos de la teoría de la información es establecer si es posible encontrar un código de fuente que permita enviar más información en menos tiempo, esto es, encontrar un código que sea suficientemente eficiente. Por código eficiente se entiende aquel código cuya longitud media es la mínima posible que resulta de asignar códigos mas cortos a símbolos mas probables y códigos mas largos a símbolos menos probables. En la conferencia #3 , estudiamos un caso particular conocido como Código Huffman el cual cumple con esta condición. Alfabeto Fuente Probabilidad de los símbolos del Alfabeto Fuente Longitud media del código Varianza de la longitud de los códigos
  • 23. Codificación fuente (nuevamente) Matemáticamente, la eficiencia  de un código se define como: Es el valor mínimo posible de L X El valor mínimo de L (L mín ) se obtiene a través del primer teorema de Shannon conocido como teorema de la codificación fuente. Este teorema se enuncia como: Entonces, la eficiencia del código se puede reescribir como: La redundancia del código se calcula como: Dada una fuente discreta sin memoria de entropía H(X),La longitud promedio de palabra de código L para cualquier esquema de codificación fuente sin distorsión está acotada como: Primero teorema de Shannon Fuente discreta sin memoria Fuente discreta sin memoria x k a k Secuencia Binaria
  • 24.
  • 25. Gracias por su Atención