SlideShare ist ein Scribd-Unternehmen logo
1 von 18
Downloaden Sie, um offline zu lesen
Introducci´on a la Teor´ıa de la Informaci´on
El Canal Gaussiano
Facultad de Ingenier´ıa, UdelaR
A˜no 2014
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 1 / 1
Definici´on
Definici´on (Canal Gaussiano)
Canal de tiempo discreto cuya salida en el tiempo i est´a dada por
Yi = Xi + Zi
donde Xi es una se˜nal continua y Zi ∼ N (0, N) es i.i.d. e independiente
de Xi para todo i.
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 2 / 1
Restricciones
Si no se incorpora ning´un tipo de restricci´on, la capacidad de este
canal es infinita.
En general se restringe la potencia media de X
1
n
n
i
x2
i ≤ P
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 3 / 1
Capacidad de Informaci´on
Definici´on
La capacidad de informaci´on de un canal con restricci´on de potencia P es
C = m´ax
f:Ef [X2]≤P
I(X; Y )
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 4 / 1
Capacidad de Informaci´on del Canal Gaussiano
Teorema
Para un canal Gaussiano, se cumple C = 1
2 log 1 + P
N
Demostraci´on.
I(X; Y ) = h(Y ) − h(Y |X) = h(Y ) − h(X + Z|X)
= h(Y ) − h(Z|X)
= h(Y ) − h(Z)
var(Y ) = E Y 2
− E [Y ]2
≤ E Y 2
E Y 2
= E (X + Z)2
= E X2
+ 2E [X] E [Z] + E Z2
≤ P + N
Como h(Y ) ≤ 1
2 log(2πeσ2), donde σ2 = var(Y ) ≤ P + N, obtenemos
h(Y ) ≤
1
2
log(2πe(P + N))
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 5 / 1
Capacidad de Informaci´on del Canal Gaussiano (2)
Demostraci´on.
Para X ∼ N (0, P), Y es la suma de dos variables independientes, X, Z,
cada una con distribuci´on normal. Por lo tanto
Y ∼ N (0, P + N) ,
con lo cual se alcanza el m´aximo, h(Y ) = 1
2 log(2πe(P + N)).
I(X; Y ) = h(Y ) − h(Z)
=
1
2
log(2πe(P + N)) −
1
2
log(2πeN)
=
1
2
log 1 +
P
N
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 6 / 1
C´odigos para un Canal Gaussiano
Definici´on (C´odigo (M, n) con restricci´on de potencia P)
1 Un conjunto de ´ındices {1, 2 . . . M}
2 Una funci´on de codificaci´on x : {1, 2 . . . M} → Xn,
x(w) = x1(w), x2(w) . . . xn(w), tal que
1
n
n
i=1
x2
i (w) ≤ P, ∀w ∈ {1, 2 . . . M}
3 Una funci´on de decodificaci´on g : Yn → {1, 2 . . . M}
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 7 / 1
Capacidad del Canal Gaussiano con Restricci´on de
Potencia P
Definici´on (Tasa alcanzable)
Una tasa R es alcanzable para un canal Gaussiano con restricci´on de
potencia P si existe una sucesi´on de c´odigos (2nR, n) que satisfacen la
restricci´on de potencia P y tienen probabilidad m´axima de error λ(n) → 0.
Definici´on (Capacidad)
La capacidad de un canal Gaussiano con restricci´on de potencia P es el
supremo de las tasas alcanzables.
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 8 / 1
Intuici´on - Empaquetado de Esferas
Si emitimos (x1 . . . xn), recibimos (Y1 . . . Yn) con Yi = xi + Zi y
tenemos que
1
n
(Yi − xi)2
=
1
n
Z2
i → E Z2
i = N .
Con gran probabilidad, (Yi − xi)2 ≤ n(N + ), (Y1 . . . Yn)
est´a contenido en una esfera de radio n(N + ) y centro (x1 . . . xn)
De forma similar,
1
n
Y 2
i =
1
n
(Xi + Zi)2
=
1
n
X2
i + 2XiZi + Z2
i
≤ P +
1
n
2XiZi +
1
n
Z2
i .
Si {Xi} son i.i.d., con gran probabilidad (Y1 . . . Yn) est´a contenido en
una esfera de radio n(P + N + ) y centro en cero.
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 9 / 1
Intuici´on - Empaquetado de Esferas
El volumen de una esfera de radio r es Cnrn, por lo que la cantidad
m´axima de esferas de radio
√
nN que pueden empaquetarse en una de
radio n(P + N) es
Cn n(P + N)
n
2
Cn nN
n
2
= 1 +
P
N
n
2
= 2n 1
2
log(1+ P
N )
de donde surge que R ∼ 1
2 log 1 + P
N
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 10 / 1
Teorema de Capacidad del Canal Gaussiano
Teorema
La capacidad del canal Gaussiano con restricci´on de potencia P es
C = 1
2 log 1 + P
N
Probamos primero que la tasa es alcanzable.
1 Generamos un c´odigo aleatoriamente sorteando
Xi(w) ∼ N (0, P − ), i.i.d, i = 1, 2 . . . n, w = 1, 2 . . . 2nR. El c´odigo
es conocido tanto por el codificador como por el decodificador.
2 Codificaci´on: El mensaje w se codifica como
Xn(w) = (X1(w) . . . Xn(w)). Si Xn(w) no satisface la restricci´on de
potencia se emite una palabra arbitraria.
3 Decodificaci´on: Si existe un ´unico w tal que Xn(w) satisface la
restricci´on de potencia y es conjuntamente t´ıpica con Y n,
decodificamos ˆW = w. De lo contrario tomamos una decisi´on
arbitraria.
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 11 / 1
Teorema de Capacidad del Canal Gaussiano
Consideramos un mensaje arbitrario, w, y los siguientes eventos:
Bw =



1
n
n
j=1
X2
j (w) > P



,
Ew,u = (Xn
(u), Y n
) ∈ A(n)
, 1 ≤ u ≤ 2nR
,
Ew = { ˆW = w} .
Observamos que
Ew ⊆ Bw ∪ Ec
w,w ∪
u=w
Ew,u ,
y por lo tanto, para E = { ˆW = W}, se cumple que
P(E|W = w) ≤ P(Bw|W = w)+P(Ec
w,w|W = w)+
u=w
P(Ew,u|W = w)
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 12 / 1
Teorema de Capacidad del Canal Gaussiano
P(E|W = w) ≤ P(Bw|W=w) + P(Ec
w,w|W=w) +
u=w
P(Ew,u|W=w)
≤ + +
u=w
2−n(I(X;Y )−3 )
≤ + + 2nR
2−n(I(X;Y )−3 )
= + + 2−n(I(X;Y )−3 −R)
≤ 3
para n grande y R < I(X; Y ) − 3 = 1
2 log 1 + P−
N − 3 .
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 13 / 1
Teorema de Capacidad del Canal Gaussiano
Para cada w, P(E|W = w) ≤ 3 , entonces, promediando obtenemos
1
2nR
w
P(E|W = w) ≤ 3 .
La probabilidad de error promediada sobre todos los c´odigos y todas las
palabras de c´odigo est´a acotada por 3 . Por lo tanto, existe alg´un c´odigo,
C, tal que
P(n)
e (C) ≤ 3 ,
donde P
(n)
e (C) es la probabilidad de error promediada sobre todas las
palabras de c´odigo, para el c´odigo C.
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 14 / 1
Rec´ıproco
Consideramos una secuencia de c´odigos (2nR, n) con P
(n)
e → 0.
Con la distribuci´on uniforme sobre W, podemos escribir
nR = H(W) = I(W; ˆW) + H(W| ˆW)
Por Fano, H(W| ˆW) ≤ 1 + nRP
(n)
e = n n, por lo que
nR ≤ I(W; ˆW) + n n
Tenemos W → Xn(W) → Y n → ˆW y por lo tanto
nR ≤ I(Xn
; Y n
) + n n
= h(Y n
) − h(Y n
|Xn
) + n n
= h(Y n
) − h(Zn
) + n n
≤
n
i=1
h(Yi) − h(Zn
) + n n
=
n
i=1
h(Yi) −
n
i=1
h(Zi) + n n
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 15 / 1
Rec´ıproco
La distribuci´on uniforme sobre W induce una distribuci´on uniforme sobre
las palabras de c´odigo. Por lo tanto, para Pi = E X2
i ,
Pi = E X2
i =
1
2nR
w
x2
i (w)
var(Yi) = E Y 2
i − E [Yi]2
≤ E Y 2
i
E Y 2
i = E (Xi + Zi)2
= E X2
i + 2E [Xi] E [Zi] + E Z2
i = Pi + N
h(Yi) ≤
1
2
log 2πe(Pi + N)
nR ≤ h(Yi) − h(Zi) + n n
≤
1
2
log 2πe(Pi + N) −
1
2
log 2πeN + n n
=
1
2
log 1 +
Pi
N
+ n n
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 16 / 1
Rec´ıproco
R ≤
1
n
n
i=1
1
2
log 1 +
Pi
N
+ n
≤
1
2
log 1 +
1
n
n
i=1
Pi
N
+ n Jensen
≤
1
2
log 1 +
P
N
+ n
Donde la ´ultima desigualdad surge de que
1
n
n
i=1
Pi =
1
n
n
i=1
1
2nR
w
x2
i (w)
=
1
2nR
w
1
n
n
i=1
x2
i (w)
≤
1
2nR
w
P = P
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 17 / 1
Canal Gaussiano de Ancho de Banda Limitada W
Canal de tiempo continuo.
Por el Teorema de Muestreo existen 2W grados de libertad por
segundo. El canal se puede discretizar sin p´erdida de capacidad.
En tiempo (0, T) tenemos 2WT muestras con potencia media
PT/2WT = P/2W
Ruido blanco Gaussiano de ancho de banda W hertz y densidad
espectral de potencia N0/2. Cada muestra tiene ruido Gaussiano
independiente de varianza N0/2
La capacidad por uso de canal es
C =
1
2
log 1 +
P/2W
N0/2
=
1
2
log 1 +
P
N0W
bits por uso de canal
Como hay 2W muestras por segundo, la capacidad en bits/seg es
C = W log 1 +
P
N0W
→
P
N0
log e cuando W → ∞
(Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 18 / 1

Weitere ähnliche Inhalte

Was ist angesagt?

Multiplexación por división de tiempo y de frecuencia
Multiplexación por división de tiempo y de frecuenciaMultiplexación por división de tiempo y de frecuencia
Multiplexación por división de tiempo y de frecuencia
Pavel Crisóstomo
 
Lecture 15 probabilidad de error y ber en señales bandabase binaria
Lecture 15 probabilidad de error y ber en señales bandabase binariaLecture 15 probabilidad de error y ber en señales bandabase binaria
Lecture 15 probabilidad de error y ber en señales bandabase binaria
nica2009
 

Was ist angesagt? (20)

Information theory
Information theoryInformation theory
Information theory
 
Pixelrelationships
PixelrelationshipsPixelrelationships
Pixelrelationships
 
Chapter 4 solution to problems
Chapter 4 solution to problemsChapter 4 solution to problems
Chapter 4 solution to problems
 
chapter 6 Satellite Systems.pptx
chapter 6 Satellite Systems.pptxchapter 6 Satellite Systems.pptx
chapter 6 Satellite Systems.pptx
 
Handoff and its type
Handoff and its typeHandoff and its type
Handoff and its type
 
mobile radio propagation and fading
mobile radio propagation and fading mobile radio propagation and fading
mobile radio propagation and fading
 
Small Scale Multi path measurements
Small Scale Multi path measurements Small Scale Multi path measurements
Small Scale Multi path measurements
 
Multiplexación por división de tiempo y de frecuencia
Multiplexación por división de tiempo y de frecuenciaMultiplexación por división de tiempo y de frecuencia
Multiplexación por división de tiempo y de frecuencia
 
M qam
M qamM qam
M qam
 
Lecture 15 probabilidad de error y ber en señales bandabase binaria
Lecture 15 probabilidad de error y ber en señales bandabase binariaLecture 15 probabilidad de error y ber en señales bandabase binaria
Lecture 15 probabilidad de error y ber en señales bandabase binaria
 
Channel coding
Channel codingChannel coding
Channel coding
 
Sistema psk & qpsk
Sistema psk &  qpskSistema psk &  qpsk
Sistema psk & qpsk
 
Multiplexing
MultiplexingMultiplexing
Multiplexing
 
Lecture 9 analisis radioprop p6
Lecture 9 analisis radioprop   p6Lecture 9 analisis radioprop   p6
Lecture 9 analisis radioprop p6
 
Capacidad del canal
Capacidad del canalCapacidad del canal
Capacidad del canal
 
5. gray level transformation
5. gray level transformation5. gray level transformation
5. gray level transformation
 
вязкость
вязкостьвязкость
вязкость
 
Compresion de Datos - Telecomunicaciones III
Compresion de Datos - Telecomunicaciones IIICompresion de Datos - Telecomunicaciones III
Compresion de Datos - Telecomunicaciones III
 
NGN - Next Generation Network
NGN - Next Generation NetworkNGN - Next Generation Network
NGN - Next Generation Network
 
DIGITAL COMMUNICATION: ENCODING AND DECODING OF CYCLIC CODE
DIGITAL COMMUNICATION: ENCODING AND DECODING OF CYCLIC CODE DIGITAL COMMUNICATION: ENCODING AND DECODING OF CYCLIC CODE
DIGITAL COMMUNICATION: ENCODING AND DECODING OF CYCLIC CODE
 

Ähnlich wie Canal gaussiano BUEN AINFO

Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)
MiriJaneth
 
Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)
MiriJaneth
 
Re escrita charla-tfor_ma09
Re escrita charla-tfor_ma09Re escrita charla-tfor_ma09
Re escrita charla-tfor_ma09
yamiletq
 
Tema6 Ondas en sólidos elásticos y fluidos
Tema6 Ondas en sólidos elásticos y fluidosTema6 Ondas en sólidos elásticos y fluidos
Tema6 Ondas en sólidos elásticos y fluidos
rafarrc
 
Soluciones por series
Soluciones por seriesSoluciones por series
Soluciones por series
Kike Prieto
 
Principio de incertidumbre de Heisenberg
Principio de incertidumbre de HeisenbergPrincipio de incertidumbre de Heisenberg
Principio de incertidumbre de Heisenberg
Sebastián Correa
 
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalasCapítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
Rosa E Padilla
 
Bitácora N°2 (07 Feb - 10 Feb) Topología I
Bitácora N°2 (07 Feb - 10 Feb) Topología IBitácora N°2 (07 Feb - 10 Feb) Topología I
Bitácora N°2 (07 Feb - 10 Feb) Topología I
MiriJaneth
 

Ähnlich wie Canal gaussiano BUEN AINFO (20)

Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)
 
Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)Bitácora n° 6 (12 mar a 16 mar)
Bitácora n° 6 (12 mar a 16 mar)
 
Re escrita charla-tfor_ma09
Re escrita charla-tfor_ma09Re escrita charla-tfor_ma09
Re escrita charla-tfor_ma09
 
Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121Tema 1 el espacio r^n-2011-20121
Tema 1 el espacio r^n-2011-20121
 
Sol. 3ra PC 19-1.pdf
Sol. 3ra PC 19-1.pdfSol. 3ra PC 19-1.pdf
Sol. 3ra PC 19-1.pdf
 
Tema6 Ondas en sólidos elásticos y fluidos
Tema6 Ondas en sólidos elásticos y fluidosTema6 Ondas en sólidos elásticos y fluidos
Tema6 Ondas en sólidos elásticos y fluidos
 
Soluciones por series
Soluciones por seriesSoluciones por series
Soluciones por series
 
Clase8-Estadística
Clase8-EstadísticaClase8-Estadística
Clase8-Estadística
 
Principio de incertidumbre de Heisenberg
Principio de incertidumbre de HeisenbergPrincipio de incertidumbre de Heisenberg
Principio de incertidumbre de Heisenberg
 
Ultrasonido
UltrasonidoUltrasonido
Ultrasonido
 
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalasCapítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
 
modelos vibratorios d euna membrana.pdf
modelos vibratorios d euna membrana.pdfmodelos vibratorios d euna membrana.pdf
modelos vibratorios d euna membrana.pdf
 
Bitácora N°2 (07 Feb - 10 Feb) Topología I
Bitácora N°2 (07 Feb - 10 Feb) Topología IBitácora N°2 (07 Feb - 10 Feb) Topología I
Bitácora N°2 (07 Feb - 10 Feb) Topología I
 
Art10 lucca
Art10 luccaArt10 lucca
Art10 lucca
 
Clase 3 mecanica-cuantica
Clase 3 mecanica-cuanticaClase 3 mecanica-cuantica
Clase 3 mecanica-cuantica
 
Q denso en r
Q denso en rQ denso en r
Q denso en r
 
Solucionario Quinta Práctica Calificada de Matemática III - FIEE UNI
Solucionario Quinta Práctica Calificada de Matemática III - FIEE UNISolucionario Quinta Práctica Calificada de Matemática III - FIEE UNI
Solucionario Quinta Práctica Calificada de Matemática III - FIEE UNI
 
Aproximación a los niveles de energía del pozo cuántico finito
Aproximación a los niveles de energía del pozo cuántico finitoAproximación a los niveles de energía del pozo cuántico finito
Aproximación a los niveles de energía del pozo cuántico finito
 
12534840 ecuaciones-diferenciales-parciales-elipticas
12534840 ecuaciones-diferenciales-parciales-elipticas12534840 ecuaciones-diferenciales-parciales-elipticas
12534840 ecuaciones-diferenciales-parciales-elipticas
 

Mehr von Miguel Angel Guevara Reyes

1.3 e los recursos naturales y ambientales como bienes de consumo
1.3 e los recursos naturales y ambientales como bienes de consumo1.3 e los recursos naturales y ambientales como bienes de consumo
1.3 e los recursos naturales y ambientales como bienes de consumo
Miguel Angel Guevara Reyes
 
1.1.1.2 packet tracer test connectivity with traceroute
1.1.1.2 packet tracer   test connectivity with traceroute1.1.1.2 packet tracer   test connectivity with traceroute
1.1.1.2 packet tracer test connectivity with traceroute
Miguel Angel Guevara Reyes
 
Como hackear facebook mediante phishing ético (1)
Como hackear facebook mediante phishing ético (1)Como hackear facebook mediante phishing ético (1)
Como hackear facebook mediante phishing ético (1)
Miguel Angel Guevara Reyes
 

Mehr von Miguel Angel Guevara Reyes (20)

Procedimiento para trabajo seguro
Procedimiento para trabajo seguroProcedimiento para trabajo seguro
Procedimiento para trabajo seguro
 
028 16-cu cuadro vacantes 2016 anexo
028 16-cu cuadro vacantes 2016 anexo028 16-cu cuadro vacantes 2016 anexo
028 16-cu cuadro vacantes 2016 anexo
 
1.3 e los recursos naturales y ambientales como bienes de consumo
1.3 e los recursos naturales y ambientales como bienes de consumo1.3 e los recursos naturales y ambientales como bienes de consumo
1.3 e los recursos naturales y ambientales como bienes de consumo
 
1.1.1.2 packet tracer test connectivity with traceroute
1.1.1.2 packet tracer   test connectivity with traceroute1.1.1.2 packet tracer   test connectivity with traceroute
1.1.1.2 packet tracer test connectivity with traceroute
 
Isr en 06_4k_architecture_wp_pte_cte_es
Isr en 06_4k_architecture_wp_pte_cte_esIsr en 06_4k_architecture_wp_pte_cte_es
Isr en 06_4k_architecture_wp_pte_cte_es
 
Dm720v10 70 protocolo-nat_noviembre, 2006
Dm720v10 70 protocolo-nat_noviembre, 2006 Dm720v10 70 protocolo-nat_noviembre, 2006
Dm720v10 70 protocolo-nat_noviembre, 2006
 
Produccion y-gestion-industrial
Produccion y-gestion-industrialProduccion y-gestion-industrial
Produccion y-gestion-industrial
 
Horarios 2017 i
Horarios 2017 iHorarios 2017 i
Horarios 2017 i
 
Manual de superviciòn de obras
Manual de superviciòn de obrasManual de superviciòn de obras
Manual de superviciòn de obras
 
Cronograma inglEs 1
Cronograma    inglEs 1Cronograma    inglEs 1
Cronograma inglEs 1
 
Aba4 skx
Aba4 skxAba4 skx
Aba4 skx
 
A008 a listado_cc
A008 a listado_ccA008 a listado_cc
A008 a listado_cc
 
Factor de reduccion
Factor de reduccionFactor de reduccion
Factor de reduccion
 
Practica mpls
Practica mplsPractica mpls
Practica mpls
 
Curso de hipnosis
Curso de hipnosisCurso de hipnosis
Curso de hipnosis
 
Como hackear facebook mediante phishing ético (1)
Como hackear facebook mediante phishing ético (1)Como hackear facebook mediante phishing ético (1)
Como hackear facebook mediante phishing ético (1)
 
Teoria de-enfermera
Teoria de-enfermeraTeoria de-enfermera
Teoria de-enfermera
 
Teoria de enfermera (1)
Teoria de enfermera (1)Teoria de enfermera (1)
Teoria de enfermera (1)
 
49766149 itil-examenes-compilados-espanol
49766149 itil-examenes-compilados-espanol49766149 itil-examenes-compilados-espanol
49766149 itil-examenes-compilados-espanol
 
Parametros geomorfologicos
Parametros geomorfologicosParametros geomorfologicos
Parametros geomorfologicos
 

Canal gaussiano BUEN AINFO

  • 1. Introducci´on a la Teor´ıa de la Informaci´on El Canal Gaussiano Facultad de Ingenier´ıa, UdelaR A˜no 2014 (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 1 / 1
  • 2. Definici´on Definici´on (Canal Gaussiano) Canal de tiempo discreto cuya salida en el tiempo i est´a dada por Yi = Xi + Zi donde Xi es una se˜nal continua y Zi ∼ N (0, N) es i.i.d. e independiente de Xi para todo i. (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 2 / 1
  • 3. Restricciones Si no se incorpora ning´un tipo de restricci´on, la capacidad de este canal es infinita. En general se restringe la potencia media de X 1 n n i x2 i ≤ P (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 3 / 1
  • 4. Capacidad de Informaci´on Definici´on La capacidad de informaci´on de un canal con restricci´on de potencia P es C = m´ax f:Ef [X2]≤P I(X; Y ) (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 4 / 1
  • 5. Capacidad de Informaci´on del Canal Gaussiano Teorema Para un canal Gaussiano, se cumple C = 1 2 log 1 + P N Demostraci´on. I(X; Y ) = h(Y ) − h(Y |X) = h(Y ) − h(X + Z|X) = h(Y ) − h(Z|X) = h(Y ) − h(Z) var(Y ) = E Y 2 − E [Y ]2 ≤ E Y 2 E Y 2 = E (X + Z)2 = E X2 + 2E [X] E [Z] + E Z2 ≤ P + N Como h(Y ) ≤ 1 2 log(2πeσ2), donde σ2 = var(Y ) ≤ P + N, obtenemos h(Y ) ≤ 1 2 log(2πe(P + N)) (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 5 / 1
  • 6. Capacidad de Informaci´on del Canal Gaussiano (2) Demostraci´on. Para X ∼ N (0, P), Y es la suma de dos variables independientes, X, Z, cada una con distribuci´on normal. Por lo tanto Y ∼ N (0, P + N) , con lo cual se alcanza el m´aximo, h(Y ) = 1 2 log(2πe(P + N)). I(X; Y ) = h(Y ) − h(Z) = 1 2 log(2πe(P + N)) − 1 2 log(2πeN) = 1 2 log 1 + P N (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 6 / 1
  • 7. C´odigos para un Canal Gaussiano Definici´on (C´odigo (M, n) con restricci´on de potencia P) 1 Un conjunto de ´ındices {1, 2 . . . M} 2 Una funci´on de codificaci´on x : {1, 2 . . . M} → Xn, x(w) = x1(w), x2(w) . . . xn(w), tal que 1 n n i=1 x2 i (w) ≤ P, ∀w ∈ {1, 2 . . . M} 3 Una funci´on de decodificaci´on g : Yn → {1, 2 . . . M} (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 7 / 1
  • 8. Capacidad del Canal Gaussiano con Restricci´on de Potencia P Definici´on (Tasa alcanzable) Una tasa R es alcanzable para un canal Gaussiano con restricci´on de potencia P si existe una sucesi´on de c´odigos (2nR, n) que satisfacen la restricci´on de potencia P y tienen probabilidad m´axima de error λ(n) → 0. Definici´on (Capacidad) La capacidad de un canal Gaussiano con restricci´on de potencia P es el supremo de las tasas alcanzables. (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 8 / 1
  • 9. Intuici´on - Empaquetado de Esferas Si emitimos (x1 . . . xn), recibimos (Y1 . . . Yn) con Yi = xi + Zi y tenemos que 1 n (Yi − xi)2 = 1 n Z2 i → E Z2 i = N . Con gran probabilidad, (Yi − xi)2 ≤ n(N + ), (Y1 . . . Yn) est´a contenido en una esfera de radio n(N + ) y centro (x1 . . . xn) De forma similar, 1 n Y 2 i = 1 n (Xi + Zi)2 = 1 n X2 i + 2XiZi + Z2 i ≤ P + 1 n 2XiZi + 1 n Z2 i . Si {Xi} son i.i.d., con gran probabilidad (Y1 . . . Yn) est´a contenido en una esfera de radio n(P + N + ) y centro en cero. (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 9 / 1
  • 10. Intuici´on - Empaquetado de Esferas El volumen de una esfera de radio r es Cnrn, por lo que la cantidad m´axima de esferas de radio √ nN que pueden empaquetarse en una de radio n(P + N) es Cn n(P + N) n 2 Cn nN n 2 = 1 + P N n 2 = 2n 1 2 log(1+ P N ) de donde surge que R ∼ 1 2 log 1 + P N (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 10 / 1
  • 11. Teorema de Capacidad del Canal Gaussiano Teorema La capacidad del canal Gaussiano con restricci´on de potencia P es C = 1 2 log 1 + P N Probamos primero que la tasa es alcanzable. 1 Generamos un c´odigo aleatoriamente sorteando Xi(w) ∼ N (0, P − ), i.i.d, i = 1, 2 . . . n, w = 1, 2 . . . 2nR. El c´odigo es conocido tanto por el codificador como por el decodificador. 2 Codificaci´on: El mensaje w se codifica como Xn(w) = (X1(w) . . . Xn(w)). Si Xn(w) no satisface la restricci´on de potencia se emite una palabra arbitraria. 3 Decodificaci´on: Si existe un ´unico w tal que Xn(w) satisface la restricci´on de potencia y es conjuntamente t´ıpica con Y n, decodificamos ˆW = w. De lo contrario tomamos una decisi´on arbitraria. (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 11 / 1
  • 12. Teorema de Capacidad del Canal Gaussiano Consideramos un mensaje arbitrario, w, y los siguientes eventos: Bw =    1 n n j=1 X2 j (w) > P    , Ew,u = (Xn (u), Y n ) ∈ A(n) , 1 ≤ u ≤ 2nR , Ew = { ˆW = w} . Observamos que Ew ⊆ Bw ∪ Ec w,w ∪ u=w Ew,u , y por lo tanto, para E = { ˆW = W}, se cumple que P(E|W = w) ≤ P(Bw|W = w)+P(Ec w,w|W = w)+ u=w P(Ew,u|W = w) (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 12 / 1
  • 13. Teorema de Capacidad del Canal Gaussiano P(E|W = w) ≤ P(Bw|W=w) + P(Ec w,w|W=w) + u=w P(Ew,u|W=w) ≤ + + u=w 2−n(I(X;Y )−3 ) ≤ + + 2nR 2−n(I(X;Y )−3 ) = + + 2−n(I(X;Y )−3 −R) ≤ 3 para n grande y R < I(X; Y ) − 3 = 1 2 log 1 + P− N − 3 . (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 13 / 1
  • 14. Teorema de Capacidad del Canal Gaussiano Para cada w, P(E|W = w) ≤ 3 , entonces, promediando obtenemos 1 2nR w P(E|W = w) ≤ 3 . La probabilidad de error promediada sobre todos los c´odigos y todas las palabras de c´odigo est´a acotada por 3 . Por lo tanto, existe alg´un c´odigo, C, tal que P(n) e (C) ≤ 3 , donde P (n) e (C) es la probabilidad de error promediada sobre todas las palabras de c´odigo, para el c´odigo C. (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 14 / 1
  • 15. Rec´ıproco Consideramos una secuencia de c´odigos (2nR, n) con P (n) e → 0. Con la distribuci´on uniforme sobre W, podemos escribir nR = H(W) = I(W; ˆW) + H(W| ˆW) Por Fano, H(W| ˆW) ≤ 1 + nRP (n) e = n n, por lo que nR ≤ I(W; ˆW) + n n Tenemos W → Xn(W) → Y n → ˆW y por lo tanto nR ≤ I(Xn ; Y n ) + n n = h(Y n ) − h(Y n |Xn ) + n n = h(Y n ) − h(Zn ) + n n ≤ n i=1 h(Yi) − h(Zn ) + n n = n i=1 h(Yi) − n i=1 h(Zi) + n n (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 15 / 1
  • 16. Rec´ıproco La distribuci´on uniforme sobre W induce una distribuci´on uniforme sobre las palabras de c´odigo. Por lo tanto, para Pi = E X2 i , Pi = E X2 i = 1 2nR w x2 i (w) var(Yi) = E Y 2 i − E [Yi]2 ≤ E Y 2 i E Y 2 i = E (Xi + Zi)2 = E X2 i + 2E [Xi] E [Zi] + E Z2 i = Pi + N h(Yi) ≤ 1 2 log 2πe(Pi + N) nR ≤ h(Yi) − h(Zi) + n n ≤ 1 2 log 2πe(Pi + N) − 1 2 log 2πeN + n n = 1 2 log 1 + Pi N + n n (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 16 / 1
  • 17. Rec´ıproco R ≤ 1 n n i=1 1 2 log 1 + Pi N + n ≤ 1 2 log 1 + 1 n n i=1 Pi N + n Jensen ≤ 1 2 log 1 + P N + n Donde la ´ultima desigualdad surge de que 1 n n i=1 Pi = 1 n n i=1 1 2nR w x2 i (w) = 1 2nR w 1 n n i=1 x2 i (w) ≤ 1 2nR w P = P (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 17 / 1
  • 18. Canal Gaussiano de Ancho de Banda Limitada W Canal de tiempo continuo. Por el Teorema de Muestreo existen 2W grados de libertad por segundo. El canal se puede discretizar sin p´erdida de capacidad. En tiempo (0, T) tenemos 2WT muestras con potencia media PT/2WT = P/2W Ruido blanco Gaussiano de ancho de banda W hertz y densidad espectral de potencia N0/2. Cada muestra tiene ruido Gaussiano independiente de varianza N0/2 La capacidad por uso de canal es C = 1 2 log 1 + P/2W N0/2 = 1 2 log 1 + P N0W bits por uso de canal Como hay 2W muestras por segundo, la capacidad en bits/seg es C = W log 1 + P N0W → P N0 log e cuando W → ∞ (Facultad de Ingenier´ıa, UdelaR) Teor´ıa de la Informaci´on A˜no 2014 18 / 1