1. Mecánica Estadística - Taller 1
1. La distribución de Maxwell - Bol-
tzmann
¿Cuál es la probabilidad de hallar en un gas ideal que
el momentum de una partícula se sale del promedio?
Considere un gas ideal de N partículas esféricas de
masa m en un volumen V.
a)
Halle el volumen en el espacio de fase ∑esfera(E) de
todos los estados con energía menor o igual a E. La
proyección de estos estados en el espacio de momen-
tos corresponde a una esfera de radio R =
√
2mE
en 3N dimensiones, y el volumen de una esfera en
n = 3N dimensiones es
πn/2 Rn
Γ n
2 +1
.
Solución: El volumen en el espacio de fase corres-
pondiente a N moléculas moviéndose en tres dimen-
siones, dado por el producto entre el volumen en el
espacio de momentos y el volumen del espacio de
posiciones, es:
Σ(E) =
π3N/2 R3N VN
Γ 3N
2 +1
.
Si las partículas son indistinguibles es necesario di-
vidir entre N!
b)
Derive Σ(E) con respecto a la energía y divida por
h3N para encontrar que el número de microestados
con energías en el cascarón esférico entre E y E +dE
es
Ωcascarón =
2mπ3N/2 R3N−2VNdE
h3N Γ 3N
2
Solución:
Figura 1: Imagen Ejercicio 1.b
Ωcascarón =
1
h3N
∂Σ(E)
∂E
dE
=
1
h3N
∂
∂E
π3N/2R3NVN
Γ 3N
2 +1
!
dE
=
1
h3N
∂
∂E
π3N/2(
√
2mE)3NVN
Γ 3N
2 +1
!
dE
=
2m
h3N
3N
2
π3N/2(2mE)
3N
2 −1VN
Γ 3N
2 +1
!
dE
Teniendo en cuenta que Γ 3N
2 +1
= 3N
2 Γ 3N
2
y
además de que E = R2
2m ,
Ωcascarón =
3N
2h3N
(2mπ)3N/2(E)
3N
2 −1VN
3N
2 Γ(3N
2 )
!
dE
=
1
h3N
(2mπ)3N/2
R2
2m
(3N−2)/2
VN
Γ(3N
2 )
dE
=
2m
h3N
π3N/2 R3N−2VN
Γ 3N
2
!
dE
Ahora, pensemos que una componente de momen-
tum está fija, con valor p1. Los estados compatibles
con esta condición forman un anillo, que también es
un cascarón esférico, pero en 3N −1 dimensiones, y
de radio R0 =
q
2mE − p2
1.
1
2. c)
Si asumimos que el anillo tiene un espesor dp1 (no
mostrado en la gráfica), derive que el número de mi-
croestados en el anillo es
Ωanillo =
∂Σdisco(E, p1)
∂E
dE dp1
=
2mπ(3N−1)/2R03N−3VN
h3NΓ 3N−1
2
dE dp1.
Solución: Análogo al numeral anterior, se realiza el
mismo procedimiento pero ahora considerando un
espacio de 3N −1 dimensiones y con el radio corres-
pondiente a R0, es decir,
Ωanillo =
∂Σ(E, p1)
∂E
dE dp1
=
1
h3N
∂
∂E
π(3N−1)/2R3N−1VN
Γ(3N−1
2 +1)
!
dE dp1
=
π(3N−1)/2
h3N
∂
∂E
2mE − p2
1
(3N−1)/2
VN
Γ(3N−1
2 +1)
dE dp1
=
2mπ(3N−1)/2
h3N
3N −1
2
(2mE − p2
1)(3N−1)/2−1VN
Γ(3N−1
2 +1)
dE dp1
Teniendo en cuenta que Γ(3N−1
2 +1) = 3N−1
2 Γ(3N−1
2 )
=
1
h3N
((3N −1)/2)
(π)(3N−1)/2(2mE − p2
1)(3N−1)/2−1VN
3N−1
2 Γ(3N−1
2 )
!
dEdp1
=
2mπ(3N−1)/2R03N−3VNdEdp1
h3NΓ 3N−1
2
d)
Demuestre que la probabilidad de hallar el mo-
mentum p1 entre p1 y p1 +dp1 es proporcional a
P(p1)dp1 =
Ωanillo(E, p1)
Ωcascaron(E)
∝
R2
R03
R0
R
3N
=
R2
R03
[1− p2
1/2mE]3N/2
Como el término entre corchetes cuadrados está
elevado a un exponente enorme, la probabilidad será
diferente de cero solamente si este término es similar
a 1, es decir, si p1 ∼ 0
Solución:
P(p1) =
Ωanillo
Ωcascaron
=
2mπ(3N−1)/2R03N−3VNdEdp1
h3NΓ(3N−1
2 )
2mπ3N−2VNdE
Γ(h3N 3N
2 )
P(p1) =
Γ 3N
2
R03N−3
πΓ 3N−1
2
R3N−2
∝
R2
R03
R0
R
3N
=
R2
R03
q
2mE − p2
1
√
2mE
3N
=
R2
R03
1−
p2
1
2mE
3N/2
e)
Usando la aproximación 1 − p2
1/2mE = 1 − ε '
e−ε, muestre que, una vez normalizada, la densidad
de probabilidad con la que se miden los valores de p1
distribuye aproximadamente como una gaussiana:
P(p1) =
1
σ
√
2π
e
−p2
1
2σ2
con desviación estándar σ =
p
2mE/3N. Esto
quiere decir que solo valores de p1 muy cercanos a
cero tienen un chance razonable de ser medidos.
Figura 2: Imagen Ejercicio 1.e
Solución:
2
3. Del ejercicio inmediatamente anterior se conoce
que
P(p1) ∝
R2
R03
[1− p2
1/2mE]3N/2
,
teniendo en cuenta la aproximación
1− p2
1/2mE = 1−ε ' e−ε
= e−p2
1/2mE
P(p1) ∝ exp(−
p2
1
2mE
(
3N
2
))
P(p1) ∝ exp(−
1
2
·
3Np2
1
2mE
)
P(p1) ∝ exp(−
1
2
·
p2
1
σ2
)
La expresión anterior con σ2 = 2mE
3N , corresponde a la
distribución normal de densidad con la que se miden
los valores de p1, pero aún no esta normalizada. Pa-
ra normalizar es necesario realizar la integral de las
probabilidades e igualar a 1, y despejar el factor de
normalización.
Z ∞
∞
P(p1)dp1 = A
Z ∞
∞
exp(−
1
2
·
p2
1
σ2
)dp1 = 1
Sabemos que
Z ∞
∞
e−x2/2σ2
dx =
√
2πσ
Por lo cual
A
√
2πσ = 1
A = 1/σ
√
2π
Así que normalizando es decir, multiplicando por
1/σ
√
2π llegamos a
P(p1) =
1
σ
√
2π
exp(−
1
2
·
p2
1
σ2
)
2. El modelo de Ising en 1 Dimen-
sión
Considere una tira de N celdas cuadradas, como la
que muestra la figura. En cada celda hay un espín si
(un pequeño imán), que puede estar apuntando hacia
arriba (si = 1) o hacia abajo (si = −1). Las condi-
ciones de frontera son periódicas (el último es vecino
del primero), por lo que en realidad podemos pensar
que la tira es un anillo.
Cada pareja de espines vecinos interactúa de la si-
guiente manera: si los espines son paralelos, la ener-
gía de su interacción es −J, y si son anti-paralelos,
la energía es J. La energía total E es la suma de las
energías de todas las parejas de vecinos
Cuando todos los espines son paralelos (todos ha-
cia arriba o todos hacia abajo), la energía es mínima,
Emı́n = −NJ. La energía del sistema se puede calcu-
lar de otra manera. Si partimos de una configuración
de mínima energía y volteamos un bloque de espines,
cada frontera entre espines de diferente dirección (en
rojo, en la figura) hace que la energía aumente en 2J.
Por lo tanto, si hay k de esas fronteras, la energía es
E = Emı́n +2Jk = 2Jk −NJ, y similarmente
k =
E +NJ
2J
.
a)
¿De cuántas maneras Ω(k) se puede tener una con-
figuración con k fronteras? Calcúlela usando combi-
natoria, y pensando de cuántas maneras puedo colo-
car k fronteras en N sitios disponibles para ponerlas,
que son los N límites entre celda y celda.
Solución
Considerando el modelo mencionado, el número de
estados posibles Ω(k) corresponde a
Ω(k) = 2
N
k
=
2(N!)
k!(N −k)!
b)
Calcule la entropía S(k) a partir de ese número de
configuraciones. Recuerde usar la fórmula de Stirling
para el logaritmo de un factorial.
Solución
La entropía a partir del número de estados posibles
corresponde a
S(k) = kB ln[Ω(k)]
= kB ln
2(N!)
k!(N −k)!
= kB [ln2+ln(N!)−ln(k!)−ln[(N −k)!]]
= kB[ln2+N ln(N)−N −kln(k)+k
−(N −k)ln(N −k)+N −k]
= kB[ln2+N ln(N)−kln(k)
−(N −k)ln(N −k)]
3
4. c)
Derive la entropía con respecto a la energía para
hallar la temperatura se relaciona con la energía co-
mo
1
kBT
=
1
2J
ln
N
k
−1
con k =
E +NJ
2J
Solución
Realizando el cambio de variable
k =
E +N j
2 j
=⇒ E = j(2k −N)
sobre el cálculo anterior de la entropía, se tiene que
su respectiva derivada respecto de la energía es
dS
dE
=
dS
dk
dk
dE
=
1
2j
dS
dk
=
kB
2 j
[−ln(k)−1+ln(N −k)+1]
=
kB
2 j
[ln(N −k)−ln(k)]
=
kB
2 j
ln
N
k
−1
Ahora, puesto que dS/dE = 1/T, se deduce final-
mente que
1
T
=
kB
2 j
ln
N
k
−1
=⇒
1
kBT
=
1
2 j
ln
N
k
−1
.
d)
d) A partir de este resultado, muestre que la ener-
gía por sitio se relaciona con la temperatura como
E
N
= −J tanh(βJ) , con β =
1
kBT
Solución
Considerando la relación 1/KBT = β y la ecuación
anterior se tiene que
2 jβ = ln
N
k
−1
=⇒
N
k
= e2 jβ
+1
y además de la definición de energía por sitio
E
N
=
j(2k −N)
N
se obtiene finalmente, reemplazando en la expresión
obtenida para la energía por sitio
E
N
= j
2
1+e2jβ
−1
= −j
e2 jβ −e−2 jβ
e2 jβ +e−2 jβ
!
= −j[tanh(β j)].
3. Una banda elástica
Considere una cadena larga de un polímero formado
por N segmentos de longitud d que se retuerce en
una solución acuosa a temperatura constate. Para
simplificar, vamos a considerar que el movimiento
es solo unidimensional, y que cada segmento puede
formar con el anterior solamente ángulos de 0o o
180o, como muestra la figura.
Figura 3: Imagen Ejercicio 3
a)
Sea L la distancia entre los dos extremos de la cadena,
y sea L0 = L/d. Sea D el número de segmentos que
van hacia la derecha (es decir, formando un ángulo
de 0o) e I el de segmentos que van hacia la izquierda
(es decir, formando un ángulo de 180o). Demuestre
que:
D =
N +L0
2
Es decir, que a cada longitud de cadena L le corres-
ponde un valor de D.
Solución: Debido a que el total de unidades, sea
orientados a Izquierda o a Derecha constituyen el nu-
mero total de segmentos:
N = I +D
Adicional, dada la definición de L0 = L/d, esta pue-
de ser interpretada como la cantidad de segmentos
4
5. requeridos (todos orientados hacia la derecha) para
constituir L. Esto es, la cantidad de pasos ganados
hacia la derecha (avanzados) menos los devueltos a
la izquierda son el total avanzado L:
L0 = D−I
entonces
N = D+D−L0kkkk
2D = N +L0
D =
N +L0
2
b)
Usando combinatoria, encuentre el número de confi-
guraciones Ω(D) con D segmentos hacia la derecha.
Solución: Dado un conjunto de N elementos dis-
tinguibles, una combinación de D elementos, con
D N; el número de combinaciones sin repetición
de D elementos elegidos entre los N es:
ΩD
N =
N
D
=
N!
D!(N −D)!
ΩD
N =
N!
D!((I +D)−D)!
ΩD
N =
N!
D!I!
c)
Calcule la entropía S(D) a partir de ese número de
configuraciones. Recuerde usar la fórmula de Stirling
para el logaritmo de un factorial.
Solución: Siendo Ω(D)
ΩD
N =
N
D
=
N!
D!(N −D)!
Empleando la relación de la entropía y la probabili-
dad termodinámica
S = kB ln(Ω)
= kB ln
N!
D!(N −D)!
= kB [ln(N!)−ln(D!(N −D)!)]
Aplicando la formula de Stirling para logaritmo de
un factorial ln(n!) = nln(n)−n+O(ln(n))
S=kB[N ln(N)−N −ln(D!)−ln((N −D)!)]
=kB[N ln(N)−N −Dln(D)
+D−(N −D)ln(N −D)+N −D)]
=kB[N ln(N)−N −Dln(D)
+D−N ln(N −D)
+Dln(N −D)+N −D)]
=kB[N ln(N)−N −Dln(D)
+@
D−N ln(N −D)
+Dln(N −D)+N −@
D)]
S=kB[N ln(N)−Dln(D)−(N −D)ln(N −D)]
d)
Si un resorte se estira, la fuerza del resorte se relacio-
na con la deformación como F = −KHooke∆L, con K
la constante del resorte. Por lo tanto, si estiro el resor-
te, su energía aumenta en una magnitud ∆E = F∆L,
o en otras palabras
1
F
= −
∂L
∂E
pero disminuye la entropía. Demuestre que si 1
T =
∂S
∂E , entonces la fuerza está dada por
F =
kBT
2d
ln
N +L/d
N −L/d
Solución: Partiendo de lo dado:
1
T
=
∂S
∂E
=
∂S
∂L
∂L
∂E
=
∂L
∂E
|{z}
− 1
F
∂S
∂L
es decir que
1
T
= −
1
F
∂S
∂L
F = −T
∂S
∂L
solucionando ∂S
∂L para F:
S = kB[N ln(N)−Dln(D)...
... − (N −D)ln(N −D)]
5
6. ∂S
∂L
= kB
∂N
∂L
ln(N)+N
∂ ln(N)
∂L
...
... −
∂D
∂Lln(D)
−D
∂ ln(D)
∂L
...
... −
∂ ln(N −D)
∂L
(N −D)...
... −
∂(N −D)
∂L
ln(N −D)
teniendo presente que
D =
N + L
d
2
−→
∂D
∂L
=
1
2d
N = 2D−
L
d
−→
∂N
∂L
=
1
d
−
1
d
= 0
entonces
=kB
(0)ln(N)+N
1
N
(0)−
1
2d
ln(D)
−D
1
D
1
2d
−
0−
1
2d
ln(N −D)
−
1
N −D
0−
1
2d
(N −D)
=kB
−
1
2d
ln(D)−
1
2d
+
1
2d
ln(N −D)
+
1
2d
=kB
−
1
2d
ln(D)+
1
2d
ln(N −D)
=
kB
2d
[ln(N −D)−ln(D)]
∂S
∂L
=
kB
2d
ln
N −D
D
sustituyendo D en ∂S
∂L
=
kB
2d
ln
2N −L0 −N
N +L0
=
kB
2d
ln
N −L0
N +L0
∂S
∂L
=
kB
2d
ln
N −L0
N +L0
remplazando en F
F = T
kB
2d
ln
N +L0
N −L0
e)
Muestre que en el límite de en que N L0 la fuerza y
la longitud se relacionan con una constante de Hooke
KHooke =
kBT
Nd2
Solución: Para comprobar, se expande ln
N+L0
N−L0
en Taylor
ln
N +L0
N −L0
=
2L0
N
+
2L3
0
3N3
+
2L5
0
5N5
+
2L7
0
7N7
+
2L9
0
9N9
+
2L11
0
11N11
+O
L13
0
converge cuando |L| |N|
sustituyendo L0 = L/d
ln
N +L0
N −L0
=
2L
dN
+
2L3
3N3d3
+...
el término a primer orden de la expansión representa
el límite ln
N+L0
N−L0
NL0
−
−
−
→ 2L
Nd ; entonces, al sustituir
en F
F = T
kb
2d
2L
Nd
F =
TkB
Nd2
|{z}
KHooke
L
|{z}
−∆X
KHooke =
TkB
Nd2
4. N osciladores armónicos distin-
guibles no acoplados
Considere un conjunto de N osciladores armónicos
no acoplados idénticos, cuya energía es:
E = ∑
i
p2
i
2m
+
1
2
mω2
0 q2
i
donde qi y pi son el desplazamiento y el momen-
tum del i-ésimo oscilador, respectivamente.
6
7. a)
Calcule el volumen en el espacio de fase Σ(E) de
todos los estados con energía menor o igual que E.
(Ayuda: haga el cambio de variable xi = mwoqi), con
lo que el cascarón de energia se convierte en un cas-
carón esférico de 2N dimensiones.
Solución:
Haciendo el cambio de variable xi = mw0qi y re-
emplazando en la energía, llegamos a:
E =
N
∑
i
p2
i
2m
+
x2
i
2m
Y por lo tanto
2mE =
N
∑
i
p2
i +xi2
= R2
(1)
Donde R es el radio de la esfera de energía en el
espacio de fase, siendo R =
√
2mE
Para este sistema con osciladores distinguibles, po-
demos expresar el volumen en el espacio de fase
Σ(E) con energía menor o igual a E como:
Σ(E) =
1
hN
Z
qi
Z
pi
dN
pidN
qi
y por el cambio de variable xi = mwoqi tenemos
entonces dqi = dxi
mwo
; así:
Σ(E) =
1
(hmwo)N
Z
xi
Z
pi
dN
pidN
xi (2)
Analizando la ecuación (2) nos damos cuenta que
las integrales sobre las variables del espacio de fase
generan un volumen, y en este caso es el volumen de
una esfera en D dimensiones de radio R :
VD(R) =
πD/2
Γ(D
2 +1)
RD
Siendo el radio R =
√
2mE y la dimensión D = 2N,
el volumen de la esfera queda:
V2N(R) =
πN
Γ(N +1)
(2mE)N
(3)
y colocando (3) en (2), obtenemos:
Σ(E) =
1
(hmwo)N
πN
Γ(N +1)
(2mE)N
La función gamma tiene la propiedad de:
Γ(N +1) = N!
por lo que Σ(E) puede reescribirse como:
Σ(E) =
1
(hmwo)N
πN
N!
(2mE)N
Σ(E) =
1
N!
2πE
hwo
N
(4)
b)
Calcule con ello la densidad de estados como el
número de microestados con energías entre E y E +
dE
Solución
Sabemos que la densidad de estados g se define
como:
g =
∂Σ(E,N)
∂E
y por tanto:
Ω(E,N) = g∆E =
∂Σ(E,N)
∂E
∆E
Como queremos saber la densidad de estados con
energías entre E y E +dE entonces:
Ω(E,N) =
∂
∂E
EN
N!
2π
hwo
N
#
(E +dE −E)
Ω(E,N) =
NEN−1
N!
2π
hwo
N
dE
c)
Halle con él la entropía S(E,N) como función de
la energía y del número de particulas. (Ayuda: use la
fórmula de Stirling para ln(n!)
Solución
La entropía en el ensamble microcanónico se ex-
presa como:
S = kB ln(Ω(E,N))
y por tanto
7
8. S = kB ln
NEN−1
N!
2π
hwo
N
dE
!
= kB[lnN +(N −1)lnE +N ln(2π)+ln(dE)
−ln(N!)−N ln(hwo)]
= kB[lnN +(N −1)lnE +N ln(2π)+ln(dE)
−N lnN +N −N ln(hwo)]
Tenemos así:
S = kB[lnN +(N −1)lnE +N ln(2π)+ln(dE)
−N lnN +N −N ln(hwo)]
d)
A partir de allí, demuestre que las expresiones pa-
ra la temperatura en función de la energía y para el
potencial químico en función de E y N son
E = NkBT , µ = −
E
N
ln
E
Nh̄wo
Solución:
Temperatura
Tenemos:
1
T
=
∂S
∂E
V,N
Y por lo tanto:
1
T
= kB
N −1
E
E = kBT(N −1)
Ahora bien, cuando N 1, N −1 ≈ N entonces:
E ≈ NkBT
Potencial químico
Tenemos:
−
µ
T
=
∂S
∂N
E,V
Además:
T =
E
NkB
Entonces:
−
µNkB
E
= kB[
1
N
+lnE −[lnN +
1]+
1−ln(hwo)+ln(2π)]
Cuando N 1 entonces 1
N ≈ 0, y por tanto:
−
µN
E
= ln
2πE
hwoN
= ln
E
h̄woN
Y así, despejando el potencial químico µ, llega-
mos a:
µ = −
E
N
ln
E
h̄woN
5. Transinformación
Dos medidas X y Y, la primera con dos resultados
posibles y la segunda con tres, se encuentran conec-
tadas por un canal, como muestra la figura 4. Como
el canal mezcla los resultados, no es posible saber a
ciencia cierta cuál fue el resultado de X con sólo me-
dir Y. El objetivo es saber cuánta información de la
que se mide en Y proviene de X,y cuánta es agregada
por el canal.
Figura 4: Imagen Ejercicio 5
a) Calcule las entropías de cada medida,
Inicialmente verificamos la probabilidad de yj por
medio de la relación:
p(yj) = ∑
i
p(yj|xi) p(xi) = ∑
i
p(xi,yj) (5)
8
9. Se obtiene por lo tanto
p(y1) = p(y1|x1) p(x1)
| {z }
p(x1,y1)
+
:0
p(y1|x2)p(x2)
| {z }
p(x2,y1)
= 0,28
(6)
p(y2) = p(y2|x1) p(x1)
| {z }
p(x1,y2)
+ p(y2|x2) p(x2)
| {z }
p(x2,y2)
= 0,12+0,12 = 0,24 (7)
p(y3) =
:0
p(y3|x1)p(x1)
| {z }
p(x1,y3)
+ p(y3|x2) p(x2)
| {z }
p(x2,y3)
= 0,48
(8)
Ahora la información para determinado estado está
dada por:
I (xi) = −log2 p(xi) (9)
Y la entropía para ese conjunto de estados es:
H (X) = ∑
i
p(xi)I (xi) = −∑
i
p(xi)log2 p(xi)
(10)
De donde obtenemos:
I (x1) = 1,32 bits
I (x2) = 0,74 bits
I (y1) = 1,84 bits
I (y2) = 2,06 bits
I (y3) = 1,06 bits
Que si reemplazamos en (10) junto con p(xi), obte-
nemos:
H (X) = 0,4(1,32)+0,6(0,74) = 0,97 bits,
H (Y) = 0,28(1,84)+0,24(2,06)+0,48(1,06)
= 1,52 bits
b) Calcule las seis probabilidades conjuntas.
Con ellas, la entropía conjunta, la entropía
condicional y la transinformación
Las probabilidades conjuntas están definidas por
medio del segundo y el tercer término de la ecuación
(5) p(xi,yj) y por lo tanto ya fueron halladas en (6),
(7), (8).
La entropía conjunta está definida como:
H (X,Y) = ∑
i,j
p(xi,yj)I (xi,yj) (11)
Y la entropía condicional como:
H (X|Y) = ∑
i,j
p(xi,yj)I (yj|xi) (12)
por lo tanto solo resta hallar I (xi,yj) y I (yj|xi) usan-
do la relación (9):
I (x1,y1) = 1,84
I (x2,y1) = NA
I (x1,y2) = 3,06
I (x2,y2) = 3,06
I (x1,y3) = NA
I (x2,y3) = 1,06
I (y1|x1) = 0,51
I (y1|x2) = NA
I (y2|x1) = 1,74
I (y2|x2) = 2,32
I (y3|x1) = NA
I (y3|x2) = 0,31
Que si se reemplazan en (11) y (12) resulta la entro-
pía conjunta:
H (X,Y) = 0,28(1,84)+
:0
0(NA)+0,12(3,06)
+0,12(3,06)+
:0
0(NA)+0,48(1,06)
= 1,76 bits (13)
La entropía condicional:
H (Y|X) = 0,28(0,51)+
:0
0(NA)+0,12(1,74)
+0,12(2,32)+
:0
0(NA)+0,48(0,31)
= 0,78 bits (14)
La cual representa la cantidad de información que es-
taría agregando el canal a causa del ruido en prome-
dio.
La transinformación está definida como:
I (Y;X) = H (Y)−H (Y,X) (15)
Si reemplazamos los valores anteriormente obteni-
dos, resulta:
I (Y;X) ≈ 0,73 bits (16)
9
10. Que es la cantidad de información que proviene real-
mente de X en promedio
Por último, se puede verificar que para este caso, la
relación entre las entropías inicial, final, conjunta y
la transiformación, se cumple:
H (X)+H (Y)−I (Y;X) = H (X,Y) (17)
0,97+1,52−0,74 = 1,75 bits
H (X,Y) ≈ 1,76 bits
c) Capacidad del Canal
Figura 5: Imagen Ejercicio 5 con p(x1) = p
Ahora vamos a variar las probabilidades de entra-
da, manteniendo las del canal constantes y veremos
para qué condiciones de estas, se obtiene la mayor
transinformación posible.
Dado que las probabilidades de entrada deben su-
mar uno, si definimos p(x1) = p, se debe cumplir
p(x2) = 1 − p. Procederemos de la misma manera
que en el caso anterior.
Las probabilidades de salida se hallan por medio de
la relación (5) y se obtiene:
p(y1) = 0,7p
|{z}
p(x1,y1)
+
:0
0(1−0)
| {z }
p(x2,y1)
= 0,7p (18)
p(y2) = 0,3p
|{z}
p(x1,y2)
+0,2(1− p)
| {z }
p(x2,y2)
= 0,2+0,1p (19)
p(y3) =
0
0p
|{z}
p(x1,y3)
+0,8(1− p)
| {z }
p(x2,y3)
= 0,8−0,8p (20)
Al igual que en el caso anterior, las probabilidades
conjuntas son los valores que se encuentran dentro
de los corchetes horizontales.
Las entropías para los conjuntos de entrada y salida
se definen de la misma manera que en el caso anterior
(Ecuación (10)) y usando (9) para I en cada caso:
I (x1) = −log2 (p)
I (x2) = −log2 (1− p)
⇒ H (X) = −plog2 (p)−(1− p)log2 (1− p) (21)
y
I (y1) = −log2 (0,7p)
I (y2) = −log2 (0,2+0,1p)
I (y3) = −log2 (0,8+0,8p)
⇒ H (Y) =−0,7plog2 (0,7p)
−(0,2+0,1p)log2 (0,2+0,1p)
−(0,8−0,8p)log2 (0,8−0,8p) (22)
De la misma forma se procede para H(X,Y) con la
ecuación (11)
I (x1,y1) = −log2 (0,7p)
I (x2,y1) = NA
I (x1,y2) = −log2 (0,3p)
I (x2,y2) = −log2 (0,2−0,2p)
I (x1,y3) = NA
I (x2,y3) = −log2 (0,8−0,8p)
⇒ H (X,Y) =−0,7plog2 (0,7p)−0,3plog2 (0,3p)
−(0,2−0,2p)log2 (0,2−0,2p)
−(0,8−0,8p)log2 (0,8−0,8p)
(23)
Por otro lado de (17), la transinformación también es
I (Y;X) = H (X)+H (Y)−H (X,Y) (24)
e igualando con (15) se obtiene
H (Y)−H (Y,X) = H (X)+H (Y)−H (X,Y)
y despejando H (Y|X)
H (Y|X) = H (X,Y)−H (X)
=−0,7plog2 (0,7p)−0,3plog2 (0,3p)
−(0,2−0,2p)log2 (0,2−0,2p)
−(0,8−0,8p)log2 (0,8−0,8p)
+ plog2 (p)+(1− p)log2 (1− p) (25)
Por otro lado, escribimos la transinformación usando
(24) y simplificando un poco:
I (p) =− plog2 (p)−(1− p)log2 (1− p)
−(0,2+0,1p)log2 (0,2+0,1p)
+0,3plog2 (0,3p)
+(0,2−0,2p)log2 (0,2−0,2p) (26)
10
11. Ahora, para hallar la transinformación máxima, deri-
varemos respecto a p e igualaremos a cero, para así
despejar p y encontrar la condición.
dI(p)
dp
=
dH(X)
dp
+
dH(Y)
dp
−
dH(X,Y)
dp
= 0 (27)
Recordando que
d
dx
log2(x) =
1
ln2
·
1
x
De (21), tenemos:
dH(x)
dp
=
−1
ln2
ln p+1
+
(−1)ln(1− p)+(−1)
1− p
1− p
=
−1
ln2
[ln p−ln(1− p)] (28)
De (22), tenemos:
dH(y)
dp
=
−1
ln2
0,7
ln0,7p+
p(0,7)
0,7p
+0,1ln(0,2+0,1p)+
(0,2+0,1p)
0,2+0,1p
·0,1
+(−0,1)ln(0,8−0,8p)+
(0,8−0,8p)
0,8−0,8p
·(−0,8)
=
−1
ln2
0,7(ln0,7p+1)+0,1(ln(0,2+0,1p)+1)
−0,8(ln(0,8−0,8p)+1)
(29)
y de (23)
dH(X,Y)
dp
=
−1
ln2
0,7
ln0,7p+
p(0,7)
0,7p
+0,3
ln0,3p+
p(0,3)
0,3p
+(−0,2)ln(0,2−0,2p)+
(0,2−0,2p)
0,2−0,2p
·(−0,2)
+(−0,1)ln(0,8−0,8p)+
(0,8−0,8p)
0,8−0,8p
·(−0,8)
=
−1
ln2
0,7(ln0,7p+1)+0,3(ln0,3p+1)
−0,2(ln(0,2−0,2p)+1)−0,8(ln(0,8−0,8p)+1)
(30)
Ahora, reemplazando en (27), el término (−1/ln2)
es factor común en las tres derivadas, entonces se
cancela, y se obtiene:
0 =ln p−ln(1− p)+(((((((
(
0,7(ln0,7p+1)
+0,1(ln0,1+ln(2+ p)+
1)
−
((((((((((
(
0,8(ln(0,8−0,8p)+1)
−(((((((
(
0,7(ln0,7p+1)−0,3(ln0,3+ln p+
1)
+0,2(ln0,2+ln(1− p)+
1)
+
((((((((((
(
0,8(ln(0,8−0,8p)+1)
Donde se hizo uso de las propiedades de los logarit-
mos;
ln(0,3· p) = ln0,3+ln p
ln(0,2+0,1p) = ln0,1+ln(2+ p)
ln(0,2−0,2p) = ln0,2+ln(1− p)
Agrupando términos para ln p y ln(1− p) obtene-
mos:
0 =ln p(1−0,3)+ln(1− p)(0,2−1)+0,1ln(2+ p)
+0,1ln0,1−0,3ln0,3+0,2ln0,2
Y como ln0,3 = ln(0,1·3) = ln0,1+ln3
0 =0,7ln p−0,8ln(1− p)+0,1ln(2+ p)
+
0,1ln0,1−0,3[
ln0,1+ln2]+0,2[
ln0,1+ln2]
Luego, multiplicando a ambos lados por 10 y dejando
a un lado de la ecuación los términos que dependen
de p, se obtiene:
7ln p−8ln(1− p)+ln(2+ p) = 3ln3−2ln2
Ahora, usando la propiedad de los logaritmos nlnx =
lnxn, y agrupando todo en un logaritmo
ln
(p7)(2+ p)
(1− p)8
= ln
33
22
Para que los logaritmos sean iguales, los argumentos
de los logaritmos han de ser iguales, por lo tanto:
(p7)(2+ p)
(1− p)8
=
33
22
Donde si definimos a = 33/22 llegamos al polinomio
para p
a(1− p)8
− p7
(2+ p) = 0 (31)
Que es una función como la mostrada en la Figura
(6). Por medio de cálculo numérico, hallamos la raíz
11
12. Figura 6: Polinomio y raíz en el intervalo de 0 a 1
correspondiente a p en el intervalo (0,1), que es el
valor
p = 0,509864 (32)
Ahora, para determinar la transinformación máxima,
reemplazamos este valor en la ecuación (26) y obte-
nemos:
Imax = I(Y;X)(p = 0,509864) = 0,75748 bits (33)
Que como se puede observar, es muy cercana al valor
que se tenía en el punto a), pero se observa también
que si las probabilidades de entrada p(x1), p(x2) son
iguales, la transinformación es mucho mayor. A este
valor máximo se le llama la Capacidad del canal.
Una gráfica de la Transinformación en función de p
(Ver figura (7)), nos da evidencia de que para un valor
en específico, con esas condiciones, la probabilidad
de entrada en efecto maximiza dicha función; como
la transinformación representa la cantidad informa-
ción que de la fuente (X) está llegando realmente a
(Y) (y no fue modificada por el ruido del canal); si
esta cantidad se maximiza, se obtiene el valor máxi-
mo en promedio de información que se puede medir
en (Y) proveniente de (X) y por lo tanto, es un méto-
do para optimizar los sistemas de telecomunicaciones
tales como internet y demás.
Figura 7: Transinformación en función de p
6. Los volúmenes elementales de la
teoría de Edwards para el volu-
men de un material granular.
Considere un conjunto de N granos esféricos dentro
de una caja de volumen total VT . Edwards propuso en
1984 que se podría hacer una descripción estadística
de este sistema tomando el volumen como la variable
fundamental (en vez de la energía). En este caso, la
entropía da cuenta de todas las configuraciones posi-
bles de N granos dentro del volumen, y la tempera-
tura es reemplazada por otra cantidad, la compactivi-
dad, cuyo inverso nos dice cómo cambia la entropía
en función del volumen.
a)
Considere el espacio de fase como el espacio de C
dimensiones donde cada eje es el volumen vi de una
celda elemental, i = 1,...,C.
Solución: La consideración sugiere que el volumen
VT está formado por C volumenes de tamaño vi, es
decir:
VT =
C
∑
i
vi
b)
Dese cuenta de que repartir el volumen VT entre C
variables vi de tal manera que cada vi ≥ vmin es lo
mismo que repartir un volumen V0
T = (VT −CVmin)
entre C variables v0
i = vi − vmin. Por lo tanto, cam-
bie a un sistema de coordenadas v0
i = vi − Vmin,
12
13. cada una de las cuales solo puede tomar valores
0 ≤ v0
i ≤ (V −Cvmin).
Solución: El volumen total del espacio de fase se
constituye de C volúmenes vi que son, individual-
mente, mas grandes que elementos de volumen míni-
mos soportados por la consideración. el gapde vo-
lumen que hay entre el cada vi y un elemento mínimo
de volumen se asocia como una coordenada del espa-
cio de fase. Por ultimo, dicha diferencia de pequeños
volúmenes, en conjunto, debe corresponder al V0
T .
VT −Cvmin = V0
T =
C
∑
i
v0
i. =
C
∑
i
(vi −vmin)
| {z }
coordenadas
c)
Identifique que todos los estados posibles en este
espacio de fase equivalente que tienen un volumen
menor o igual que V0
T ,
∑i v0
i ≤ V0
T ,
forman un simplex estándar de C dimensiones
(es decir, la esquina de un cubo de C dimensiones)
de lado V0
T . Deduzca, entonces, que el lugar geomé-
trico de todos los estados de C celdas elementales
con un volumen menor o igual a VT es
Σ(VT ,C) =
(VT −Cvmı́n)C
Λ3CC!
donde Λ es una longitud característica para hacer que
Σ(VT ,C) sea adimensional. (Ayuda: El volumen de
un simplex estándar de lado unidad en n dimensiones
es (1/n!)).
Solución: Un simplex de lado unidad, va a tener un
volumen 1/n! con n como el numero de dimensiones
es C y para nuestro caso, el lado del simplex es
V0
T ademas, se tiene que el valor de la arista estará
elevado a C
∑(V,N) =
Volumen del espacio de fase
N!
|{z}
C!
h3N
|{z}
Λ3C
∑(C,VT ) =
V0
T
C
Λ3CC!
=
(VT −Cvmin)C
Λ3CC!
d)
Derive esta expresión respecto a VT para hallar que la
densidad de estados Ω(VT ) entre VT y VT + ∆VT
es
Ω(VT ,C)dVT =
(VT −Cvmı́n)C−1
Λ3C(C −1)!
dVT
Solución:
∂
∂VT
(∑(C,VT )) =
C(VT −Cvmin)C−1
Λ3C
C!
dVT
(VT −Cvmin)C−1
Λ3C(C −1)!
dVT = Ω(VT ,C)dVT
e)
Con este valor, calcule la probabilidad de que una
celda elemental especifica tenga un volumen v como
la fracción de configuraciones en las que esto sucede,
p(v) =
Ω(VT −v,C −1)
Ω(VT ,C)
y demuestre que en el límite en que C → ∞, pero
hvi = VT /C finito,
p(v) =
Λ3
χ
e−(v−vmı́n)/x
donde χ ≡ hvi−vmı́n, llamada la compactividad, ha-
ce las veces de la temperatura para este ensamble, y
hvi =VT /C es el volumen promedio de una celda ele-
mental. (Ayuda: Recuerde que ex = lı́mn→∞ 1+ x
n
n
).
Solución:
p(v) =
Ω(VT −v,C −1)
Ω(VT ,C)
p(v) =
((VT −v)−(C−1)vmı́n)C−1−1
Λ3(C−1)(C−1−1)!
dVT
(VT −Cvmı́n)c−1
Λ3C(C−1)!
dVT
p(v) =
((VT −v)−(C−1)vmı́n)C−2
Λ3C−3(C−2)!
(VT −Cvmı́n)C−1
Λ3(C−1)!
p(v) =
Λ3C(C −1)!((VT −v)−(C −1)vmin)C−2
Λ
3C−3(C −2)!(VT −Cvmin)C−1
13
14. p(v) =
Λ3(C −1)
!((VT −v)−(C −1)vmin)C−2
(C −2)!(VT −Cvmin)C−1
p(v) =
Λ3(C −1)((VT −v)−(C −1)vmin)C−2
(VT −Cvmin)C−1
p(v) = Λ3
(C −1)
(VT −V −Cvmı́n +vmı́n)C−2
(VT −Cvmı́n)C−2
(VT −Cvmı́n)
p(v) =
Λ3(C −1)
(VT −Cvmin)
VT −Cvmin −v+vmin
VT −Cvmin
C−2
p(v) =
Λ3(C −1)
(VT −Cvmin)
VT −Cvmin −v+vmı́n
VT −Cvmin
C−2
lı́m
C→∞
Λ3 1− 1
c
VT
C −vmin
1−
vmı́n −v
VT −Cvmı́n
C−2
aplicando hvi = VT /C con C finito
lı́m
C→∞
Λ3 1− 1
C
hvi−vmin
1−
vmı́n −v
C(VT
C −vmı́n)
!C−2
lı́m
C→∞
Λ3 1− 1
C
hvi−vmin
1−
vmı́n −v
C(hvi−vmı́n)
C−2
y haciendo uso de la definición χ ≡ hvi − vmı́n y de
ex = lı́mn→∞ 1+ x
n
n
lı́m
C→∞
Λ3 1− 1
C
χ
1−
vmı́n −v
Cχ
C−2
=
Λ3
χ
e
vmı́n−v
χ
p(v) =
Λ3
χ
e(vmin−v)/χ
=
Λ3
χ
e−(v−vmin)/χ
f)
Con esta probabilidad, calcule la entropía de una cel-
da elemental como
S = −
Z ∞
v=vmı́n
p(v)ln p(v)
dv
Λ3
y demuestre que vale
S = 1+ln
χ
Λ3
Solución:
S=−
Z ∞
v=vmin
p(v)ln[p(v)]
dv
Λ3
=
S=−
Z ∞
v=vmin
Λ3
χ
e−(v−vmin)/χ
ln[
Λ3
χ
e−(v−vmin)/χ
]
dv
Λ3
usando ln(ab) = ln(a)+ln(b)
= 1
χ ln χ
Λ3
R ∞
v=vmı́n
e−(v−vmı́n)/xdv−...
...
R ∞
v=vmı́n
e−(v−vmı́n)/χ
(v−vmı́n)
χ
dv
χ
como
R
exdx = ex +c para 1era integral
y
R
xexdx = ex(x−1)+c, para 2da integral.
=
−ln χ
Λ3
e−(v−vmı́n)/χ+ ...
... e−(v−vmı́n)/χ
−(v−vmı́n)
χ −1
i∞
v=vmı́n
evmı́n−vmı́n = e0 = 1, y e−∞+vmı́n ≈ e−∞ tiende a 0
S=1+ln
χ
Λ3
g)
Suponga que la entropía total ST del material es igual
a la suma de las entropías de las C celdas elementales
que lo conforman. Si asumimos que C es constante,
ST = C
h
1+ln
χ
Λ3
i
Recordando que 1
χ = ∂ST
∂VT
, deduzca una ecuación que
relacione χ conVT Muestre que esta ecuación es con-
sistente con la definición de χ = hvi− vmı́n dada arri-
ba.
Solución:
14
15. Derivando parcialmente la función ST tenemos:
∂ST
∂VT
=
1
χ
=
Λ3
Λ3
C
χ
∂χ
∂VT
Así:
C
∂χ
∂VT
= 1
Despejando e integrando tenemos:
χ =
Z VT
VTmin
dVT
C
=
VT
C
−Vmin
Siento A una constante, tenemos que el resultado
concuerda para v = VT /C con la definición:
χ = hvi−vmin.
7. La Paradoja de Gibbs
a)
Calcular Ω(E) sin dividir por N! y demostrar que
la entropía microcanónica del gas ideal, calculada de
esa forma es:
S(E,V,N) = NKB
3
2
+ln
V
h3
4πmE
3N
3/2
##
(34)
Demostración:
Sabemos que el volumen Vp de la esfera en el es-
pacio de los momentos, multiplicado por el volumen
Vx en el espacio de las posiciones, para las 3N dimen-
siones es:
Vp(3N)
(R)Vx(3N)
=
VN(2πm)
3N
2 E
3N
2
h3NΓ(3N
2 +1)
Usando:
Γ(z+1) = zΓ(z)
Entonces:
Σ(E) =
VN(2πm)
3N
2 E
3N
2
h3N 3N
2 Γ(3N
2 )
Derivando respecto a E y usando el hecho de que
para N muy grande 3N/2−1 ' 3N/2 tenemos:
Ω(E) =
3N
2
3N
2
VN(2πmE)
3N
2
h3NΓ(3N
2 )
dE
Para hacer el cálculo la entropía microcanónica
usamos:
S = KBlnΩ(E)
Así:
S = KB
ln
VN(2πmE)
3N
2
h3N
!
−ln
Γ
3N
2
##
La aproximación de Stirling es:
lnΓ(z+1) ' zlnz−z
Usando la aproximación de Stirling y el hecho de
que 3N/2+1 ' 3N/2 tenemos:
S = KB
ln
VN(2πmE)
3N
2
h3N
!
−
3N
2
ln
3N
2
+
3N
2
#
Reagrupando los primeros dos términos y usando
las propiedades del logaritmo natural tenemos:
S(E,V,N) = KB
3N
2
+ln
(2πme)
3N
2 VN
h3N(3N
2 )
3N
2
!#
= KB
3N
2
+ln
V
h3
4πmE
3N
3
2
!N#
= NKB
3
2
+ln
V
h3
4πmE
3N
3/2
!#
Demostración Completa.
b)
Demostrar que para el gas ideal del punto anterior,
la función de entropía (34) no es extensiva.
S1(V/2,E/2,N/2) +S2(V/2,E/2,N/2) 6= S(V,E,N)
Demostración:
Sea S(E,V,N) la función de entropía para un gas
ideal, con energía E, volumen V y cantidad de partí-
culas N correspondiente a la ecuación (34); si par-
timos el sistema en dos, se tienen dos volúmenes
V1 = V2 = V/2, con energías E1 = E2 = E/2 y que
contienen cantidades de partículas N1 = N2 = N/2.
15
16. Calculamos directamente S1 + S2 la suma de las en-
tropías evaluando en la función (34), de forma que:
S1(V/2,E/2,N/2) +S2(V/2,E/2,N/2) = 2S(V/2,E/2,N/2)
=
2∗
N
2
KB
3
2
+ln
V
2h3
4πmE
3N
2
2
3/2
!#
= NKB
3
2
+ln
V
h3
4πmE
3N
3/2
−ln2
!#
6= NKB
3
2
+ln
V
h3
4πmE
3N
3/2
!#
Por lo tanto, bajo la ecuación (34) la entropía, del
sistema, no es la suma de las entropías de las partes
del sistema, por lo que no es una magnitud extensiva.
Demostración completa.
c)
Mostrar que bajo la función (35) la entropía Sí es
una cantidad extensiva.
SN!1(V/2,E/2,N/2) +SN!2(V/2,E/2,N/2) = SN!(V,E,N)
Sea SN! la función de entropía que surge como con-
secuencia de dividir Ω(E) por N!.
SN!(E,V,N) = NKB
5
2
+ln
V
Nh3
4πmE
3N
3/2
!#
(35)
Demostración: Siguiendo la misma idea de la de-
mostración anterior, calculamos la entropía de los dos
sistemas con V1 = V2 = V/2,E1 = E2 = E/2,N1 =
N2 = N/2, pero bajo la ecuación que implica dividir
por N! (ecuación (35)), esto es:
SN!1(V/2,E/2,N/2) +SN!2(V/2,E/2,N/2)
= 2SN!(V/2,E/2,N/2)
=
2
N
2
KB
5
2
+ln
V
Nh3
2
2
4πmE
3N
2
2
3/2
!#
= NKB
5
2
+ln
V
Nh3
4πmE
3N
3/2
!#
= SN!(E,V,N)
Así, bajo la ecuación (35) la entropía del sistema sí
es la suma de las entropías de las partes del sistema,
y es una cantidad extensiva.
Demostración Completa.
16