SlideShare ist ein Scribd-Unternehmen logo
1 von 16
Downloaden Sie, um offline zu lesen
Mecánica Estadística - Taller 1
1. La distribución de Maxwell - Bol-
tzmann
¿Cuál es la probabilidad de hallar en un gas ideal que
el momentum de una partícula se sale del promedio?
Considere un gas ideal de N partículas esféricas de
masa m en un volumen V.
a)
Halle el volumen en el espacio de fase ∑esfera(E) de
todos los estados con energía menor o igual a E. La
proyección de estos estados en el espacio de momen-
tos corresponde a una esfera de radio R =
√
2mE
en 3N dimensiones, y el volumen de una esfera en
n = 3N dimensiones es
πn/2 Rn
Γ n
2 +1
.
Solución: El volumen en el espacio de fase corres-
pondiente a N moléculas moviéndose en tres dimen-
siones, dado por el producto entre el volumen en el
espacio de momentos y el volumen del espacio de
posiciones, es:
Σ(E) =
π3N/2 R3N VN
Γ 3N
2 +1
 .
Si las partículas son indistinguibles es necesario di-
vidir entre N!
b)
Derive Σ(E) con respecto a la energía y divida por
h3N para encontrar que el número de microestados
con energías en el cascarón esférico entre E y E +dE
es
Ωcascarón =
2mπ3N/2 R3N−2VNdE
h3N Γ 3N
2

Solución:
Figura 1: Imagen Ejercicio 1.b
Ωcascarón =
1
h3N
∂Σ(E)
∂E
dE
=
1
h3N
∂
∂E
π3N/2R3NVN
Γ 3N
2 +1

!
dE
=
1
h3N
∂
∂E
π3N/2(
√
2mE)3NVN
Γ 3N
2 +1

!
dE
=
2m
h3N

3N
2

π3N/2(2mE)
3N
2 −1VN
Γ 3N
2 +1

!
dE
Teniendo en cuenta que Γ 3N
2 +1

= 3N
2 Γ 3N
2

y
además de que E = R2
2m ,
Ωcascarón =
3N
2h3N
(2mπ)3N/2(E)
3N
2 −1VN
3N
2 Γ(3N
2 )
!
dE
=
1
h3N



(2mπ)3N/2

R2
2m
(3N−2)/2
VN
Γ(3N
2 )


dE
=
2m
h3N
π3N/2 R3N−2VN
Γ 3N
2

!
dE
Ahora, pensemos que una componente de momen-
tum está fija, con valor p1. Los estados compatibles
con esta condición forman un anillo, que también es
un cascarón esférico, pero en 3N −1 dimensiones, y
de radio R0 =
q
2mE − p2
1.
1
c)
Si asumimos que el anillo tiene un espesor dp1 (no
mostrado en la gráfica), derive que el número de mi-
croestados en el anillo es
Ωanillo =
∂Σdisco(E, p1)
∂E
dE dp1
=
2mπ(3N−1)/2R03N−3VN
h3NΓ 3N−1
2
 dE dp1.
Solución: Análogo al numeral anterior, se realiza el
mismo procedimiento pero ahora considerando un
espacio de 3N −1 dimensiones y con el radio corres-
pondiente a R0, es decir,
Ωanillo =
∂Σ(E, p1)
∂E
dE dp1
=
1
h3N
∂
∂E
π(3N−1)/2R3N−1VN
Γ(3N−1
2 +1)
!
dE dp1
=
π(3N−1)/2
h3N
∂
∂E

2mE − p2
1
(3N−1)/2
VN
Γ(3N−1
2 +1)

dE dp1
=
2mπ(3N−1)/2
h3N

3N −1
2

(2mE − p2
1)(3N−1)/2−1VN
Γ(3N−1
2 +1)

dE dp1
Teniendo en cuenta que Γ(3N−1
2 +1) = 3N−1
2 Γ(3N−1
2 )
=
1
h3N
((3N −1)/2)
(π)(3N−1)/2(2mE − p2
1)(3N−1)/2−1VN
3N−1
2 Γ(3N−1
2 )
!
dEdp1
=
2mπ(3N−1)/2R03N−3VNdEdp1
h3NΓ 3N−1
2

d)
Demuestre que la probabilidad de hallar el mo-
mentum p1 entre p1 y p1 +dp1 es proporcional a
P(p1)dp1 =
Ωanillo(E, p1)
Ωcascaron(E)
∝
R2
R03

R0
R
3N
=
R2
R03
[1− p2
1/2mE]3N/2
Como el término entre corchetes cuadrados está
elevado a un exponente enorme, la probabilidad será
diferente de cero solamente si este término es similar
a 1, es decir, si p1 ∼ 0
Solución:
P(p1) =
Ωanillo
Ωcascaron
=
2mπ(3N−1)/2R03N−3VNdEdp1
h3NΓ(3N−1
2 )
2mπ3N−2VNdE
Γ(h3N 3N
2 )
P(p1) =
Γ 3N
2

R03N−3
πΓ 3N−1
2

R3N−2
∝
R2
R03

R0
R
3N
=
R2
R03


q
2mE − p2
1
√
2mE


3N
=
R2
R03

1−
p2
1
2mE
3N/2
e)
Usando la aproximación 1 − p2
1/2mE = 1 − ε '
e−ε, muestre que, una vez normalizada, la densidad
de probabilidad con la que se miden los valores de p1
distribuye aproximadamente como una gaussiana:
P(p1) =
1
σ
√
2π
e
−p2
1
2σ2
con desviación estándar σ =
p
2mE/3N. Esto
quiere decir que solo valores de p1 muy cercanos a
cero tienen un chance razonable de ser medidos.
Figura 2: Imagen Ejercicio 1.e
Solución:
2
Del ejercicio inmediatamente anterior se conoce
que
P(p1) ∝
R2
R03
[1− p2
1/2mE]3N/2
,
teniendo en cuenta la aproximación
1− p2
1/2mE = 1−ε ' e−ε
= e−p2
1/2mE
P(p1) ∝ exp(−
p2
1
2mE
(
3N
2
))
P(p1) ∝ exp(−
1
2
·
3Np2
1
2mE
)
P(p1) ∝ exp(−
1
2
·
p2
1
σ2
)
La expresión anterior con σ2 = 2mE
3N , corresponde a la
distribución normal de densidad con la que se miden
los valores de p1, pero aún no esta normalizada. Pa-
ra normalizar es necesario realizar la integral de las
probabilidades e igualar a 1, y despejar el factor de
normalización.
Z ∞
∞
P(p1)dp1 = A
Z ∞
∞
exp(−
1
2
·
p2
1
σ2
)dp1 = 1
Sabemos que
Z ∞
∞
e−x2/2σ2
dx =
√
2πσ
Por lo cual
A
√
2πσ = 1
A = 1/σ
√
2π
Así que normalizando es decir, multiplicando por
1/σ
√
2π llegamos a
P(p1) =
1
σ
√
2π
exp(−
1
2
·
p2
1
σ2
)
2. El modelo de Ising en 1 Dimen-
sión
Considere una tira de N celdas cuadradas, como la
que muestra la figura. En cada celda hay un espín si
(un pequeño imán), que puede estar apuntando hacia
arriba (si = 1) o hacia abajo (si = −1). Las condi-
ciones de frontera son periódicas (el último es vecino
del primero), por lo que en realidad podemos pensar
que la tira es un anillo.
Cada pareja de espines vecinos interactúa de la si-
guiente manera: si los espines son paralelos, la ener-
gía de su interacción es −J, y si son anti-paralelos,
la energía es J. La energía total E es la suma de las
energías de todas las parejas de vecinos
Cuando todos los espines son paralelos (todos ha-
cia arriba o todos hacia abajo), la energía es mínima,
Emı́n = −NJ. La energía del sistema se puede calcu-
lar de otra manera. Si partimos de una configuración
de mínima energía y volteamos un bloque de espines,
cada frontera entre espines de diferente dirección (en
rojo, en la figura) hace que la energía aumente en 2J.
Por lo tanto, si hay k de esas fronteras, la energía es
E = Emı́n +2Jk = 2Jk −NJ, y similarmente
k =
E +NJ
2J
.
a)
¿De cuántas maneras Ω(k) se puede tener una con-
figuración con k fronteras? Calcúlela usando combi-
natoria, y pensando de cuántas maneras puedo colo-
car k fronteras en N sitios disponibles para ponerlas,
que son los N límites entre celda y celda.
Solución
Considerando el modelo mencionado, el número de
estados posibles Ω(k) corresponde a
Ω(k) = 2

N
k

=
2(N!)
k!(N −k)!
b)
Calcule la entropía S(k) a partir de ese número de
configuraciones. Recuerde usar la fórmula de Stirling
para el logaritmo de un factorial.
Solución
La entropía a partir del número de estados posibles
corresponde a
S(k) = kB ln[Ω(k)]
= kB ln

2(N!)
k!(N −k)!

= kB [ln2+ln(N!)−ln(k!)−ln[(N −k)!]]
= kB[ln2+N ln(N)−N −kln(k)+k
−(N −k)ln(N −k)+N −k]
= kB[ln2+N ln(N)−kln(k)
−(N −k)ln(N −k)]
3
c)
Derive la entropía con respecto a la energía para
hallar la temperatura se relaciona con la energía co-
mo
1
kBT
=
1
2J
ln

N
k
−1

con k =
E +NJ
2J
Solución
Realizando el cambio de variable
k =
E +N j
2 j
=⇒ E = j(2k −N)
sobre el cálculo anterior de la entropía, se tiene que
su respectiva derivada respecto de la energía es
dS
dE
=
dS
dk
dk
dE
=
1
2j
dS
dk
=
kB
2 j
[−ln(k)−1+ln(N −k)+1]
=
kB
2 j
[ln(N −k)−ln(k)]
=
kB
2 j
ln

N
k
−1

Ahora, puesto que dS/dE = 1/T, se deduce final-
mente que
1
T
=
kB
2 j
ln

N
k
−1

=⇒
1
kBT
=
1
2 j
ln

N
k
−1

.
d)
d) A partir de este resultado, muestre que la ener-
gía por sitio se relaciona con la temperatura como
E
N
= −J tanh(βJ) , con β =
1
kBT
Solución
Considerando la relación 1/KBT = β y la ecuación
anterior se tiene que
2 jβ = ln

N
k
−1

=⇒
N
k
= e2 jβ
+1
y además de la definición de energía por sitio
E
N
=
j(2k −N)
N
se obtiene finalmente, reemplazando en la expresión
obtenida para la energía por sitio
E
N
= j

2
1+e2jβ
−1

= −j
e2 jβ −e−2 jβ
e2 jβ +e−2 jβ
!
= −j[tanh(β j)].
3. Una banda elástica
Considere una cadena larga de un polímero formado
por N segmentos de longitud d que se retuerce en
una solución acuosa a temperatura constate. Para
simplificar, vamos a considerar que el movimiento
es solo unidimensional, y que cada segmento puede
formar con el anterior solamente ángulos de 0o o
180o, como muestra la figura.
Figura 3: Imagen Ejercicio 3
a)
Sea L la distancia entre los dos extremos de la cadena,
y sea L0 = L/d. Sea D el número de segmentos que
van hacia la derecha (es decir, formando un ángulo
de 0o) e I el de segmentos que van hacia la izquierda
(es decir, formando un ángulo de 180o). Demuestre
que:
D =
N +L0
2
Es decir, que a cada longitud de cadena L le corres-
ponde un valor de D.
Solución: Debido a que el total de unidades, sea
orientados a Izquierda o a Derecha constituyen el nu-
mero total de segmentos:
N = I +D
Adicional, dada la definición de L0 = L/d, esta pue-
de ser interpretada como la cantidad de segmentos
4
requeridos (todos orientados hacia la derecha) para
constituir L. Esto es, la cantidad de pasos ganados
hacia la derecha (avanzados) menos los devueltos a
la izquierda son el total avanzado L:
L0 = D−I
entonces
N = D+D−L0kkkk
2D = N +L0
D =
N +L0
2
b)
Usando combinatoria, encuentre el número de confi-
guraciones Ω(D) con D segmentos hacia la derecha.
Solución: Dado un conjunto de N elementos dis-
tinguibles, una combinación de D elementos, con
D  N; el número de combinaciones sin repetición
de D elementos elegidos entre los N es:
ΩD
N =

N
D

=
N!
D!(N −D)!
ΩD
N =
N!
D!((I +D)−D)!
ΩD
N =
N!
D!I!
c)
Calcule la entropía S(D) a partir de ese número de
configuraciones. Recuerde usar la fórmula de Stirling
para el logaritmo de un factorial.
Solución: Siendo Ω(D)
ΩD
N =

N
D

=
N!
D!(N −D)!
Empleando la relación de la entropía y la probabili-
dad termodinámica
S = kB ln(Ω)
= kB ln

N!
D!(N −D)!

= kB [ln(N!)−ln(D!(N −D)!)]
Aplicando la formula de Stirling para logaritmo de
un factorial ln(n!) = nln(n)−n+O(ln(n))
S=kB[N ln(N)−N −ln(D!)−ln((N −D)!)]
=kB[N ln(N)−N −Dln(D)
+D−(N −D)ln(N −D)+N −D)]
=kB[N ln(N)−N −Dln(D)
+D−N ln(N −D)
+Dln(N −D)+N −D)]
=kB[N ln(N)−N −Dln(D)
+@
D−N ln(N −D)
+Dln(N −D)+N −@
D)]
S=kB[N ln(N)−Dln(D)−(N −D)ln(N −D)]
d)
Si un resorte se estira, la fuerza del resorte se relacio-
na con la deformación como F = −KHooke∆L, con K
la constante del resorte. Por lo tanto, si estiro el resor-
te, su energía aumenta en una magnitud ∆E = F∆L,
o en otras palabras
1
F
= −
∂L
∂E
pero disminuye la entropía. Demuestre que si 1
T =
∂S
∂E , entonces la fuerza está dada por
F =
kBT
2d
ln

N +L/d
N −L/d

Solución: Partiendo de lo dado:
1
T
=
∂S
∂E
=

∂S
∂L
∂L
∂E

=
∂L
∂E
|{z}
− 1
F
∂S
∂L
es decir que
1
T
= −
1
F
∂S
∂L
F = −T
∂S
∂L
solucionando ∂S
∂L para F:
S = kB[N ln(N)−Dln(D)...
... − (N −D)ln(N −D)]
5
∂S
∂L
= kB

∂N
∂L
ln(N)+N
∂ ln(N)
∂L
...
... −
∂D
∂Lln(D)
−D
∂ ln(D)
∂L
...
... −
∂ ln(N −D)
∂L
(N −D)...
... −
∂(N −D)
∂L
ln(N −D)

teniendo presente que
D =
N + L
d
2
−→
∂D
∂L
=
1
2d
N = 2D−
L
d
−→
∂N
∂L
=
1
d
−
1
d
= 0
entonces
=kB

(0)ln(N)+N

1
N

(0)−

1
2d

ln(D)
−D

1
D

1
2d

−

0−
1
2d

ln(N −D)
−

1
N −D

0−
1
2d

(N −D)

=kB

−

1
2d

ln(D)−

1
2d

+
1
2d
ln(N −D)
+

1
2d

=kB

−

1
2d

ln(D)+
1
2d
ln(N −D)

=
kB
2d
[ln(N −D)−ln(D)]
∂S
∂L
=
kB
2d
ln

N −D
D

sustituyendo D en ∂S
∂L
=
kB
2d
ln

2N −L0 −N
N +L0

=
kB
2d
ln

N −L0
N +L0

∂S
∂L
=
kB
2d
ln

N −L0
N +L0

remplazando en F
F = T
kB
2d
ln

N +L0
N −L0

e)
Muestre que en el límite de en que N  L0 la fuerza y
la longitud se relacionan con una constante de Hooke
KHooke =
kBT
Nd2
Solución: Para comprobar, se expande ln

N+L0
N−L0

en Taylor
ln

N +L0
N −L0

=
2L0
N
+
2L3
0
3N3
+
2L5
0
5N5
+
2L7
0
7N7
+
2L9
0
9N9
+
2L11
0
11N11
+O

L13
0

converge cuando |L|  |N|
sustituyendo L0 = L/d
ln

N +L0
N −L0

=
2L
dN
+
2L3
3N3d3
+...
el término a primer orden de la expansión representa
el límite ln

N+L0
N−L0

NL0
−
−
−
→ 2L
Nd ; entonces, al sustituir
en F
F = T
kb
2d
2L
Nd
F =
TkB
Nd2
|{z}
KHooke
L
|{z}
−∆X
KHooke =
TkB
Nd2
4. N osciladores armónicos distin-
guibles no acoplados
Considere un conjunto de N osciladores armónicos
no acoplados idénticos, cuya energía es:
E = ∑
i

p2
i
2m
+
1
2
mω2
0 q2
i

donde qi y pi son el desplazamiento y el momen-
tum del i-ésimo oscilador, respectivamente.
6
a)
Calcule el volumen en el espacio de fase Σ(E) de
todos los estados con energía menor o igual que E.
(Ayuda: haga el cambio de variable xi = mwoqi), con
lo que el cascarón de energia se convierte en un cas-
carón esférico de 2N dimensiones.
Solución:
Haciendo el cambio de variable xi = mw0qi y re-
emplazando en la energía, llegamos a:
E =
N
∑
i

p2
i
2m
+
x2
i
2m

Y por lo tanto
2mE =
N
∑
i
p2
i +xi2
= R2
(1)
Donde R es el radio de la esfera de energía en el
espacio de fase, siendo R =
√
2mE
Para este sistema con osciladores distinguibles, po-
demos expresar el volumen en el espacio de fase
Σ(E) con energía menor o igual a E como:
Σ(E) =
1
hN
Z
qi
Z
pi
dN
pidN
qi
y por el cambio de variable xi = mwoqi tenemos
entonces dqi = dxi
mwo
; así:
Σ(E) =
1
(hmwo)N
Z
xi
Z
pi
dN
pidN
xi (2)
Analizando la ecuación (2) nos damos cuenta que
las integrales sobre las variables del espacio de fase
generan un volumen, y en este caso es el volumen de
una esfera en D dimensiones de radio R :
VD(R) =
πD/2
Γ(D
2 +1)
RD
Siendo el radio R =
√
2mE y la dimensión D = 2N,
el volumen de la esfera queda:
V2N(R) =
πN
Γ(N +1)
(2mE)N
(3)
y colocando (3) en (2), obtenemos:
Σ(E) =
1
(hmwo)N
πN
Γ(N +1)
(2mE)N
La función gamma tiene la propiedad de:
Γ(N +1) = N!
por lo que Σ(E) puede reescribirse como:
Σ(E) =
1
(hmwo)N
πN
N!
(2mE)N
Σ(E) =
1
N!

2πE
hwo
N
(4)
b)
Calcule con ello la densidad de estados como el
número de microestados con energías entre E y E +
dE
Solución
Sabemos que la densidad de estados g se define
como:
g =
∂Σ(E,N)
∂E
y por tanto:
Ω(E,N) = g∆E =
∂Σ(E,N)
∂E
∆E
Como queremos saber la densidad de estados con
energías entre E y E +dE entonces:
Ω(E,N) =
∂
∂E

EN
N!

2π
hwo
N
#
(E +dE −E)
Ω(E,N) =
NEN−1
N!

2π
hwo
N
dE
c)
Halle con él la entropía S(E,N) como función de
la energía y del número de particulas. (Ayuda: use la
fórmula de Stirling para ln(n!)
Solución
La entropía en el ensamble microcanónico se ex-
presa como:
S = kB ln(Ω(E,N))
y por tanto
7
S = kB ln
NEN−1
N!

2π
hwo
N
dE
!
= kB[lnN +(N −1)lnE +N ln(2π)+ln(dE)
−ln(N!)−N ln(hwo)]
= kB[lnN +(N −1)lnE +N ln(2π)+ln(dE)
−N lnN +N −N ln(hwo)]
Tenemos así:
S = kB[lnN +(N −1)lnE +N ln(2π)+ln(dE)
−N lnN +N −N ln(hwo)]
d)
A partir de allí, demuestre que las expresiones pa-
ra la temperatura en función de la energía y para el
potencial químico en función de E y N son
E = NkBT , µ = −
E
N
ln

E
Nh̄wo

Solución:
Temperatura
Tenemos:
1
T
=

∂S
∂E

V,N
Y por lo tanto:
1
T
= kB

N −1
E

E = kBT(N −1)
Ahora bien, cuando N  1, N −1 ≈ N entonces:
E ≈ NkBT
Potencial químico
Tenemos:
−
µ
T
=

∂S
∂N

E,V
Además:
T =
E
NkB
Entonces:
−
µNkB
E
= kB[
1
N
+lnE −[lnN + 
1]+ 
1−ln(hwo)+ln(2π)]
Cuando N  1 entonces 1
N ≈ 0, y por tanto:
−
µN
E
= ln

2πE
hwoN

= ln

E
h̄woN

Y así, despejando el potencial químico µ, llega-
mos a:
µ = −
E
N
ln

E
h̄woN

5. Transinformación
Dos medidas X y Y, la primera con dos resultados
posibles y la segunda con tres, se encuentran conec-
tadas por un canal, como muestra la figura 4. Como
el canal mezcla los resultados, no es posible saber a
ciencia cierta cuál fue el resultado de X con sólo me-
dir Y. El objetivo es saber cuánta información de la
que se mide en Y proviene de X,y cuánta es agregada
por el canal.
Figura 4: Imagen Ejercicio 5
a) Calcule las entropías de cada medida,
Inicialmente verificamos la probabilidad de yj por
medio de la relación:
p(yj) = ∑
i
p(yj|xi) p(xi) = ∑
i
p(xi,yj) (5)
8
Se obtiene por lo tanto
p(y1) = p(y1|x1) p(x1)
| {z }
p(x1,y1)
+

:0
p(y1|x2)p(x2)
| {z }
p(x2,y1)
= 0,28
(6)
p(y2) = p(y2|x1) p(x1)
| {z }
p(x1,y2)
+ p(y2|x2) p(x2)
| {z }
p(x2,y2)
= 0,12+0,12 = 0,24 (7)
p(y3) =

:0
p(y3|x1)p(x1)
| {z }
p(x1,y3)
+ p(y3|x2) p(x2)
| {z }
p(x2,y3)
= 0,48
(8)
Ahora la información para determinado estado está
dada por:
I (xi) = −log2 p(xi) (9)
Y la entropía para ese conjunto de estados es:
H (X) = ∑
i
p(xi)I (xi) = −∑
i
p(xi)log2 p(xi)
(10)
De donde obtenemos:
I (x1) = 1,32 bits
I (x2) = 0,74 bits
I (y1) = 1,84 bits
I (y2) = 2,06 bits
I (y3) = 1,06 bits
Que si reemplazamos en (10) junto con p(xi), obte-
nemos:
H (X) = 0,4(1,32)+0,6(0,74) = 0,97 bits,
H (Y) = 0,28(1,84)+0,24(2,06)+0,48(1,06)
= 1,52 bits
b) Calcule las seis probabilidades conjuntas.
Con ellas, la entropía conjunta, la entropía
condicional y la transinformación
Las probabilidades conjuntas están definidas por
medio del segundo y el tercer término de la ecuación
(5) p(xi,yj) y por lo tanto ya fueron halladas en (6),
(7), (8).
La entropía conjunta está definida como:
H (X,Y) = ∑
i,j
p(xi,yj)I (xi,yj) (11)
Y la entropía condicional como:
H (X|Y) = ∑
i,j
p(xi,yj)I (yj|xi) (12)
por lo tanto solo resta hallar I (xi,yj) y I (yj|xi) usan-
do la relación (9):
I (x1,y1) = 1,84
I (x2,y1) = NA
I (x1,y2) = 3,06
I (x2,y2) = 3,06
I (x1,y3) = NA
I (x2,y3) = 1,06
I (y1|x1) = 0,51
I (y1|x2) = NA
I (y2|x1) = 1,74
I (y2|x2) = 2,32
I (y3|x1) = NA
I (y3|x2) = 0,31
Que si se reemplazan en (11) y (12) resulta la entro-
pía conjunta:
H (X,Y) = 0,28(1,84)+

:0
0(NA)+0,12(3,06)
+0,12(3,06)+

:0
0(NA)+0,48(1,06)
= 1,76 bits (13)
La entropía condicional:
H (Y|X) = 0,28(0,51)+

:0
0(NA)+0,12(1,74)
+0,12(2,32)+

:0
0(NA)+0,48(0,31)
= 0,78 bits (14)
La cual representa la cantidad de información que es-
taría agregando el canal a causa del ruido en prome-
dio.
La transinformación está definida como:
I (Y;X) = H (Y)−H (Y,X) (15)
Si reemplazamos los valores anteriormente obteni-
dos, resulta:
I (Y;X) ≈ 0,73 bits (16)
9
Que es la cantidad de información que proviene real-
mente de X en promedio
Por último, se puede verificar que para este caso, la
relación entre las entropías inicial, final, conjunta y
la transiformación, se cumple:
H (X)+H (Y)−I (Y;X) = H (X,Y) (17)
0,97+1,52−0,74 = 1,75 bits
H (X,Y) ≈ 1,76 bits
c) Capacidad del Canal
Figura 5: Imagen Ejercicio 5 con p(x1) = p
Ahora vamos a variar las probabilidades de entra-
da, manteniendo las del canal constantes y veremos
para qué condiciones de estas, se obtiene la mayor
transinformación posible.
Dado que las probabilidades de entrada deben su-
mar uno, si definimos p(x1) = p, se debe cumplir
p(x2) = 1 − p. Procederemos de la misma manera
que en el caso anterior.
Las probabilidades de salida se hallan por medio de
la relación (5) y se obtiene:
p(y1) = 0,7p
|{z}
p(x1,y1)
+

:0
0(1−0)
| {z }
p(x2,y1)
= 0,7p (18)
p(y2) = 0,3p
|{z}
p(x1,y2)
+0,2(1− p)
| {z }
p(x2,y2)
= 0,2+0,1p (19)
p(y3) = 
0
0p
|{z}
p(x1,y3)
+0,8(1− p)
| {z }
p(x2,y3)
= 0,8−0,8p (20)
Al igual que en el caso anterior, las probabilidades
conjuntas son los valores que se encuentran dentro
de los corchetes horizontales.
Las entropías para los conjuntos de entrada y salida
se definen de la misma manera que en el caso anterior
(Ecuación (10)) y usando (9) para I en cada caso:
I (x1) = −log2 (p)
I (x2) = −log2 (1− p)
⇒ H (X) = −plog2 (p)−(1− p)log2 (1− p) (21)
y
I (y1) = −log2 (0,7p)
I (y2) = −log2 (0,2+0,1p)
I (y3) = −log2 (0,8+0,8p)
⇒ H (Y) =−0,7plog2 (0,7p)
−(0,2+0,1p)log2 (0,2+0,1p)
−(0,8−0,8p)log2 (0,8−0,8p) (22)
De la misma forma se procede para H(X,Y) con la
ecuación (11)
I (x1,y1) = −log2 (0,7p)
I (x2,y1) = NA
I (x1,y2) = −log2 (0,3p)
I (x2,y2) = −log2 (0,2−0,2p)
I (x1,y3) = NA
I (x2,y3) = −log2 (0,8−0,8p)
⇒ H (X,Y) =−0,7plog2 (0,7p)−0,3plog2 (0,3p)
−(0,2−0,2p)log2 (0,2−0,2p)
−(0,8−0,8p)log2 (0,8−0,8p)
(23)
Por otro lado de (17), la transinformación también es
I (Y;X) = H (X)+H (Y)−H (X,Y) (24)
e igualando con (15) se obtiene
H (Y)−H (Y,X) = H (X)+H (Y)−H (X,Y)
y despejando H (Y|X)
H (Y|X) = H (X,Y)−H (X)
=−0,7plog2 (0,7p)−0,3plog2 (0,3p)
−(0,2−0,2p)log2 (0,2−0,2p)
−(0,8−0,8p)log2 (0,8−0,8p)
+ plog2 (p)+(1− p)log2 (1− p) (25)
Por otro lado, escribimos la transinformación usando
(24) y simplificando un poco:
I (p) =− plog2 (p)−(1− p)log2 (1− p)
−(0,2+0,1p)log2 (0,2+0,1p)
+0,3plog2 (0,3p)
+(0,2−0,2p)log2 (0,2−0,2p) (26)
10
Ahora, para hallar la transinformación máxima, deri-
varemos respecto a p e igualaremos a cero, para así
despejar p y encontrar la condición.
dI(p)
dp
=
dH(X)
dp
+
dH(Y)
dp
−
dH(X,Y)
dp
= 0 (27)
Recordando que
d
dx
log2(x) =
1
ln2
·
1
x
De (21), tenemos:
dH(x)
dp
=

−1
ln2

ln p+1
+

(−1)ln(1− p)+(−1)
1− p
1− p

=
−1
ln2
[ln p−ln(1− p)] (28)
De (22), tenemos:
dH(y)
dp
=

−1
ln2

0,7

ln0,7p+
p(0,7)
0,7p

+0,1ln(0,2+0,1p)+
(0,2+0,1p)
0,2+0,1p
·0,1
+(−0,1)ln(0,8−0,8p)+
(0,8−0,8p)
0,8−0,8p
·(−0,8)

=
−1
ln2

0,7(ln0,7p+1)+0,1(ln(0,2+0,1p)+1)
−0,8(ln(0,8−0,8p)+1)

(29)
y de (23)
dH(X,Y)
dp
=

−1
ln2

0,7

ln0,7p+
p(0,7)
0,7p

+0,3

ln0,3p+
p(0,3)
0,3p

+(−0,2)ln(0,2−0,2p)+
(0,2−0,2p)
0,2−0,2p
·(−0,2)
+(−0,1)ln(0,8−0,8p)+
(0,8−0,8p)
0,8−0,8p
·(−0,8)

=
−1
ln2

0,7(ln0,7p+1)+0,3(ln0,3p+1)
−0,2(ln(0,2−0,2p)+1)−0,8(ln(0,8−0,8p)+1)

(30)
Ahora, reemplazando en (27), el término (−1/ln2)
es factor común en las tres derivadas, entonces se
cancela, y se obtiene:
0 =ln p−ln(1− p)+(((((((
(
0,7(ln0,7p+1)
+0,1(ln0,1+ln(2+ p)+ 
1)
−
((((((((((
(
0,8(ln(0,8−0,8p)+1)
−(((((((
(
0,7(ln0,7p+1)−0,3(ln0,3+ln p+ 
1)
+0,2(ln0,2+ln(1− p)+ 
1)
+
((((((((((
(
0,8(ln(0,8−0,8p)+1)
Donde se hizo uso de las propiedades de los logarit-
mos;
ln(0,3· p) = ln0,3+ln p
ln(0,2+0,1p) = ln0,1+ln(2+ p)
ln(0,2−0,2p) = ln0,2+ln(1− p)
Agrupando términos para ln p y ln(1− p) obtene-
mos:
0 =ln p(1−0,3)+ln(1− p)(0,2−1)+0,1ln(2+ p)
+0,1ln0,1−0,3ln0,3+0,2ln0,2
Y como ln0,3 = ln(0,1·3) = ln0,1+ln3
0 =0,7ln p−0,8ln(1− p)+0,1ln(2+ p)
+

0,1ln0,1−0,3[

ln0,1+ln2]+0,2[

ln0,1+ln2]
Luego, multiplicando a ambos lados por 10 y dejando
a un lado de la ecuación los términos que dependen
de p, se obtiene:
7ln p−8ln(1− p)+ln(2+ p) = 3ln3−2ln2
Ahora, usando la propiedad de los logaritmos nlnx =
lnxn, y agrupando todo en un logaritmo
ln

(p7)(2+ p)
(1− p)8

= ln

33
22

Para que los logaritmos sean iguales, los argumentos
de los logaritmos han de ser iguales, por lo tanto:
(p7)(2+ p)
(1− p)8
=
33
22
Donde si definimos a = 33/22 llegamos al polinomio
para p
a(1− p)8
− p7
(2+ p) = 0 (31)
Que es una función como la mostrada en la Figura
(6). Por medio de cálculo numérico, hallamos la raíz
11
Figura 6: Polinomio y raíz en el intervalo de 0 a 1
correspondiente a p en el intervalo (0,1), que es el
valor
p = 0,509864 (32)
Ahora, para determinar la transinformación máxima,
reemplazamos este valor en la ecuación (26) y obte-
nemos:
Imax = I(Y;X)(p = 0,509864) = 0,75748 bits (33)
Que como se puede observar, es muy cercana al valor
que se tenía en el punto a), pero se observa también
que si las probabilidades de entrada p(x1), p(x2) son
iguales, la transinformación es mucho mayor. A este
valor máximo se le llama la Capacidad del canal.
Una gráfica de la Transinformación en función de p
(Ver figura (7)), nos da evidencia de que para un valor
en específico, con esas condiciones, la probabilidad
de entrada en efecto maximiza dicha función; como
la transinformación representa la cantidad informa-
ción que de la fuente (X) está llegando realmente a
(Y) (y no fue modificada por el ruido del canal); si
esta cantidad se maximiza, se obtiene el valor máxi-
mo en promedio de información que se puede medir
en (Y) proveniente de (X) y por lo tanto, es un méto-
do para optimizar los sistemas de telecomunicaciones
tales como internet y demás.
Figura 7: Transinformación en función de p
6. Los volúmenes elementales de la
teoría de Edwards para el volu-
men de un material granular.
Considere un conjunto de N granos esféricos dentro
de una caja de volumen total VT . Edwards propuso en
1984 que se podría hacer una descripción estadística
de este sistema tomando el volumen como la variable
fundamental (en vez de la energía). En este caso, la
entropía da cuenta de todas las configuraciones posi-
bles de N granos dentro del volumen, y la tempera-
tura es reemplazada por otra cantidad, la compactivi-
dad, cuyo inverso nos dice cómo cambia la entropía
en función del volumen.
a)
Considere el espacio de fase como el espacio de C
dimensiones donde cada eje es el volumen vi de una
celda elemental, i = 1,...,C.
Solución: La consideración sugiere que el volumen
VT está formado por C volumenes de tamaño vi, es
decir:
VT =
C
∑
i
vi
b)
Dese cuenta de que repartir el volumen VT entre C
variables vi de tal manera que cada vi ≥ vmin es lo
mismo que repartir un volumen V0
T = (VT −CVmin)
entre C variables v0
i = vi − vmin. Por lo tanto, cam-
bie a un sistema de coordenadas v0
i = vi − Vmin,
12
cada una de las cuales solo puede tomar valores
0 ≤ v0
i ≤ (V −Cvmin).
Solución: El volumen total del espacio de fase se
constituye de C volúmenes vi que son, individual-
mente, mas grandes que elementos de volumen míni-
mos soportados por la consideración. el gapde vo-
lumen que hay entre el cada vi y un elemento mínimo
de volumen se asocia como una coordenada del espa-
cio de fase. Por ultimo, dicha diferencia de pequeños
volúmenes, en conjunto, debe corresponder al V0
T .
VT −Cvmin = V0
T =
C
∑
i
v0
i. =
C
∑
i
(vi −vmin)
| {z }
coordenadas
c)
Identifique que todos los estados posibles en este
espacio de fase equivalente que tienen un volumen
menor o igual que V0
T ,
∑i v0
i ≤ V0
T ,
forman un simplex estándar de C dimensiones
(es decir, la esquina de un cubo de C dimensiones)
de lado V0
T . Deduzca, entonces, que el lugar geomé-
trico de todos los estados de C celdas elementales
con un volumen menor o igual a VT es
Σ(VT ,C) =
(VT −Cvmı́n)C
Λ3CC!
donde Λ es una longitud característica para hacer que
Σ(VT ,C) sea adimensional. (Ayuda: El volumen de
un simplex estándar de lado unidad en n dimensiones
es (1/n!)).
Solución: Un simplex de lado unidad, va a tener un
volumen 1/n! con n como el numero de dimensiones
es C y para nuestro caso, el lado del simplex es
V0
T ademas, se tiene que el valor de la arista estará
elevado a C
∑(V,N) =
Volumen del espacio de fase
N!
|{z}
C!
h3N
|{z}
Λ3C
∑(C,VT ) =
V0
T
C
Λ3CC!
=
(VT −Cvmin)C
Λ3CC!
d)
Derive esta expresión respecto a VT para hallar que la
densidad de estados Ω(VT ) entre VT y VT + ∆VT
es
Ω(VT ,C)dVT =
(VT −Cvmı́n)C−1
Λ3C(C −1)!
dVT
Solución:
∂
∂VT
(∑(C,VT )) =

C(VT −Cvmin)C−1
Λ3C

C!
dVT
(VT −Cvmin)C−1
Λ3C(C −1)!
dVT = Ω(VT ,C)dVT
e)
Con este valor, calcule la probabilidad de que una
celda elemental especifica tenga un volumen v como
la fracción de configuraciones en las que esto sucede,
p(v) =
Ω(VT −v,C −1)
Ω(VT ,C)
y demuestre que en el límite en que C → ∞, pero
hvi = VT /C finito,
p(v) =
Λ3
χ
e−(v−vmı́n)/x
donde χ ≡ hvi−vmı́n, llamada la compactividad, ha-
ce las veces de la temperatura para este ensamble, y
hvi =VT /C es el volumen promedio de una celda ele-
mental. (Ayuda: Recuerde que ex = lı́mn→∞ 1+ x
n
n
).
Solución:
p(v) =
Ω(VT −v,C −1)
Ω(VT ,C)
p(v) =
((VT −v)−(C−1)vmı́n)C−1−1
Λ3(C−1)(C−1−1)! 
dVT
(VT −Cvmı́n)c−1
Λ3C(C−1)! 
dVT
p(v) =
((VT −v)−(C−1)vmı́n)C−2
Λ3C−3(C−2)!
(VT −Cvmı́n)C−1
Λ3(C−1)!
p(v) =

Λ3C(C −1)!((VT −v)−(C −1)vmin)C−2
Λ

3C−3(C −2)!(VT −Cvmin)C−1
13
p(v) =
Λ3(C −1)
!((VT −v)−(C −1)vmin)C−2

(C −2)!(VT −Cvmin)C−1
p(v) =
Λ3(C −1)((VT −v)−(C −1)vmin)C−2
(VT −Cvmin)C−1
p(v) = Λ3
(C −1)
(VT −V −Cvmı́n +vmı́n)C−2
(VT −Cvmı́n)C−2
(VT −Cvmı́n)
p(v) =
Λ3(C −1)
(VT −Cvmin)

VT −Cvmin −v+vmin
VT −Cvmin
C−2
p(v) =
Λ3(C −1)
(VT −Cvmin)

VT −Cvmin −v+vmı́n
VT −Cvmin
C−2
lı́m
C→∞
Λ3 1− 1
c

VT
C −vmin

1−
vmı́n −v
VT −Cvmı́n
C−2
aplicando hvi = VT /C con C finito
lı́m
C→∞
Λ3 1− 1
C

hvi−vmin
1−
vmı́n −v
C(VT
C −vmı́n)
!C−2
lı́m
C→∞
Λ3 1− 1
C

hvi−vmin

1−
vmı́n −v
C(hvi−vmı́n)
C−2
y haciendo uso de la definición χ ≡ hvi − vmı́n y de
ex = lı́mn→∞ 1+ x
n
n
lı́m
C→∞
Λ3 1− 1
C

χ

1−
vmı́n −v
Cχ
C−2
=
Λ3
χ
e
vmı́n−v
χ
p(v) =
Λ3
χ
e(vmin−v)/χ
=
Λ3
χ
e−(v−vmin)/χ
f)
Con esta probabilidad, calcule la entropía de una cel-
da elemental como
S = −
Z ∞
v=vmı́n
p(v)ln p(v)
dv
Λ3
y demuestre que vale
S = 1+ln
 χ
Λ3

Solución:
S=−
Z ∞
v=vmin
p(v)ln[p(v)]
dv
Λ3
=
S=−
Z ∞
v=vmin
Λ3
χ
e−(v−vmin)/χ
ln[
Λ3
χ
e−(v−vmin)/χ
]
dv
Λ3
usando ln(ab) = ln(a)+ln(b)
= 1
χ ln χ
Λ3
R ∞
v=vmı́n
e−(v−vmı́n)/xdv−...
...
R ∞
v=vmı́n
e−(v−vmı́n)/χ

(v−vmı́n)
χ

dv
χ

como
R
exdx = ex +c para 1era integral
y
R
xexdx = ex(x−1)+c, para 2da integral.
=

−ln χ
Λ3

e−(v−vmı́n)/χ+ ...
... e−(v−vmı́n)/χ

−(v−vmı́n)
χ −1
i∞
v=vmı́n
evmı́n−vmı́n = e0 = 1, y e−∞+vmı́n ≈ e−∞ tiende a 0
S=1+ln
 χ
Λ3

g)
Suponga que la entropía total ST del material es igual
a la suma de las entropías de las C celdas elementales
que lo conforman. Si asumimos que C es constante,
ST = C
h
1+ln
 χ
Λ3
i
Recordando que 1
χ = ∂ST
∂VT
, deduzca una ecuación que
relacione χ conVT Muestre que esta ecuación es con-
sistente con la definición de χ = hvi− vmı́n dada arri-
ba.
Solución:
14
Derivando parcialmente la función ST tenemos:
∂ST
∂VT
=
1
χ
=


Λ3


Λ3
C
χ
∂χ
∂VT
Así:
C
∂χ
∂VT
= 1
Despejando e integrando tenemos:
χ =
Z VT
VTmin
dVT
C
=
VT
C
−Vmin
Siento A una constante, tenemos que el resultado
concuerda para v = VT /C con la definición:
χ = hvi−vmin.
7. La Paradoja de Gibbs
a)
Calcular Ω(E) sin dividir por N! y demostrar que
la entropía microcanónica del gas ideal, calculada de
esa forma es:
S(E,V,N) = NKB

3
2
+ln

V
h3

4πmE
3N
3/2
##
(34)
Demostración:
Sabemos que el volumen Vp de la esfera en el es-
pacio de los momentos, multiplicado por el volumen
Vx en el espacio de las posiciones, para las 3N dimen-
siones es:
Vp(3N)
(R)Vx(3N)
=
VN(2πm)
3N
2 E
3N
2
h3NΓ(3N
2 +1)
Usando:
Γ(z+1) = zΓ(z)
Entonces:
Σ(E) =
VN(2πm)
3N
2 E
3N
2
h3N 3N
2 Γ(3N
2 )
Derivando respecto a E y usando el hecho de que
para N muy grande 3N/2−1 ' 3N/2 tenemos:
Ω(E) = 

3N
2


3N
2
VN(2πmE)
3N
2
h3NΓ(3N
2 )
dE
Para hacer el cálculo la entropía microcanónica
usamos:
S = KBlnΩ(E)
Así:
S = KB

ln
VN(2πmE)
3N
2
h3N
!
−ln

Γ

3N
2
##
La aproximación de Stirling es:
lnΓ(z+1) ' zlnz−z
Usando la aproximación de Stirling y el hecho de
que 3N/2+1 ' 3N/2 tenemos:
S = KB

ln
VN(2πmE)
3N
2
h3N
!
−
3N
2
ln
3N
2

+
3N
2
#
Reagrupando los primeros dos términos y usando
las propiedades del logaritmo natural tenemos:
S(E,V,N) = KB

3N
2
+ln
(2πme)
3N
2 VN
h3N(3N
2 )
3N
2
!#
= KB

3N
2
+ln
V
h3

4πmE
3N
3
2
!N#
= NKB

3
2
+ln
V
h3

4πmE
3N
3/2
!#
Demostración Completa.
b)
Demostrar que para el gas ideal del punto anterior,
la función de entropía (34) no es extensiva.
S1(V/2,E/2,N/2) +S2(V/2,E/2,N/2) 6= S(V,E,N)
Demostración:
Sea S(E,V,N) la función de entropía para un gas
ideal, con energía E, volumen V y cantidad de partí-
culas N correspondiente a la ecuación (34); si par-
timos el sistema en dos, se tienen dos volúmenes
V1 = V2 = V/2, con energías E1 = E2 = E/2 y que
contienen cantidades de partículas N1 = N2 = N/2.
15
Calculamos directamente S1 + S2 la suma de las en-
tropías evaluando en la función (34), de forma que:
S1(V/2,E/2,N/2) +S2(V/2,E/2,N/2) = 2S(V/2,E/2,N/2)
= 
2∗
N

2
KB

3
2
+ln
V
2h3

4πmE
3N

2

2
3/2
!#
= NKB

3
2
+ln
V
h3

4πmE
3N
3/2
−ln2
!#
6= NKB

3
2
+ln
V
h3

4πmE
3N
3/2
!#
Por lo tanto, bajo la ecuación (34) la entropía, del
sistema, no es la suma de las entropías de las partes
del sistema, por lo que no es una magnitud extensiva.
Demostración completa.
c)
Mostrar que bajo la función (35) la entropía Sí es
una cantidad extensiva.
SN!1(V/2,E/2,N/2) +SN!2(V/2,E/2,N/2) = SN!(V,E,N)
Sea SN! la función de entropía que surge como con-
secuencia de dividir Ω(E) por N!.
SN!(E,V,N) = NKB

5
2
+ln
V
Nh3

4πmE
3N
3/2
!#
(35)
Demostración: Siguiendo la misma idea de la de-
mostración anterior, calculamos la entropía de los dos
sistemas con V1 = V2 = V/2,E1 = E2 = E/2,N1 =
N2 = N/2, pero bajo la ecuación que implica dividir
por N! (ecuación (35)), esto es:
SN!1(V/2,E/2,N/2) +SN!2(V/2,E/2,N/2)
= 2SN!(V/2,E/2,N/2)
= 
2
N

2
KB

5
2
+ln
V
Nh3

2

2

4πmE
3N

2

2
3/2
!#
= NKB

5
2
+ln
V
Nh3

4πmE
3N
3/2
!#
= SN!(E,V,N)
Así, bajo la ecuación (35) la entropía del sistema sí
es la suma de las entropías de las partes del sistema,
y es una cantidad extensiva.
Demostración Completa.
16

Weitere ähnliche Inhalte

Was ist angesagt?

PD orde2 Tak Homogen 2
PD orde2 Tak Homogen 2PD orde2 Tak Homogen 2
PD orde2 Tak Homogen 2
unesa
 
Bdt đánh giá trên biên nhìn vào điểm nút
Bdt đánh giá trên biên nhìn vào điểm nútBdt đánh giá trên biên nhìn vào điểm nút
Bdt đánh giá trên biên nhìn vào điểm nút
Thế Giới Tinh Hoa
 
Formes bilineaire symetrique et formes quadratiques (1).pdf
Formes bilineaire symetrique et formes quadratiques (1).pdfFormes bilineaire symetrique et formes quadratiques (1).pdf
Formes bilineaire symetrique et formes quadratiques (1).pdf
VrazylandGuekou1
 
makalah VARIABEL RANDOM DAN DISTRIBUSI PROBABILITAS UNTUK VARIABEL RANDOM DIS...
makalah VARIABEL RANDOM DAN DISTRIBUSI PROBABILITAS UNTUK VARIABEL RANDOM DIS...makalah VARIABEL RANDOM DAN DISTRIBUSI PROBABILITAS UNTUK VARIABEL RANDOM DIS...
makalah VARIABEL RANDOM DAN DISTRIBUSI PROBABILITAS UNTUK VARIABEL RANDOM DIS...
sri rahayu
 
Optimizacion presentacion 2
Optimizacion presentacion 2Optimizacion presentacion 2
Optimizacion presentacion 2
Manuel Teran
 
Phương pháp số và lập trình - Nội suy, Đạo hàm, Tích phân
Phương pháp số và lập trình - Nội suy, Đạo hàm, Tích phânPhương pháp số và lập trình - Nội suy, Đạo hàm, Tích phân
Phương pháp số và lập trình - Nội suy, Đạo hàm, Tích phân
Hajunior9x
 
Tích phân hàm phân thức hữu tỷ (part 2)
Tích phân hàm phân thức hữu tỷ (part 2)Tích phân hàm phân thức hữu tỷ (part 2)
Tích phân hàm phân thức hữu tỷ (part 2)
Oanh MJ
 
Cac dang toan quy ve bac hai co dien
Cac dang toan quy ve bac hai co dienCac dang toan quy ve bac hai co dien
Cac dang toan quy ve bac hai co dien
phamtrunght2012
 

Was ist angesagt? (20)

problemas-estatica07.docx
problemas-estatica07.docxproblemas-estatica07.docx
problemas-estatica07.docx
 
Phương trình hàm đa thức
Phương trình hàm đa thứcPhương trình hàm đa thức
Phương trình hàm đa thức
 
PD orde2 Tak Homogen 2
PD orde2 Tak Homogen 2PD orde2 Tak Homogen 2
PD orde2 Tak Homogen 2
 
סיכום על מטרואידים וזרימות בגרפים
סיכום על מטרואידים וזרימות בגרפיםסיכום על מטרואידים וזרימות בגרפים
סיכום על מטרואידים וזרימות בגרפים
 
Turunan1
Turunan1Turunan1
Turunan1
 
14257017 metode-frobenius (1)
14257017 metode-frobenius (1)14257017 metode-frobenius (1)
14257017 metode-frobenius (1)
 
Ejercicios resueltos integrales dobles y triples 2011
Ejercicios resueltos integrales dobles y triples 2011Ejercicios resueltos integrales dobles y triples 2011
Ejercicios resueltos integrales dobles y triples 2011
 
Bdt đánh giá trên biên nhìn vào điểm nút
Bdt đánh giá trên biên nhìn vào điểm nútBdt đánh giá trên biên nhìn vào điểm nút
Bdt đánh giá trên biên nhìn vào điểm nút
 
Ứng dụng tích phân tính giới hạn của dãy số
Ứng dụng tích phân tính giới hạn của dãy sốỨng dụng tích phân tính giới hạn của dãy số
Ứng dụng tích phân tính giới hạn của dãy số
 
Chuyên đề phương trình lượng giác
Chuyên đề phương trình lượng giácChuyên đề phương trình lượng giác
Chuyên đề phương trình lượng giác
 
Formes bilineaire symetrique et formes quadratiques (1).pdf
Formes bilineaire symetrique et formes quadratiques (1).pdfFormes bilineaire symetrique et formes quadratiques (1).pdf
Formes bilineaire symetrique et formes quadratiques (1).pdf
 
makalah VARIABEL RANDOM DAN DISTRIBUSI PROBABILITAS UNTUK VARIABEL RANDOM DIS...
makalah VARIABEL RANDOM DAN DISTRIBUSI PROBABILITAS UNTUK VARIABEL RANDOM DIS...makalah VARIABEL RANDOM DAN DISTRIBUSI PROBABILITAS UNTUK VARIABEL RANDOM DIS...
makalah VARIABEL RANDOM DAN DISTRIBUSI PROBABILITAS UNTUK VARIABEL RANDOM DIS...
 
Optimizacion presentacion 2
Optimizacion presentacion 2Optimizacion presentacion 2
Optimizacion presentacion 2
 
Scp mod p
Scp mod pScp mod p
Scp mod p
 
Phương pháp số và lập trình - Nội suy, Đạo hàm, Tích phân
Phương pháp số và lập trình - Nội suy, Đạo hàm, Tích phânPhương pháp số và lập trình - Nội suy, Đạo hàm, Tích phân
Phương pháp số và lập trình - Nội suy, Đạo hàm, Tích phân
 
Sử Dụng Hàng Điểm Điều Hòa Trong Giải Toán Hình Học Phẳng.doc
Sử Dụng Hàng Điểm Điều Hòa Trong Giải Toán Hình Học Phẳng.docSử Dụng Hàng Điểm Điều Hòa Trong Giải Toán Hình Học Phẳng.doc
Sử Dụng Hàng Điểm Điều Hòa Trong Giải Toán Hình Học Phẳng.doc
 
persamaan diferensial
 persamaan diferensial  persamaan diferensial
persamaan diferensial
 
Int multiple
Int multipleInt multiple
Int multiple
 
Tích phân hàm phân thức hữu tỷ (part 2)
Tích phân hàm phân thức hữu tỷ (part 2)Tích phân hàm phân thức hữu tỷ (part 2)
Tích phân hàm phân thức hữu tỷ (part 2)
 
Cac dang toan quy ve bac hai co dien
Cac dang toan quy ve bac hai co dienCac dang toan quy ve bac hai co dien
Cac dang toan quy ve bac hai co dien
 

Ähnlich wie Taller 1 mec_est (20)

Recurrencias
RecurrenciasRecurrencias
Recurrencias
 
Fc
FcFc
Fc
 
Mpinning Gyalg13(Recurr)
Mpinning Gyalg13(Recurr)Mpinning Gyalg13(Recurr)
Mpinning Gyalg13(Recurr)
 
4) Física Atómica
4) Física Atómica4) Física Atómica
4) Física Atómica
 
Pd cap 5 (2)
Pd cap 5 (2)Pd cap 5 (2)
Pd cap 5 (2)
 
Cap7
Cap7Cap7
Cap7
 
T. CuáNtica Y RadiacióN ElectromagnéTica MeteorologíA
T. CuáNtica Y RadiacióN ElectromagnéTica MeteorologíAT. CuáNtica Y RadiacióN ElectromagnéTica MeteorologíA
T. CuáNtica Y RadiacióN ElectromagnéTica MeteorologíA
 
Campo electrico
Campo electricoCampo electrico
Campo electrico
 
Pd cap 5
Pd cap 5Pd cap 5
Pd cap 5
 
Analisis dimensional - solucionario de ejercicios
Analisis dimensional - solucionario de ejerciciosAnalisis dimensional - solucionario de ejercicios
Analisis dimensional - solucionario de ejercicios
 
Examen campos consevativos soluciones.
Examen campos consevativos soluciones.Examen campos consevativos soluciones.
Examen campos consevativos soluciones.
 
Configuracion electronica
Configuracion electronicaConfiguracion electronica
Configuracion electronica
 
F2 pau-gravitacion-soluc
F2 pau-gravitacion-solucF2 pau-gravitacion-soluc
F2 pau-gravitacion-soluc
 
Cap4 fisica atomica
Cap4 fisica atomicaCap4 fisica atomica
Cap4 fisica atomica
 
Sucesiones
SucesionesSucesiones
Sucesiones
 
Ecuación
EcuaciónEcuación
Ecuación
 
Ecuación schrodinger
Ecuación schrodingerEcuación schrodinger
Ecuación schrodinger
 
Fmcap4 2 (2)
Fmcap4 2 (2)Fmcap4 2 (2)
Fmcap4 2 (2)
 
Clase 3 mecanica-cuantica
Clase 3 mecanica-cuanticaClase 3 mecanica-cuantica
Clase 3 mecanica-cuantica
 
1º semana analisis dimensional y vectorial
1º semana   analisis dimensional y vectorial1º semana   analisis dimensional y vectorial
1º semana analisis dimensional y vectorial
 

Mehr von CA BE (7)

Ejercicios vibacion de red cristalina
Ejercicios vibacion de red cristalinaEjercicios vibacion de red cristalina
Ejercicios vibacion de red cristalina
 
Transformada
TransformadaTransformada
Transformada
 
Taller 2
Taller 2Taller 2
Taller 2
 
Taller cristalografia
Taller cristalografiaTaller cristalografia
Taller cristalografia
 
Orden de magnitud de la velocidad de traslación de la tierra
Orden de magnitud de la velocidad de traslación de la tierraOrden de magnitud de la velocidad de traslación de la tierra
Orden de magnitud de la velocidad de traslación de la tierra
 
Ejercicios termodinamica 1
Ejercicios termodinamica 1Ejercicios termodinamica 1
Ejercicios termodinamica 1
 
Cristalografia 2 estado solido
Cristalografia 2  estado solidoCristalografia 2  estado solido
Cristalografia 2 estado solido
 

Kürzlich hochgeladen

Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
frank0071
 
Terapia Cognitivo Conductual CAPITULO 2.
Terapia Cognitivo Conductual CAPITULO 2.Terapia Cognitivo Conductual CAPITULO 2.
Terapia Cognitivo Conductual CAPITULO 2.
ChiquinquirMilagroTo
 
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdfAlthusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
frank0071
 
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
frank0071
 

Kürzlich hochgeladen (20)

Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
Morgado & Rodríguez (eds.) - Los animales en la historia y en la cultura [201...
 
CUADRO SINOPTICO IV PARCIAL/ TORAX . PDF
CUADRO SINOPTICO IV PARCIAL/ TORAX . PDFCUADRO SINOPTICO IV PARCIAL/ TORAX . PDF
CUADRO SINOPTICO IV PARCIAL/ TORAX . PDF
 
CASO CLÍNICO INFECCIONES Y TUMORES.pptx
CASO CLÍNICO INFECCIONES Y TUMORES.pptxCASO CLÍNICO INFECCIONES Y TUMORES.pptx
CASO CLÍNICO INFECCIONES Y TUMORES.pptx
 
2. Hormonas y Ciclo estral de los animales
2. Hormonas y Ciclo estral de los animales2. Hormonas y Ciclo estral de los animales
2. Hormonas y Ciclo estral de los animales
 
Pelos y fibras. Criminalistica pelos y fibras
Pelos y fibras. Criminalistica pelos y fibrasPelos y fibras. Criminalistica pelos y fibras
Pelos y fibras. Criminalistica pelos y fibras
 
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptxMapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
Mapa-conceptual-de-la-Seguridad-y-Salud-en-el-Trabajo-3.pptx
 
LOS PRIMEROS PSICÓLOGOS EXPERIMENTALES (1).pdf
LOS PRIMEROS PSICÓLOGOS EXPERIMENTALES (1).pdfLOS PRIMEROS PSICÓLOGOS EXPERIMENTALES (1).pdf
LOS PRIMEROS PSICÓLOGOS EXPERIMENTALES (1).pdf
 
Schuster, Nicole. - La metrópolis y la arquitectura del poder ayer hoy y mana...
Schuster, Nicole. - La metrópolis y la arquitectura del poder ayer hoy y mana...Schuster, Nicole. - La metrópolis y la arquitectura del poder ayer hoy y mana...
Schuster, Nicole. - La metrópolis y la arquitectura del poder ayer hoy y mana...
 
Terapia Cognitivo Conductual CAPITULO 2.
Terapia Cognitivo Conductual CAPITULO 2.Terapia Cognitivo Conductual CAPITULO 2.
Terapia Cognitivo Conductual CAPITULO 2.
 
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdfAlthusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
Althusser, Louis. - Ideología y aparatos ideológicos de Estado [ocr] [2003].pdf
 
LIPIDOS y ACIDOS NUCLEICOS Y TODOS SUS SILLARES ESTRUCTURALES
LIPIDOS y ACIDOS NUCLEICOS Y TODOS SUS SILLARES ESTRUCTURALESLIPIDOS y ACIDOS NUCLEICOS Y TODOS SUS SILLARES ESTRUCTURALES
LIPIDOS y ACIDOS NUCLEICOS Y TODOS SUS SILLARES ESTRUCTURALES
 
PRESENTACION PRE-DEFENSA PROYECTO I.pptx
PRESENTACION PRE-DEFENSA PROYECTO I.pptxPRESENTACION PRE-DEFENSA PROYECTO I.pptx
PRESENTACION PRE-DEFENSA PROYECTO I.pptx
 
Moda colonial de 1810 donde podemos ver las distintas prendas
Moda colonial de 1810 donde podemos ver las distintas prendasModa colonial de 1810 donde podemos ver las distintas prendas
Moda colonial de 1810 donde podemos ver las distintas prendas
 
Musculos Paraproteticos, protesis, musculos
Musculos Paraproteticos, protesis, musculosMusculos Paraproteticos, protesis, musculos
Musculos Paraproteticos, protesis, musculos
 
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
Flores Galindo, A. - La ciudad sumergida. Aristocracia y plebe en Lima, 1760-...
 
El Gran Atractor, la misteriosa fuerza que está halando a la Vía Láctea.pptx
El Gran Atractor, la misteriosa fuerza que está halando a la Vía Láctea.pptxEl Gran Atractor, la misteriosa fuerza que está halando a la Vía Láctea.pptx
El Gran Atractor, la misteriosa fuerza que está halando a la Vía Láctea.pptx
 
Examen Físico Particular del Sistema Nervioso.pptx
Examen Físico Particular del Sistema Nervioso.pptxExamen Físico Particular del Sistema Nervioso.pptx
Examen Físico Particular del Sistema Nervioso.pptx
 
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
1890 –7 de junio - Henry Marmaduke Harris obtuvo una patente británica (Nº 88...
 
Enfermeria_Geriatrica_TeresaPerezCastro.doc
Enfermeria_Geriatrica_TeresaPerezCastro.docEnfermeria_Geriatrica_TeresaPerezCastro.doc
Enfermeria_Geriatrica_TeresaPerezCastro.doc
 
Fresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontologíaFresas y sistemas de pulido en odontología
Fresas y sistemas de pulido en odontología
 

Taller 1 mec_est

  • 1. Mecánica Estadística - Taller 1 1. La distribución de Maxwell - Bol- tzmann ¿Cuál es la probabilidad de hallar en un gas ideal que el momentum de una partícula se sale del promedio? Considere un gas ideal de N partículas esféricas de masa m en un volumen V. a) Halle el volumen en el espacio de fase ∑esfera(E) de todos los estados con energía menor o igual a E. La proyección de estos estados en el espacio de momen- tos corresponde a una esfera de radio R = √ 2mE en 3N dimensiones, y el volumen de una esfera en n = 3N dimensiones es πn/2 Rn Γ n 2 +1 . Solución: El volumen en el espacio de fase corres- pondiente a N moléculas moviéndose en tres dimen- siones, dado por el producto entre el volumen en el espacio de momentos y el volumen del espacio de posiciones, es: Σ(E) = π3N/2 R3N VN Γ 3N 2 +1 . Si las partículas son indistinguibles es necesario di- vidir entre N! b) Derive Σ(E) con respecto a la energía y divida por h3N para encontrar que el número de microestados con energías en el cascarón esférico entre E y E +dE es Ωcascarón = 2mπ3N/2 R3N−2VNdE h3N Γ 3N 2 Solución: Figura 1: Imagen Ejercicio 1.b Ωcascarón = 1 h3N ∂Σ(E) ∂E dE = 1 h3N ∂ ∂E π3N/2R3NVN Γ 3N 2 +1 ! dE = 1 h3N ∂ ∂E π3N/2( √ 2mE)3NVN Γ 3N 2 +1 ! dE = 2m h3N 3N 2 π3N/2(2mE) 3N 2 −1VN Γ 3N 2 +1 ! dE Teniendo en cuenta que Γ 3N 2 +1 = 3N 2 Γ 3N 2 y además de que E = R2 2m , Ωcascarón = 3N 2h3N (2mπ)3N/2(E) 3N 2 −1VN 3N 2 Γ(3N 2 ) ! dE = 1 h3N    (2mπ)3N/2 R2 2m (3N−2)/2 VN Γ(3N 2 )   dE = 2m h3N π3N/2 R3N−2VN Γ 3N 2 ! dE Ahora, pensemos que una componente de momen- tum está fija, con valor p1. Los estados compatibles con esta condición forman un anillo, que también es un cascarón esférico, pero en 3N −1 dimensiones, y de radio R0 = q 2mE − p2 1. 1
  • 2. c) Si asumimos que el anillo tiene un espesor dp1 (no mostrado en la gráfica), derive que el número de mi- croestados en el anillo es Ωanillo = ∂Σdisco(E, p1) ∂E dE dp1 = 2mπ(3N−1)/2R03N−3VN h3NΓ 3N−1 2 dE dp1. Solución: Análogo al numeral anterior, se realiza el mismo procedimiento pero ahora considerando un espacio de 3N −1 dimensiones y con el radio corres- pondiente a R0, es decir, Ωanillo = ∂Σ(E, p1) ∂E dE dp1 = 1 h3N ∂ ∂E π(3N−1)/2R3N−1VN Γ(3N−1 2 +1) ! dE dp1 = π(3N−1)/2 h3N ∂ ∂E 2mE − p2 1 (3N−1)/2 VN Γ(3N−1 2 +1) dE dp1 = 2mπ(3N−1)/2 h3N 3N −1 2 (2mE − p2 1)(3N−1)/2−1VN Γ(3N−1 2 +1) dE dp1 Teniendo en cuenta que Γ(3N−1 2 +1) = 3N−1 2 Γ(3N−1 2 ) = 1 h3N ((3N −1)/2) (π)(3N−1)/2(2mE − p2 1)(3N−1)/2−1VN 3N−1 2 Γ(3N−1 2 ) ! dEdp1 = 2mπ(3N−1)/2R03N−3VNdEdp1 h3NΓ 3N−1 2 d) Demuestre que la probabilidad de hallar el mo- mentum p1 entre p1 y p1 +dp1 es proporcional a P(p1)dp1 = Ωanillo(E, p1) Ωcascaron(E) ∝ R2 R03 R0 R 3N = R2 R03 [1− p2 1/2mE]3N/2 Como el término entre corchetes cuadrados está elevado a un exponente enorme, la probabilidad será diferente de cero solamente si este término es similar a 1, es decir, si p1 ∼ 0 Solución: P(p1) = Ωanillo Ωcascaron = 2mπ(3N−1)/2R03N−3VNdEdp1 h3NΓ(3N−1 2 ) 2mπ3N−2VNdE Γ(h3N 3N 2 ) P(p1) = Γ 3N 2 R03N−3 πΓ 3N−1 2 R3N−2 ∝ R2 R03 R0 R 3N = R2 R03   q 2mE − p2 1 √ 2mE   3N = R2 R03 1− p2 1 2mE 3N/2 e) Usando la aproximación 1 − p2 1/2mE = 1 − ε ' e−ε, muestre que, una vez normalizada, la densidad de probabilidad con la que se miden los valores de p1 distribuye aproximadamente como una gaussiana: P(p1) = 1 σ √ 2π e −p2 1 2σ2 con desviación estándar σ = p 2mE/3N. Esto quiere decir que solo valores de p1 muy cercanos a cero tienen un chance razonable de ser medidos. Figura 2: Imagen Ejercicio 1.e Solución: 2
  • 3. Del ejercicio inmediatamente anterior se conoce que P(p1) ∝ R2 R03 [1− p2 1/2mE]3N/2 , teniendo en cuenta la aproximación 1− p2 1/2mE = 1−ε ' e−ε = e−p2 1/2mE P(p1) ∝ exp(− p2 1 2mE ( 3N 2 )) P(p1) ∝ exp(− 1 2 · 3Np2 1 2mE ) P(p1) ∝ exp(− 1 2 · p2 1 σ2 ) La expresión anterior con σ2 = 2mE 3N , corresponde a la distribución normal de densidad con la que se miden los valores de p1, pero aún no esta normalizada. Pa- ra normalizar es necesario realizar la integral de las probabilidades e igualar a 1, y despejar el factor de normalización. Z ∞ ∞ P(p1)dp1 = A Z ∞ ∞ exp(− 1 2 · p2 1 σ2 )dp1 = 1 Sabemos que Z ∞ ∞ e−x2/2σ2 dx = √ 2πσ Por lo cual A √ 2πσ = 1 A = 1/σ √ 2π Así que normalizando es decir, multiplicando por 1/σ √ 2π llegamos a P(p1) = 1 σ √ 2π exp(− 1 2 · p2 1 σ2 ) 2. El modelo de Ising en 1 Dimen- sión Considere una tira de N celdas cuadradas, como la que muestra la figura. En cada celda hay un espín si (un pequeño imán), que puede estar apuntando hacia arriba (si = 1) o hacia abajo (si = −1). Las condi- ciones de frontera son periódicas (el último es vecino del primero), por lo que en realidad podemos pensar que la tira es un anillo. Cada pareja de espines vecinos interactúa de la si- guiente manera: si los espines son paralelos, la ener- gía de su interacción es −J, y si son anti-paralelos, la energía es J. La energía total E es la suma de las energías de todas las parejas de vecinos Cuando todos los espines son paralelos (todos ha- cia arriba o todos hacia abajo), la energía es mínima, Emı́n = −NJ. La energía del sistema se puede calcu- lar de otra manera. Si partimos de una configuración de mínima energía y volteamos un bloque de espines, cada frontera entre espines de diferente dirección (en rojo, en la figura) hace que la energía aumente en 2J. Por lo tanto, si hay k de esas fronteras, la energía es E = Emı́n +2Jk = 2Jk −NJ, y similarmente k = E +NJ 2J . a) ¿De cuántas maneras Ω(k) se puede tener una con- figuración con k fronteras? Calcúlela usando combi- natoria, y pensando de cuántas maneras puedo colo- car k fronteras en N sitios disponibles para ponerlas, que son los N límites entre celda y celda. Solución Considerando el modelo mencionado, el número de estados posibles Ω(k) corresponde a Ω(k) = 2 N k = 2(N!) k!(N −k)! b) Calcule la entropía S(k) a partir de ese número de configuraciones. Recuerde usar la fórmula de Stirling para el logaritmo de un factorial. Solución La entropía a partir del número de estados posibles corresponde a S(k) = kB ln[Ω(k)] = kB ln 2(N!) k!(N −k)! = kB [ln2+ln(N!)−ln(k!)−ln[(N −k)!]] = kB[ln2+N ln(N)−N −kln(k)+k −(N −k)ln(N −k)+N −k] = kB[ln2+N ln(N)−kln(k) −(N −k)ln(N −k)] 3
  • 4. c) Derive la entropía con respecto a la energía para hallar la temperatura se relaciona con la energía co- mo 1 kBT = 1 2J ln N k −1 con k = E +NJ 2J Solución Realizando el cambio de variable k = E +N j 2 j =⇒ E = j(2k −N) sobre el cálculo anterior de la entropía, se tiene que su respectiva derivada respecto de la energía es dS dE = dS dk dk dE = 1 2j dS dk = kB 2 j [−ln(k)−1+ln(N −k)+1] = kB 2 j [ln(N −k)−ln(k)] = kB 2 j ln N k −1 Ahora, puesto que dS/dE = 1/T, se deduce final- mente que 1 T = kB 2 j ln N k −1 =⇒ 1 kBT = 1 2 j ln N k −1 . d) d) A partir de este resultado, muestre que la ener- gía por sitio se relaciona con la temperatura como E N = −J tanh(βJ) , con β = 1 kBT Solución Considerando la relación 1/KBT = β y la ecuación anterior se tiene que 2 jβ = ln N k −1 =⇒ N k = e2 jβ +1 y además de la definición de energía por sitio E N = j(2k −N) N se obtiene finalmente, reemplazando en la expresión obtenida para la energía por sitio E N = j 2 1+e2jβ −1 = −j e2 jβ −e−2 jβ e2 jβ +e−2 jβ ! = −j[tanh(β j)]. 3. Una banda elástica Considere una cadena larga de un polímero formado por N segmentos de longitud d que se retuerce en una solución acuosa a temperatura constate. Para simplificar, vamos a considerar que el movimiento es solo unidimensional, y que cada segmento puede formar con el anterior solamente ángulos de 0o o 180o, como muestra la figura. Figura 3: Imagen Ejercicio 3 a) Sea L la distancia entre los dos extremos de la cadena, y sea L0 = L/d. Sea D el número de segmentos que van hacia la derecha (es decir, formando un ángulo de 0o) e I el de segmentos que van hacia la izquierda (es decir, formando un ángulo de 180o). Demuestre que: D = N +L0 2 Es decir, que a cada longitud de cadena L le corres- ponde un valor de D. Solución: Debido a que el total de unidades, sea orientados a Izquierda o a Derecha constituyen el nu- mero total de segmentos: N = I +D Adicional, dada la definición de L0 = L/d, esta pue- de ser interpretada como la cantidad de segmentos 4
  • 5. requeridos (todos orientados hacia la derecha) para constituir L. Esto es, la cantidad de pasos ganados hacia la derecha (avanzados) menos los devueltos a la izquierda son el total avanzado L: L0 = D−I entonces N = D+D−L0kkkk 2D = N +L0 D = N +L0 2 b) Usando combinatoria, encuentre el número de confi- guraciones Ω(D) con D segmentos hacia la derecha. Solución: Dado un conjunto de N elementos dis- tinguibles, una combinación de D elementos, con D N; el número de combinaciones sin repetición de D elementos elegidos entre los N es: ΩD N = N D = N! D!(N −D)! ΩD N = N! D!((I +D)−D)! ΩD N = N! D!I! c) Calcule la entropía S(D) a partir de ese número de configuraciones. Recuerde usar la fórmula de Stirling para el logaritmo de un factorial. Solución: Siendo Ω(D) ΩD N = N D = N! D!(N −D)! Empleando la relación de la entropía y la probabili- dad termodinámica S = kB ln(Ω) = kB ln N! D!(N −D)! = kB [ln(N!)−ln(D!(N −D)!)] Aplicando la formula de Stirling para logaritmo de un factorial ln(n!) = nln(n)−n+O(ln(n)) S=kB[N ln(N)−N −ln(D!)−ln((N −D)!)] =kB[N ln(N)−N −Dln(D) +D−(N −D)ln(N −D)+N −D)] =kB[N ln(N)−N −Dln(D) +D−N ln(N −D) +Dln(N −D)+N −D)] =kB[N ln(N)−N −Dln(D) +@ D−N ln(N −D) +Dln(N −D)+N −@ D)] S=kB[N ln(N)−Dln(D)−(N −D)ln(N −D)] d) Si un resorte se estira, la fuerza del resorte se relacio- na con la deformación como F = −KHooke∆L, con K la constante del resorte. Por lo tanto, si estiro el resor- te, su energía aumenta en una magnitud ∆E = F∆L, o en otras palabras 1 F = − ∂L ∂E pero disminuye la entropía. Demuestre que si 1 T = ∂S ∂E , entonces la fuerza está dada por F = kBT 2d ln N +L/d N −L/d Solución: Partiendo de lo dado: 1 T = ∂S ∂E = ∂S ∂L ∂L ∂E = ∂L ∂E |{z} − 1 F ∂S ∂L es decir que 1 T = − 1 F ∂S ∂L F = −T ∂S ∂L solucionando ∂S ∂L para F: S = kB[N ln(N)−Dln(D)... ... − (N −D)ln(N −D)] 5
  • 6. ∂S ∂L = kB ∂N ∂L ln(N)+N ∂ ln(N) ∂L ... ... − ∂D ∂Lln(D) −D ∂ ln(D) ∂L ... ... − ∂ ln(N −D) ∂L (N −D)... ... − ∂(N −D) ∂L ln(N −D) teniendo presente que D = N + L d 2 −→ ∂D ∂L = 1 2d N = 2D− L d −→ ∂N ∂L = 1 d − 1 d = 0 entonces =kB (0)ln(N)+N 1 N (0)− 1 2d ln(D) −D 1 D 1 2d − 0− 1 2d ln(N −D) − 1 N −D 0− 1 2d (N −D) =kB − 1 2d ln(D)− 1 2d + 1 2d ln(N −D) + 1 2d =kB − 1 2d ln(D)+ 1 2d ln(N −D) = kB 2d [ln(N −D)−ln(D)] ∂S ∂L = kB 2d ln N −D D sustituyendo D en ∂S ∂L = kB 2d ln 2N −L0 −N N +L0 = kB 2d ln N −L0 N +L0 ∂S ∂L = kB 2d ln N −L0 N +L0 remplazando en F F = T kB 2d ln N +L0 N −L0 e) Muestre que en el límite de en que N L0 la fuerza y la longitud se relacionan con una constante de Hooke KHooke = kBT Nd2 Solución: Para comprobar, se expande ln N+L0 N−L0 en Taylor ln N +L0 N −L0 = 2L0 N + 2L3 0 3N3 + 2L5 0 5N5 + 2L7 0 7N7 + 2L9 0 9N9 + 2L11 0 11N11 +O L13 0 converge cuando |L| |N| sustituyendo L0 = L/d ln N +L0 N −L0 = 2L dN + 2L3 3N3d3 +... el término a primer orden de la expansión representa el límite ln N+L0 N−L0 NL0 − − − → 2L Nd ; entonces, al sustituir en F F = T kb 2d 2L Nd F = TkB Nd2 |{z} KHooke L |{z} −∆X KHooke = TkB Nd2 4. N osciladores armónicos distin- guibles no acoplados Considere un conjunto de N osciladores armónicos no acoplados idénticos, cuya energía es: E = ∑ i p2 i 2m + 1 2 mω2 0 q2 i donde qi y pi son el desplazamiento y el momen- tum del i-ésimo oscilador, respectivamente. 6
  • 7. a) Calcule el volumen en el espacio de fase Σ(E) de todos los estados con energía menor o igual que E. (Ayuda: haga el cambio de variable xi = mwoqi), con lo que el cascarón de energia se convierte en un cas- carón esférico de 2N dimensiones. Solución: Haciendo el cambio de variable xi = mw0qi y re- emplazando en la energía, llegamos a: E = N ∑ i p2 i 2m + x2 i 2m Y por lo tanto 2mE = N ∑ i p2 i +xi2 = R2 (1) Donde R es el radio de la esfera de energía en el espacio de fase, siendo R = √ 2mE Para este sistema con osciladores distinguibles, po- demos expresar el volumen en el espacio de fase Σ(E) con energía menor o igual a E como: Σ(E) = 1 hN Z qi Z pi dN pidN qi y por el cambio de variable xi = mwoqi tenemos entonces dqi = dxi mwo ; así: Σ(E) = 1 (hmwo)N Z xi Z pi dN pidN xi (2) Analizando la ecuación (2) nos damos cuenta que las integrales sobre las variables del espacio de fase generan un volumen, y en este caso es el volumen de una esfera en D dimensiones de radio R : VD(R) = πD/2 Γ(D 2 +1) RD Siendo el radio R = √ 2mE y la dimensión D = 2N, el volumen de la esfera queda: V2N(R) = πN Γ(N +1) (2mE)N (3) y colocando (3) en (2), obtenemos: Σ(E) = 1 (hmwo)N πN Γ(N +1) (2mE)N La función gamma tiene la propiedad de: Γ(N +1) = N! por lo que Σ(E) puede reescribirse como: Σ(E) = 1 (hmwo)N πN N! (2mE)N Σ(E) = 1 N! 2πE hwo N (4) b) Calcule con ello la densidad de estados como el número de microestados con energías entre E y E + dE Solución Sabemos que la densidad de estados g se define como: g = ∂Σ(E,N) ∂E y por tanto: Ω(E,N) = g∆E = ∂Σ(E,N) ∂E ∆E Como queremos saber la densidad de estados con energías entre E y E +dE entonces: Ω(E,N) = ∂ ∂E EN N! 2π hwo N # (E +dE −E) Ω(E,N) = NEN−1 N! 2π hwo N dE c) Halle con él la entropía S(E,N) como función de la energía y del número de particulas. (Ayuda: use la fórmula de Stirling para ln(n!) Solución La entropía en el ensamble microcanónico se ex- presa como: S = kB ln(Ω(E,N)) y por tanto 7
  • 8. S = kB ln NEN−1 N! 2π hwo N dE ! = kB[lnN +(N −1)lnE +N ln(2π)+ln(dE) −ln(N!)−N ln(hwo)] = kB[lnN +(N −1)lnE +N ln(2π)+ln(dE) −N lnN +N −N ln(hwo)] Tenemos así: S = kB[lnN +(N −1)lnE +N ln(2π)+ln(dE) −N lnN +N −N ln(hwo)] d) A partir de allí, demuestre que las expresiones pa- ra la temperatura en función de la energía y para el potencial químico en función de E y N son E = NkBT , µ = − E N ln E Nh̄wo Solución: Temperatura Tenemos: 1 T = ∂S ∂E V,N Y por lo tanto: 1 T = kB N −1 E E = kBT(N −1) Ahora bien, cuando N 1, N −1 ≈ N entonces: E ≈ NkBT Potencial químico Tenemos: − µ T = ∂S ∂N E,V Además: T = E NkB Entonces: − µNkB E = kB[ 1 N +lnE −[lnN + 1]+ 1−ln(hwo)+ln(2π)] Cuando N 1 entonces 1 N ≈ 0, y por tanto: − µN E = ln 2πE hwoN = ln E h̄woN Y así, despejando el potencial químico µ, llega- mos a: µ = − E N ln E h̄woN 5. Transinformación Dos medidas X y Y, la primera con dos resultados posibles y la segunda con tres, se encuentran conec- tadas por un canal, como muestra la figura 4. Como el canal mezcla los resultados, no es posible saber a ciencia cierta cuál fue el resultado de X con sólo me- dir Y. El objetivo es saber cuánta información de la que se mide en Y proviene de X,y cuánta es agregada por el canal. Figura 4: Imagen Ejercicio 5 a) Calcule las entropías de cada medida, Inicialmente verificamos la probabilidad de yj por medio de la relación: p(yj) = ∑ i p(yj|xi) p(xi) = ∑ i p(xi,yj) (5) 8
  • 9. Se obtiene por lo tanto p(y1) = p(y1|x1) p(x1) | {z } p(x1,y1) + :0 p(y1|x2)p(x2) | {z } p(x2,y1) = 0,28 (6) p(y2) = p(y2|x1) p(x1) | {z } p(x1,y2) + p(y2|x2) p(x2) | {z } p(x2,y2) = 0,12+0,12 = 0,24 (7) p(y3) = :0 p(y3|x1)p(x1) | {z } p(x1,y3) + p(y3|x2) p(x2) | {z } p(x2,y3) = 0,48 (8) Ahora la información para determinado estado está dada por: I (xi) = −log2 p(xi) (9) Y la entropía para ese conjunto de estados es: H (X) = ∑ i p(xi)I (xi) = −∑ i p(xi)log2 p(xi) (10) De donde obtenemos: I (x1) = 1,32 bits I (x2) = 0,74 bits I (y1) = 1,84 bits I (y2) = 2,06 bits I (y3) = 1,06 bits Que si reemplazamos en (10) junto con p(xi), obte- nemos: H (X) = 0,4(1,32)+0,6(0,74) = 0,97 bits, H (Y) = 0,28(1,84)+0,24(2,06)+0,48(1,06) = 1,52 bits b) Calcule las seis probabilidades conjuntas. Con ellas, la entropía conjunta, la entropía condicional y la transinformación Las probabilidades conjuntas están definidas por medio del segundo y el tercer término de la ecuación (5) p(xi,yj) y por lo tanto ya fueron halladas en (6), (7), (8). La entropía conjunta está definida como: H (X,Y) = ∑ i,j p(xi,yj)I (xi,yj) (11) Y la entropía condicional como: H (X|Y) = ∑ i,j p(xi,yj)I (yj|xi) (12) por lo tanto solo resta hallar I (xi,yj) y I (yj|xi) usan- do la relación (9): I (x1,y1) = 1,84 I (x2,y1) = NA I (x1,y2) = 3,06 I (x2,y2) = 3,06 I (x1,y3) = NA I (x2,y3) = 1,06 I (y1|x1) = 0,51 I (y1|x2) = NA I (y2|x1) = 1,74 I (y2|x2) = 2,32 I (y3|x1) = NA I (y3|x2) = 0,31 Que si se reemplazan en (11) y (12) resulta la entro- pía conjunta: H (X,Y) = 0,28(1,84)+ :0 0(NA)+0,12(3,06) +0,12(3,06)+ :0 0(NA)+0,48(1,06) = 1,76 bits (13) La entropía condicional: H (Y|X) = 0,28(0,51)+ :0 0(NA)+0,12(1,74) +0,12(2,32)+ :0 0(NA)+0,48(0,31) = 0,78 bits (14) La cual representa la cantidad de información que es- taría agregando el canal a causa del ruido en prome- dio. La transinformación está definida como: I (Y;X) = H (Y)−H (Y,X) (15) Si reemplazamos los valores anteriormente obteni- dos, resulta: I (Y;X) ≈ 0,73 bits (16) 9
  • 10. Que es la cantidad de información que proviene real- mente de X en promedio Por último, se puede verificar que para este caso, la relación entre las entropías inicial, final, conjunta y la transiformación, se cumple: H (X)+H (Y)−I (Y;X) = H (X,Y) (17) 0,97+1,52−0,74 = 1,75 bits H (X,Y) ≈ 1,76 bits c) Capacidad del Canal Figura 5: Imagen Ejercicio 5 con p(x1) = p Ahora vamos a variar las probabilidades de entra- da, manteniendo las del canal constantes y veremos para qué condiciones de estas, se obtiene la mayor transinformación posible. Dado que las probabilidades de entrada deben su- mar uno, si definimos p(x1) = p, se debe cumplir p(x2) = 1 − p. Procederemos de la misma manera que en el caso anterior. Las probabilidades de salida se hallan por medio de la relación (5) y se obtiene: p(y1) = 0,7p |{z} p(x1,y1) + :0 0(1−0) | {z } p(x2,y1) = 0,7p (18) p(y2) = 0,3p |{z} p(x1,y2) +0,2(1− p) | {z } p(x2,y2) = 0,2+0,1p (19) p(y3) = 0 0p |{z} p(x1,y3) +0,8(1− p) | {z } p(x2,y3) = 0,8−0,8p (20) Al igual que en el caso anterior, las probabilidades conjuntas son los valores que se encuentran dentro de los corchetes horizontales. Las entropías para los conjuntos de entrada y salida se definen de la misma manera que en el caso anterior (Ecuación (10)) y usando (9) para I en cada caso: I (x1) = −log2 (p) I (x2) = −log2 (1− p) ⇒ H (X) = −plog2 (p)−(1− p)log2 (1− p) (21) y I (y1) = −log2 (0,7p) I (y2) = −log2 (0,2+0,1p) I (y3) = −log2 (0,8+0,8p) ⇒ H (Y) =−0,7plog2 (0,7p) −(0,2+0,1p)log2 (0,2+0,1p) −(0,8−0,8p)log2 (0,8−0,8p) (22) De la misma forma se procede para H(X,Y) con la ecuación (11) I (x1,y1) = −log2 (0,7p) I (x2,y1) = NA I (x1,y2) = −log2 (0,3p) I (x2,y2) = −log2 (0,2−0,2p) I (x1,y3) = NA I (x2,y3) = −log2 (0,8−0,8p) ⇒ H (X,Y) =−0,7plog2 (0,7p)−0,3plog2 (0,3p) −(0,2−0,2p)log2 (0,2−0,2p) −(0,8−0,8p)log2 (0,8−0,8p) (23) Por otro lado de (17), la transinformación también es I (Y;X) = H (X)+H (Y)−H (X,Y) (24) e igualando con (15) se obtiene H (Y)−H (Y,X) = H (X)+H (Y)−H (X,Y) y despejando H (Y|X) H (Y|X) = H (X,Y)−H (X) =−0,7plog2 (0,7p)−0,3plog2 (0,3p) −(0,2−0,2p)log2 (0,2−0,2p) −(0,8−0,8p)log2 (0,8−0,8p) + plog2 (p)+(1− p)log2 (1− p) (25) Por otro lado, escribimos la transinformación usando (24) y simplificando un poco: I (p) =− plog2 (p)−(1− p)log2 (1− p) −(0,2+0,1p)log2 (0,2+0,1p) +0,3plog2 (0,3p) +(0,2−0,2p)log2 (0,2−0,2p) (26) 10
  • 11. Ahora, para hallar la transinformación máxima, deri- varemos respecto a p e igualaremos a cero, para así despejar p y encontrar la condición. dI(p) dp = dH(X) dp + dH(Y) dp − dH(X,Y) dp = 0 (27) Recordando que d dx log2(x) = 1 ln2 · 1 x De (21), tenemos: dH(x) dp = −1 ln2 ln p+1 + (−1)ln(1− p)+(−1) 1− p 1− p = −1 ln2 [ln p−ln(1− p)] (28) De (22), tenemos: dH(y) dp = −1 ln2 0,7 ln0,7p+ p(0,7) 0,7p +0,1ln(0,2+0,1p)+ (0,2+0,1p) 0,2+0,1p ·0,1 +(−0,1)ln(0,8−0,8p)+ (0,8−0,8p) 0,8−0,8p ·(−0,8) = −1 ln2 0,7(ln0,7p+1)+0,1(ln(0,2+0,1p)+1) −0,8(ln(0,8−0,8p)+1) (29) y de (23) dH(X,Y) dp = −1 ln2 0,7 ln0,7p+ p(0,7) 0,7p +0,3 ln0,3p+ p(0,3) 0,3p +(−0,2)ln(0,2−0,2p)+ (0,2−0,2p) 0,2−0,2p ·(−0,2) +(−0,1)ln(0,8−0,8p)+ (0,8−0,8p) 0,8−0,8p ·(−0,8) = −1 ln2 0,7(ln0,7p+1)+0,3(ln0,3p+1) −0,2(ln(0,2−0,2p)+1)−0,8(ln(0,8−0,8p)+1) (30) Ahora, reemplazando en (27), el término (−1/ln2) es factor común en las tres derivadas, entonces se cancela, y se obtiene: 0 =ln p−ln(1− p)+((((((( ( 0,7(ln0,7p+1) +0,1(ln0,1+ln(2+ p)+ 1) − (((((((((( ( 0,8(ln(0,8−0,8p)+1) −((((((( ( 0,7(ln0,7p+1)−0,3(ln0,3+ln p+ 1) +0,2(ln0,2+ln(1− p)+ 1) + (((((((((( ( 0,8(ln(0,8−0,8p)+1) Donde se hizo uso de las propiedades de los logarit- mos; ln(0,3· p) = ln0,3+ln p ln(0,2+0,1p) = ln0,1+ln(2+ p) ln(0,2−0,2p) = ln0,2+ln(1− p) Agrupando términos para ln p y ln(1− p) obtene- mos: 0 =ln p(1−0,3)+ln(1− p)(0,2−1)+0,1ln(2+ p) +0,1ln0,1−0,3ln0,3+0,2ln0,2 Y como ln0,3 = ln(0,1·3) = ln0,1+ln3 0 =0,7ln p−0,8ln(1− p)+0,1ln(2+ p) + 0,1ln0,1−0,3[ ln0,1+ln2]+0,2[ ln0,1+ln2] Luego, multiplicando a ambos lados por 10 y dejando a un lado de la ecuación los términos que dependen de p, se obtiene: 7ln p−8ln(1− p)+ln(2+ p) = 3ln3−2ln2 Ahora, usando la propiedad de los logaritmos nlnx = lnxn, y agrupando todo en un logaritmo ln (p7)(2+ p) (1− p)8 = ln 33 22 Para que los logaritmos sean iguales, los argumentos de los logaritmos han de ser iguales, por lo tanto: (p7)(2+ p) (1− p)8 = 33 22 Donde si definimos a = 33/22 llegamos al polinomio para p a(1− p)8 − p7 (2+ p) = 0 (31) Que es una función como la mostrada en la Figura (6). Por medio de cálculo numérico, hallamos la raíz 11
  • 12. Figura 6: Polinomio y raíz en el intervalo de 0 a 1 correspondiente a p en el intervalo (0,1), que es el valor p = 0,509864 (32) Ahora, para determinar la transinformación máxima, reemplazamos este valor en la ecuación (26) y obte- nemos: Imax = I(Y;X)(p = 0,509864) = 0,75748 bits (33) Que como se puede observar, es muy cercana al valor que se tenía en el punto a), pero se observa también que si las probabilidades de entrada p(x1), p(x2) son iguales, la transinformación es mucho mayor. A este valor máximo se le llama la Capacidad del canal. Una gráfica de la Transinformación en función de p (Ver figura (7)), nos da evidencia de que para un valor en específico, con esas condiciones, la probabilidad de entrada en efecto maximiza dicha función; como la transinformación representa la cantidad informa- ción que de la fuente (X) está llegando realmente a (Y) (y no fue modificada por el ruido del canal); si esta cantidad se maximiza, se obtiene el valor máxi- mo en promedio de información que se puede medir en (Y) proveniente de (X) y por lo tanto, es un méto- do para optimizar los sistemas de telecomunicaciones tales como internet y demás. Figura 7: Transinformación en función de p 6. Los volúmenes elementales de la teoría de Edwards para el volu- men de un material granular. Considere un conjunto de N granos esféricos dentro de una caja de volumen total VT . Edwards propuso en 1984 que se podría hacer una descripción estadística de este sistema tomando el volumen como la variable fundamental (en vez de la energía). En este caso, la entropía da cuenta de todas las configuraciones posi- bles de N granos dentro del volumen, y la tempera- tura es reemplazada por otra cantidad, la compactivi- dad, cuyo inverso nos dice cómo cambia la entropía en función del volumen. a) Considere el espacio de fase como el espacio de C dimensiones donde cada eje es el volumen vi de una celda elemental, i = 1,...,C. Solución: La consideración sugiere que el volumen VT está formado por C volumenes de tamaño vi, es decir: VT = C ∑ i vi b) Dese cuenta de que repartir el volumen VT entre C variables vi de tal manera que cada vi ≥ vmin es lo mismo que repartir un volumen V0 T = (VT −CVmin) entre C variables v0 i = vi − vmin. Por lo tanto, cam- bie a un sistema de coordenadas v0 i = vi − Vmin, 12
  • 13. cada una de las cuales solo puede tomar valores 0 ≤ v0 i ≤ (V −Cvmin). Solución: El volumen total del espacio de fase se constituye de C volúmenes vi que son, individual- mente, mas grandes que elementos de volumen míni- mos soportados por la consideración. el gapde vo- lumen que hay entre el cada vi y un elemento mínimo de volumen se asocia como una coordenada del espa- cio de fase. Por ultimo, dicha diferencia de pequeños volúmenes, en conjunto, debe corresponder al V0 T . VT −Cvmin = V0 T = C ∑ i v0 i. = C ∑ i (vi −vmin) | {z } coordenadas c) Identifique que todos los estados posibles en este espacio de fase equivalente que tienen un volumen menor o igual que V0 T , ∑i v0 i ≤ V0 T , forman un simplex estándar de C dimensiones (es decir, la esquina de un cubo de C dimensiones) de lado V0 T . Deduzca, entonces, que el lugar geomé- trico de todos los estados de C celdas elementales con un volumen menor o igual a VT es Σ(VT ,C) = (VT −Cvmı́n)C Λ3CC! donde Λ es una longitud característica para hacer que Σ(VT ,C) sea adimensional. (Ayuda: El volumen de un simplex estándar de lado unidad en n dimensiones es (1/n!)). Solución: Un simplex de lado unidad, va a tener un volumen 1/n! con n como el numero de dimensiones es C y para nuestro caso, el lado del simplex es V0 T ademas, se tiene que el valor de la arista estará elevado a C ∑(V,N) = Volumen del espacio de fase N! |{z} C! h3N |{z} Λ3C ∑(C,VT ) = V0 T C Λ3CC! = (VT −Cvmin)C Λ3CC! d) Derive esta expresión respecto a VT para hallar que la densidad de estados Ω(VT ) entre VT y VT + ∆VT es Ω(VT ,C)dVT = (VT −Cvmı́n)C−1 Λ3C(C −1)! dVT Solución: ∂ ∂VT (∑(C,VT )) = C(VT −Cvmin)C−1 Λ3C C! dVT (VT −Cvmin)C−1 Λ3C(C −1)! dVT = Ω(VT ,C)dVT e) Con este valor, calcule la probabilidad de que una celda elemental especifica tenga un volumen v como la fracción de configuraciones en las que esto sucede, p(v) = Ω(VT −v,C −1) Ω(VT ,C) y demuestre que en el límite en que C → ∞, pero hvi = VT /C finito, p(v) = Λ3 χ e−(v−vmı́n)/x donde χ ≡ hvi−vmı́n, llamada la compactividad, ha- ce las veces de la temperatura para este ensamble, y hvi =VT /C es el volumen promedio de una celda ele- mental. (Ayuda: Recuerde que ex = lı́mn→∞ 1+ x n n ). Solución: p(v) = Ω(VT −v,C −1) Ω(VT ,C) p(v) = ((VT −v)−(C−1)vmı́n)C−1−1 Λ3(C−1)(C−1−1)! dVT (VT −Cvmı́n)c−1 Λ3C(C−1)! dVT p(v) = ((VT −v)−(C−1)vmı́n)C−2 Λ3C−3(C−2)! (VT −Cvmı́n)C−1 Λ3(C−1)! p(v) = Λ3C(C −1)!((VT −v)−(C −1)vmin)C−2 Λ 3C−3(C −2)!(VT −Cvmin)C−1 13
  • 14. p(v) = Λ3(C −1) !((VT −v)−(C −1)vmin)C−2 (C −2)!(VT −Cvmin)C−1 p(v) = Λ3(C −1)((VT −v)−(C −1)vmin)C−2 (VT −Cvmin)C−1 p(v) = Λ3 (C −1) (VT −V −Cvmı́n +vmı́n)C−2 (VT −Cvmı́n)C−2 (VT −Cvmı́n) p(v) = Λ3(C −1) (VT −Cvmin) VT −Cvmin −v+vmin VT −Cvmin C−2 p(v) = Λ3(C −1) (VT −Cvmin) VT −Cvmin −v+vmı́n VT −Cvmin C−2 lı́m C→∞ Λ3 1− 1 c VT C −vmin 1− vmı́n −v VT −Cvmı́n C−2 aplicando hvi = VT /C con C finito lı́m C→∞ Λ3 1− 1 C hvi−vmin 1− vmı́n −v C(VT C −vmı́n) !C−2 lı́m C→∞ Λ3 1− 1 C hvi−vmin 1− vmı́n −v C(hvi−vmı́n) C−2 y haciendo uso de la definición χ ≡ hvi − vmı́n y de ex = lı́mn→∞ 1+ x n n lı́m C→∞ Λ3 1− 1 C χ 1− vmı́n −v Cχ C−2 = Λ3 χ e vmı́n−v χ p(v) = Λ3 χ e(vmin−v)/χ = Λ3 χ e−(v−vmin)/χ f) Con esta probabilidad, calcule la entropía de una cel- da elemental como S = − Z ∞ v=vmı́n p(v)ln p(v) dv Λ3 y demuestre que vale S = 1+ln χ Λ3 Solución: S=− Z ∞ v=vmin p(v)ln[p(v)] dv Λ3 = S=− Z ∞ v=vmin Λ3 χ e−(v−vmin)/χ ln[ Λ3 χ e−(v−vmin)/χ ] dv Λ3 usando ln(ab) = ln(a)+ln(b) = 1 χ ln χ Λ3 R ∞ v=vmı́n e−(v−vmı́n)/xdv−... ... R ∞ v=vmı́n e−(v−vmı́n)/χ (v−vmı́n) χ dv χ como R exdx = ex +c para 1era integral y R xexdx = ex(x−1)+c, para 2da integral. = −ln χ Λ3 e−(v−vmı́n)/χ+ ... ... e−(v−vmı́n)/χ −(v−vmı́n) χ −1 i∞ v=vmı́n evmı́n−vmı́n = e0 = 1, y e−∞+vmı́n ≈ e−∞ tiende a 0 S=1+ln χ Λ3 g) Suponga que la entropía total ST del material es igual a la suma de las entropías de las C celdas elementales que lo conforman. Si asumimos que C es constante, ST = C h 1+ln χ Λ3 i Recordando que 1 χ = ∂ST ∂VT , deduzca una ecuación que relacione χ conVT Muestre que esta ecuación es con- sistente con la definición de χ = hvi− vmı́n dada arri- ba. Solución: 14
  • 15. Derivando parcialmente la función ST tenemos: ∂ST ∂VT = 1 χ = Λ3 Λ3 C χ ∂χ ∂VT Así: C ∂χ ∂VT = 1 Despejando e integrando tenemos: χ = Z VT VTmin dVT C = VT C −Vmin Siento A una constante, tenemos que el resultado concuerda para v = VT /C con la definición: χ = hvi−vmin. 7. La Paradoja de Gibbs a) Calcular Ω(E) sin dividir por N! y demostrar que la entropía microcanónica del gas ideal, calculada de esa forma es: S(E,V,N) = NKB 3 2 +ln V h3 4πmE 3N 3/2 ## (34) Demostración: Sabemos que el volumen Vp de la esfera en el es- pacio de los momentos, multiplicado por el volumen Vx en el espacio de las posiciones, para las 3N dimen- siones es: Vp(3N) (R)Vx(3N) = VN(2πm) 3N 2 E 3N 2 h3NΓ(3N 2 +1) Usando: Γ(z+1) = zΓ(z) Entonces: Σ(E) = VN(2πm) 3N 2 E 3N 2 h3N 3N 2 Γ(3N 2 ) Derivando respecto a E y usando el hecho de que para N muy grande 3N/2−1 ' 3N/2 tenemos: Ω(E) = 3N 2 3N 2 VN(2πmE) 3N 2 h3NΓ(3N 2 ) dE Para hacer el cálculo la entropía microcanónica usamos: S = KBlnΩ(E) Así: S = KB ln VN(2πmE) 3N 2 h3N ! −ln Γ 3N 2 ## La aproximación de Stirling es: lnΓ(z+1) ' zlnz−z Usando la aproximación de Stirling y el hecho de que 3N/2+1 ' 3N/2 tenemos: S = KB ln VN(2πmE) 3N 2 h3N ! − 3N 2 ln 3N 2 + 3N 2 # Reagrupando los primeros dos términos y usando las propiedades del logaritmo natural tenemos: S(E,V,N) = KB 3N 2 +ln (2πme) 3N 2 VN h3N(3N 2 ) 3N 2 !# = KB 3N 2 +ln V h3 4πmE 3N 3 2 !N# = NKB 3 2 +ln V h3 4πmE 3N 3/2 !# Demostración Completa. b) Demostrar que para el gas ideal del punto anterior, la función de entropía (34) no es extensiva. S1(V/2,E/2,N/2) +S2(V/2,E/2,N/2) 6= S(V,E,N) Demostración: Sea S(E,V,N) la función de entropía para un gas ideal, con energía E, volumen V y cantidad de partí- culas N correspondiente a la ecuación (34); si par- timos el sistema en dos, se tienen dos volúmenes V1 = V2 = V/2, con energías E1 = E2 = E/2 y que contienen cantidades de partículas N1 = N2 = N/2. 15
  • 16. Calculamos directamente S1 + S2 la suma de las en- tropías evaluando en la función (34), de forma que: S1(V/2,E/2,N/2) +S2(V/2,E/2,N/2) = 2S(V/2,E/2,N/2) = 2∗ N 2 KB 3 2 +ln V 2h3 4πmE 3N 2 2 3/2 !# = NKB 3 2 +ln V h3 4πmE 3N 3/2 −ln2 !# 6= NKB 3 2 +ln V h3 4πmE 3N 3/2 !# Por lo tanto, bajo la ecuación (34) la entropía, del sistema, no es la suma de las entropías de las partes del sistema, por lo que no es una magnitud extensiva. Demostración completa. c) Mostrar que bajo la función (35) la entropía Sí es una cantidad extensiva. SN!1(V/2,E/2,N/2) +SN!2(V/2,E/2,N/2) = SN!(V,E,N) Sea SN! la función de entropía que surge como con- secuencia de dividir Ω(E) por N!. SN!(E,V,N) = NKB 5 2 +ln V Nh3 4πmE 3N 3/2 !# (35) Demostración: Siguiendo la misma idea de la de- mostración anterior, calculamos la entropía de los dos sistemas con V1 = V2 = V/2,E1 = E2 = E/2,N1 = N2 = N/2, pero bajo la ecuación que implica dividir por N! (ecuación (35)), esto es: SN!1(V/2,E/2,N/2) +SN!2(V/2,E/2,N/2) = 2SN!(V/2,E/2,N/2) = 2 N 2 KB 5 2 +ln V Nh3 2 2 4πmE 3N 2 2 3/2 !# = NKB 5 2 +ln V Nh3 4πmE 3N 3/2 !# = SN!(E,V,N) Así, bajo la ecuación (35) la entropía del sistema sí es la suma de las entropías de las partes del sistema, y es una cantidad extensiva. Demostración Completa. 16