Download Distribuciones de probabilidad clásicas y cuánticas File

Document related concepts
no text concepts found
Transcript
Guı́a: Distribuciones de Probabilidad Clásicas y
Cuánticas para la Posición
Teorı́a de la Dinámica de Reacciones Quı́micas
José G. López, Gloria E. Moyano
Instituto de Quı́mica
Universidad de Antioquia
Medellı́n, Colombia
Resumen
En esta guı́a se introduce el concepto de distribución de probabilidad y su
aplicación en la mecánica clásica y cuántica. En particular, se investigan las
distribuciones de probabilidad clásicas y cuánticas para el desplazamiento de un
oscilador armónico de su posición de equilibrio, modelo que sirve como primera
aproximación al estudio del movimiento vibracional de sistemas moleculares
diatómicos.
1.
1.1.
Distribuciones de probabilidad
Distribuciones de probabilidad discretas
Supongamos que tenemos una colección de n resultados discretos de una cantidad
x. El promedio de los resultados se obtiene con la siguiente fórmula
n
1X
hxi =
xi
n
i=1
Es posible que haya grupos de resultados que tengan el mismo valor xi , luego podemos multiplicar cada uno de estos valores por el número de resultados que tengan
el valor xi . A esto lo llamamos frecuencia de resultados fi . La suma para calcular el
promedio se extiende ahora sobre N resultados diferentes,
PN
i=1 fi xi
hxi =
n
1
(1)
Esta ecuación puede escribirse como
hxi =
N
X
fi
i=1
n
xi =
N
X
P (xi )xi
(2)
i=1
donde P (xi ) es la probabilidad de obtener el resultado xi en una medición.
Para un experimento cualquiera en el que los resultados sean determinados de manera aleatoria, la colección de las probabilidades de todos los posibles resultados definen una distribución de probabilidad. Si la colección de las probabilidades constituye
un conjunto discreto, la distribución se llama distribución de probabilidad discreta.
Puesto que al realizar una medición de la variable discreta x, siempre habrá alguna probabilidad de que tenga algún valor xi , las probabilidades deben satisfacer la
siguiente condición, denominada de normalización
N
X
P (xi ) = 1
(3)
i=1
La utilidad de tener una distribución de probabilidad es que ası́ como se puede
obtener el valor promedio ó valor de expectación de la variable discreta x también
se puede obtener el valor promedio de cualquier función de x
hg(x)i =
N
X
g(xi )P (xi )
(4)
i=1
1.2.
Distribuciones de probabilidad continuas
La distribución de probabilidad que definimos para variables discretas puede escribirse como P (xi )∆xi , es decir, dividimos el espacio donde viven los valores xi en
casillas centradas en xi y de ancho ∆xi = 1. Para el caso de una variable x que
pueda tomar valores continuos tendremos por analogı́a
P (xi )∆(xi ) → P (x)dx
(5)
donde dx es una casilla infinitesimalmente pequeña de medición de la variable x. La
interpretación de P (x) será entonces
P (x)dx es la probabilidad de que una medición de la variable x esté en el
intervalo (x, x + dx).
2
La probabilidad de que una medición de x esté en el intervalo finito (a, b)
está dada por
Z b
Prob(a ≤ x ≤ b) =
P (x)dx
(6)
a
Puesto que la variable debe tener un valor el intervalo −∞ ≤ x ≤ ∞, la condición
de normalización de la distribución P (x) será
Z
∞
P (x)dx = 1
(7)
−∞
Al igual que en el caso de distribuciones de probabilidad discretas, la distribución
de probabilidad nos permite obtener el valor promedio de cualquier función de x
Z
∞
hg(x)i =
g(x)P (x)dx
(8)
−∞
1.2.1.
Histograma de una distribución de probabilidad
Una distribución de probabilidad continua puede aproximarse a partir de mediciones
experimentales. El espacio donde x toma sus valores se puede dividir en casillas de
amplitud finita razonable ∆x. El valor de ∆x se suele disminuir entre más datos se
tenga. A cada valor de x medido experimentalmente se le asigna su casilla correspondiente y se cuenta el número de datos en cada casilla. A medida que aumenta el
número de mediciones realizadas, la acumulación gradual de puntos en cada casilla
se aproxima más y más a la distribución de probabilidad continua del sistema. Un
gráfico de las casillas en x versus el número de datos presentes en cada casilla es el
histograma correspondiente a la distribución de probabilidad.
Estos son los pasos para obtener el histograma de un conjunto de datos:
Encontrar el valor mı́nimo y máximo del conjunto de datos.
Definir el número de casillas del histograma basado en la cantidad de datos.
Determinar el tamaño de las casillas del histograma.
Organizar los datos en las casillas y realizar el conteo de datos.
Calcular el área total de histograma para propósitos de normalización.
3
2.
Distribuciones de probabilidad clásicas
La distribución de probabilidad para la posición de una partı́cula clásica de masa m
y energı́a E, con posición y velocidad definidas y que se mueve en un potencial de una
dimensión V (x) que confina a la partı́cula a una región especı́fica, puede determinarse
a partir del movimiento periódico de la partı́cula entre los puntos clásicos de retorno
en el potencial [1]. La cantidad de tiempo, dt, que la particula gasta en una pequeña
región del espacio dx cerca al punto x está dada por la velocidad de la partı́cula,
v(x)
dt =
dx
v(x)
(9)
La probabilidad de encontrar a la partı́cula en esta pequeña región es el cociente
de este tiempo sobre el tiempo total para que la partı́cula viaje desde un punto de
retorno al otro, es decir,
PCL (x)dx = Prob(x, x + dx) =
dt
2 dx
=
τ /2
τ v(x)
(10)
ó
PCL (x) =
2 1
τ v(x)
(11)
Puesto que la velocidad clásica está relacionada con la energı́a cinética por T (x) =
mv(x)2 /2, podemos escribir
2
PCL (x) =
τ
r
2
m
=
2T (x)
τ
r
m
2(E − V (x))
(12)
2
Para
p el caso de un oscilador armónico [1] tenemos que V (x) = kx /2 con τ =
2π m/k, luego
PCL (x) =
1
1
p
2
π A − x2
donde A es la amplitud máxima de la oscilación.
4
(13)
3.
Distribuciones de probabilidad cuánticas
En mecánica cuántica el estado de un sistema en una dimensión está representado
por una función de onda ψ(x, t). Esta función de onda se obtiene al resolver la
ecuación de Schrödinger dependiente del tiempo para el sistema:
i~
∂ψ(x, t)
~2 ∂ 2 ψ(x, t)
+ V (x, t)ψ(x, t)
=−
∂t
2m ∂x2
(14)
La interpretación estándar de la solución de la ecuación de Schrödinger en una
dimensión identifica a
PQM (x, t) = |ψ(x, t)|2 = ψ ∗ (x, t)ψ(x, t)
(15)
como una densidad de probabilidad para mediciones de la posición, lo cual significa
que P (x, t)dx es la probabilidad de medir la posición de una partı́cula descrita por
ψ(x, t), a tiempo t, en la región (x, x + dx).
Si el potencial es independiente del tiempo, la función de onda puede expresarse
como
ψ(x, t) = ψE (x)e−iEt/~
(16)
donde ψE (x) satisface la ecuación de Schrödinger independiente del tiempo
−
~2 d2
ψ (x) + V (x)ψE (x) = EψE (x)
2m dx2 E
(17)
La densidad de probabilidad en el espacio de posiciones se convierte entonces en:
PQM (x) = |ψE (x)|2
(18)
Para el caso de un oscilador armónico con potencial V (x) = kx2 /2, las funciones de
onda que resultan de resolver la correspondiente ecuación de Schrödinger independiente del tiempo son
2
ψn (x) = Nn Hn (α1/2 x)e−αx
/2
donde
5
n = 0, 1, 2, . . .
(19)
µ
α=
km
¶1/2
(20)
~2
la constante de normalización Nn es
Nn =
³ α ´1/4
1
(2n n!)1/2
(21)
π
y Hn (α1/2 x) son polinomios denominados polinomios de Hermite. Estas funciones de
onda sólo pueden obtenerse si la energı́a del oscilador está restringida a los siguientes
valores cuantizados
µ
¶
µ
¶
1
1
En = ~ω n +
= hν n +
2
2
n = 0, 1, 2, . . .
(22)
donde
µ
ω=
k
m
¶1/2
(23)
y
1
ν=
2π
µ
k
m
¶1/2
(24)
El estado fundamental o de más baja energı́a de un oscilador armónico estará caracterizado entonces por
ψ0 (x) =
³ α ´1/4
π
2
e−αx
/2
(25)
y
1
E0 = hν
2
(26)
Por último, la densidad de probabilidad para la posición será
PQM (x) = |ψ0 (x)|2 =
6
³ α ´1/2
π
2
e−αx
(27)
4.
Lecturas Sugeridas
1. I. N. Levine Quantum Chemistry, 5 ed. (Prentice Hall, Upper Saddle River,
NJ, 2000), Cap. 4
2. R. W. Robinett Quantum Mechanics, (Oxford University Press, New York,
NY, 1997), Cap. 4
Referencias
[1] R. W. Robinett, Am. J. Phys. 63, 823 (1995).
7