El documento explica conceptos estadísticos como covarianza, correlación y transformaciones de variables aleatorias. Define la covarianza como una medida de dependencia entre dos variables y la correlación como la versión normalizada de la covarianza. Explica cómo transformar la distribución de una variable aleatoria X cuando se aplica una función a X para obtener una nueva variable Y, derivando las funciones de densidad de Y.
3. La covarianza y la correlación miden cierta especie de dependencia entre las variable. Para comprender con profundidad esta dependencia, comenzamos por resaltar que (E(X), E(Y)) es el centro de la distribución conjunta de (X,Y). Una línea vertical y otra horizontal a través de este punto separa ℝ 2 en cuatro cuadrantes. La variable aleatoria (X−E(X))(Y−E(Y)) es positiva sobre el primer y tercer cuadrantes y negativa en el segundo y cuarto cuadrante.
4.
5.
6. Transformaciones de Variables Consideremos un experimento aleatorio con medida de probabilidad P sobre un espacio muestral. Supongamos que tenemos una variable aleatoria para este experimento, que toma valores en S, y una función r de S en T. Luego Y=r(X) es una nueva variable aleatoria que toma valores en T. Si la distribución de X es conocida, nos preguntamos ¿cómo podemos hallar la distribución de Y? Es fácil demostrar que P(Y B)=P(X r -1 (B)) para todo B T.
7. Transformada de variable con distribución discreta Si X tiene una distribución discreta con función de distribución p(x) y, en consecuencia, S es numerable, Y tiene una distribución discreta con función de distribución p’(y) dada por
8. Si X tiene una distribución continua con función de densidad f(x) y T es numerable, Y tiene una distribución discreta con función de distribución p’(y) dada por
9. Transformada de variable con distribución continua Cuando la función r es creciente (decreciente) estrictamente y tiene derivada continua, en un intervalo (a,b), se sabe que bajo estas condiciones r tiene función inversa r -1 , que también es creciente (decreciente) con derivada continua en el intervalo (r(a), r(b)). Llamaremos F Y y F X a la función de distribución acumulada de Y y de X, respectivamente. Supongamos primero que r es creciente. Entonces, F Y (y)= P(Y ≤ y) = P(r(X) ≤ y) =P(X ≤ r -1 (y))= F X (r -1 (y)). Luego, .
10. En el caso que r es decreciente. Entonces, F Y (y)= P(Y ≤ y) = P(r(X) ≤ y) =P(X ≥ r -1 (y))= 1- F X (r -1 (y)). Luego, Dado que Resulta así, que en ambos casos vale que para r(a) ≤ y ≤r(b) si r es creciente, o para r(a) ≤ y ≤ r(b)si r es decreciente. Para el caso más general en que el dominio de r se puede descomponer en intervalos en los cuales la función es creciente o decreciente y cumple con el resto de las condiciones, se puede resolver el problema aplicando el resultado anterior a cada intervalo por separado.
11. Ejemplos y aplicaciones 1. Sea X una variable aleatoria continua con función de densidad f X (x) e Y= aX+b, una transformación lineal de X. Queremos obtener la función de densidad de Y, f Y (y). Como y , tenemos que
12. Sea X una variable aleatoria tal que {x: f X (x) > 0}= (a,b), -∞ ≤ a < b ≤ ∞. Se verifica entonces que F X (a)=0, F X (b)=1 y que F X es creciente en (a,b). Por lo tanto, está definida en el intervalo (0,1). Si consideramos la transformación Y=F X (X), entonces se verifica que Y se distribuye uniformemente en el intervalo (0,1). En efecto, sea 0 < y < 1 En consecuencia, puedo generar valores de una variable con distribución uniforme: y 1 ,y 2 ,… y obtener valores x 1 , x 2, …..de una variable con distribución F X , tomando Este resultado sirve para fundamentar las técnicas de simulación.