1. Republica Bolivariana de Venezuela
Ministerio Del Poder Popular Para La Educación Universitaria
Instituto Universitario Politécnico Santiago Mariño
Carrera: Ingeniería Industrial
Materia: Estadística I
Sección: Yv
Profesor:
Ramón Aray
Bachiller:
Josuana Bello C.I: 25.257.199
Barcelona, enero de 2016
2. El coeficiente de correlación de Pearson es una medida
de la relación lineal entre dos variables aleatorias cuantitativas. A
diferencia de la covarianza, la correlación de Pearson es
independiente de la escala de medida de las variables. De manera
menos formal, podemos definir el coeficiente de correlación de
Pearson como un índice que puede utilizarse para medir el grado
de relación de dos variables siempre y cuando ambas sean
cuantitativas.
La covariación es el grado de concordancia de las posiciones
relativas de los datos de dos variables. En consecuencia el coeficiente
de correlación de Pearson opera con puntuaciones tipificadas (que
miden posiciones relativas). El fundamento del coeficiente de Pearson
es el siguiente: Cuanto más intensa sea la concordancia (en sentido
directo o inverso) de las posiciones relativas de los datos en las dos
variables, el producto del numerador toma mayor valor (en sentido
absoluto). Si la concordancia es exacta, el numerador es igual a N (o a -
N), y el índice toma un valor igual a 1 (o -1).
3. Paso 1: Identifica el dependiente variable
que se probará entre dos observaciones
derivadas independientemente. Uno de
los requisitos del coeficiente de
correlación de Pearson es que las dos
variables que se comparan deben
observarse o medirse de manera
independiente para eliminar cualquier
resultado sesgado.
Paso 2: Calcula el coeficiente de
correlación de Pearson. Para cantidades
grandes de información, el calculo
puede ser tedioso. Además de los varios
programas de estadística, muchas
calculadoras científicas pueden calcular
el valor.
Paso 3: Reporta un valor de correlación
cercano a 0 como un indicador de que no hay
relación linear entre las dos variables.
Conforme el coeficiente de correlación se
acerque al 0, los valores se vuelven menos
correlacionados, lo que identifica las variables
que no pueden ser relacionadas entre sí.
Paso 4: Reporta un valor de correlación
cercano al 1 como indicador de que existe una
relación linear positiva entre las dos variables.
Un valor mayor a cero que se acerque a 1 da
como resultado una mayor correlación
positiva entre la información. Conforme una
variable aumenta cierta cantidad, la otra
aumenta en cantidad correspondiente. La
interpretación debe determinarse de acuerdo
con el contexto del estudio.
4. Paso 5: Reporta un valor de correlación
cercano a -1 como indicador de que hay una
relación linear negativa entre las dos
variables. Conforme el coeficiente se acerca a
-1, las variables se vuelven negativamente
más correlacionadas, lo que indica que
conforme una variable aumenta, la variable
disminuye por una cantidad
correspondiente. La interpretación, de
nuevo, debe determinarse de acuerdo con el
contexto del estudio.
Paso 6: Interpreta el coeficiente de
correlación de acuerdo con el contexto de los
datos particulares. El valor de correlación es
esencialmente un valor arbitrario que debe
aplicarse de acuerdo con las variables que se
comparan.
Paso 7: Determina la importancia de los
resultados. Esto se logra con el uso del
coeficiente de correlación, grados de
libertad y una tabla de valores críticos del
coeficiente de correlación. Los grados de
libertad se calculan como el número de las
dos observaciones menos 2. Con este valor,
identifica el valor crítico correspondiente
en la tabla de correlación para una prueba
de 0.05 y 0.01 que identifique 95 y 99 por
ciento de nivel de confiabilidad
respectivamente. Compara el valor crítico
al coeficiente de correlación previamente
calculado. Si el coeficiente de correlación
es mayor, los resultados son importantes.
5. • Permite predecir el valor de una variable, dado
un valor determinado de otra variable.
• Se trata de valorar la asociación de dos variables
cuantitativas estudiando el método conocido
como correlación .
• Dicho calculo es el primer paso para determinar
el valor de dos variables.
• Se usa Para cantidades grandes de información
ya que el calculo suele ser tedioso.
• Determina la importancia de los resultados
• Consiste la posibilidad de calcula la distribución
muestral y así poder mostrar su error típico.
• Reporta un valor de correlación
cercano a ¨0¨ y como un indicador
de que no hay relación lineal entre
dos variables.
6. • Si r = 1, existe una correlación positiva perfecta. El índice
indica una dependencia total entre las dos variables
denominada relación directa: cuando una de ellas aumenta, la
otra también lo hace en proporción constante.
• Si 0 < r < 1, existe una correlación positiva.
• Si r = 0, no existe relación lineal. Pero esto no necesariamente
implica que las variables son independientes: pueden existir
todavía relaciones no lineales entre las dos variables.
• Si -1 < r < 0, existe una correlación negativa.
• Si r = -1, existe una correlación negativa perfecta. El índice
indica una dependencia total entre las dos variables llamada
relación inversa: cuando una de ellas aumenta, la otra
disminuye en proporción constante.
7. • Ejemplo 1 (Máxima covariación positiva)
Observa que los datos tipificados (expresados
como puntuaciones z) en las dos columnas de
la derecha tienen los mismos valores en
ambas variables, dado que las posiciones
relativas son las mismas en las variables X e Y.
Si obtenemos los productos de los valores
tipificados para cada caso, el resultado es:
El cociente de dividir la suma de
productos (5) por N (hay que tener en
cuenta que N es el número de casos, NO
el número de datos) es igual a 1
8. • Ejemplo 2 (Covariación positiva de alta intensidad)
y por tanto
• Ejemplo 3 (Ausencia de
covariación)
• Ejemplo 4 (Covariación negativa de alta
intensidad)
• Ejemplo 5 (Máxima covariación
negativa)
9. Ventajas:
• El valor del coeficiente de correlación
es independiente de cualquier unidad
usada para medir variables.
• Cuando el fenómeno estudiado de dos
variables son cuantitativas se usa el
coeficiente de correlación de Pearson.
• Mientras mas grande sea la muestra
mas exacta será la estimación.
Desventajas:
• El valor cero representa falta de
correlación.
• Requiere supuestos acerca de la naturaleza
o formas de la poblaciones afectadas.
• Requiere que las dos variables hallan sido
medidas hasta un nivel cuantitativo
continuo y que la distribución de ambas
sean semejantes a la de la curva normal.
• En cambio de una correlación nula no
implica la independencia de variables.
10. • Identifica el dependiente variable que se probara entre dos
observaciones derivadas independientemente.
• Uno de los requisitos es que las dos variables que se
comparan deben observarse o medirse de manera
independiente para eliminar cualquier resultado sesgado
• Para cantidades grandes de información el calculo puede
ser tedioso
• Interpreta el coeficiente de correlación de acuerdo con el
contexto de los datos particulares.
• Un valor mayor a cero que se acerque a 1 da como
resultado una mayor correlación positiva entre la
información.
• las pruebas paramétricas mas conocidas y usadas son las
prueba T de Student, la prueba F, llamada asi en honor a
Fisher y el coeficiente de correlación de Pearson,
simbolizado por R.
11. El coeficiente de correlación
de Spearman permite
identificar si dos variables se
relacionan en una función
monótona (es decir, cuando
un número aumenta, el otro
también o viceversa).
el coeficiente de correlación de Spearman, ρ (rho) es
una medida de la correlación (la asociación o
interdependencia) entre dos variables aleatorias
continuas. Para calcular ρ, los datos son ordenados y
reemplazados por su respectivo orden.
El estadístico ρ viene dado por la expresión
donde D es la diferencia entre los correspondientes
estadísticos de orden de x - y. N es el número de
parejas. Se tiene que considerar la existencia de datos
idénticos a la hora de ordenarlos, aunque si éstos son
pocos, se puede ignorar tal circunstancia Para muestras
mayores de 20 observaciones, podemos utilizar la
siguiente aproximación a la distribución t de Student
12. • Para aplicar la correlación de Spearman, se requiere que al menos
las variables estén medidas en al menos escala ordinar, es decir, de
forma que las puntuaciones que la representan puedan ser
colocadas en dos series ordenadas.
• Una generalización del coeficiente de Spearman es útil en la
situación en la cual hay tres o mas condiciones, varios individuos
son observados en cada una de ellas y predecimos que las
observaciones tendrán un orden en particular.
• La formula de calculo para esto puede derivarse de la utilizada en
el caso de RXY; bastaría aplicar el coeficiente de correlación de
Pearson a dos series de puntuaciones ordinales, compuestas cada
una de ellas por los N primeros números naturales.
• A partir de un conjunto de N puntuaciones, la formula que
permite el calculo de la correlación entre dos variables X y Y,
medidas al menos en escala ordinal.
13. Ventajas:
• No esta afectada por los cambios en las
unidades medidas.
• Al ser una técnica no paramétrica, es libre de
distribución probabilística.
• La manifestación de una relación causa-efecto
es posible solo a través de la comprensión de la
relación natural que existe entre las variables y
no debe manifestarse solo por la existencia de
una correlación.
• Los supuestos son menos estrictos. Es robusto a
la presencia de outliers (es decir permite
ciertos desvíos del patrón normal).
Desventajas:
• Hay que tener cuidado al
interpretar el valor de R.
• Es recomendable usarlo cuando los
datos presentan valores externos, ya
que dichos valores afectan mucho el
coeficiente de correlación de
Pearson, o ante distribuciones no
normales.
• R no debe ser utilizado para decir
algo sobre la relación causa y efecto.
14. • Clasificar en rangos cada medición de las observaciones.
• Obtener las diferencias de las parejas de rangos de las
variables estudiadas y elevadas al cuadrado.
• Efectuar la sumatoria de todas las diferencias al cuadrado.
• Aplicar la ecuación:
• Calcular los grados de libertad (gl). gl = número de parejas - 1.
Solo se utilizará cuando la muestra sea mayor a 10.
• Comparar el valor r calculado con respecto a los valores
críticos de la tabla de valores críticos de t de Kendall en
función de probabilidad.
• Decidir si se acepta o rechaza la hipótesis.
Donde:
rs = coeficiente de
correlación de
Spearman.
d2 = diferencias
existentes entre los
rangos de las dos
variables, elevadas al
cuadrado.
N = tamaño de la
muestra expresada en
parejas de rangos de
las variables.
S = sumatoria.
15. • Una Generalización de coeficiente de Spearman es útil en
la situación en la cual hay tres o mas condiciones. Varios
individuos se observaron en cada uno de ellos y
predecimos que las observaciones tendrán un orden en
particular.
• Spearman distingue dos factores: el factor G y el factor S
.El G es la inteligencia general (común a la mayoría de las
personas). El S son las habilidades especificas de la
inteligencia (verbal, numérica, espacial, entre otros).
• La interpretación del resultado del coeficiente de
correlación de Spearma se encuentra entre los valores de -
1 y +1.
• La significación estadística de un coeficiente debe tener
en cuenta conjuntamente con la relevancia clínica del
fenómeno que se estudia.
16. Pearson:
• Paramétrico.
• Permite medir la correlación y
asociación entre dos variables
cuando se trabaja con variables
numéricas con distribución
normal.
• Es calculado en funciones de la
varianza y la covarianza entre
ambas variables.
Spearman:
• No paramétrico
• Es un coeficiente que permite
medir la correlación o
asociación entre dos variables
cuando las mediciones se
realizan en una escala ordinal, o
cuando no existe distribución
normal.
• Se calcula a base de una serie de
rangos asignados.