SlideShare ist ein Scribd-Unternehmen logo
1 von 53
Downloaden Sie, um offline zu lesen
INTRODUCCIÓN A LA PROBABILIDAD
                   Y EL CONTEO


Los métodos estadísticos se utilizan para tomar decisiones basadas en el análisis de

datos recopilados en experimentos de diseño minucioso. Puesto que la ciencia

experimental no puede tener en cuenta toda posible contingencia, siempre habrá algo

de incertidumbre, los métodos estadísticos sirven para evaluar el grado de

incertidumbre de los resultados.



Se los ha clasificado en tres categorías:



 ∗   Estadística descriptiva_ mediante técnicas analíticas y graficas ésta describe o

     representa visualmente un conjunto de datos.

 ∗   Estadística inferencial_ los métodos de la estadística inferencial permiten

     establecer conclusiones acerca de un gran grupo de objetos, observando solo una

     porción de objetos del grupo.

     De lo anterior, se denomina población al grupo total de objetos de los que se

     obtiene conclusiones; y muestra a una parte o subconjunto de la población que se

     obtiene y se usa para extraer las conclusiones de dicha población.

 ∗   Construcción de modelos_ desarrolla ecuaciones predictivas a partir de datos

     experimentales.



INTERPRETACIÓN DE LAS PROBABILIDADES



La probabilidad es un número entre 0 y 1 que indica cuan factible es que ocurra un
evento, si la probabilidad es cercana a 1 indica que es muy factible que ocurra el

evento, si la probabilidad es cercana a 0 indica que poco factible que el evento ocurra,

en ambos casos no signifique que el evento ocurrirá o no ocurrirá sino que se trata de

un evento común en el primer caso y un evento poco usual en el segundo caso.

Si la probabilidad es cercana a 1/2 indica que es igualmente factible que el evento

ocurra o no.



Para interpretar las probabilidades una vez que se conocen, se utilizan tres métodos:



 ∗   El enfoque personal_ asigna una probabilidad al evento en base a la opinión personal

     informada, la desventaja es que la precisión de la asignación depende de la

     exactitud de la información disponible y la capacidad de evaluar de manera

     correcta esa información

 ∗   El de frecuencia relativa_ se basa en la experimentación y observación repetidas,

     la desventaja es que el evento debe ser susceptible de repetirse, toda

     probabilidad obtenida de esta forma es una aproximación

 ∗   El clásico_ éste método puede usarse solamente cuando los posibles resultados del

     experimento son igualmente probables



ESPACIOS MUESTRALES Y EVENTOS



El primer paso en el análisis de muchos experimentos es elaborar una lista de todos

los posibles resultados del experimento, llamada espacio muestral,

Uno de los sistemas para desarrollar el espacio muestral a medida que aumenta el

número de posibilidades es el diagrama de árbol.



Evento_ (en sentido matemático) se denomina así a todo subconjunto de un espacio

muestral.
Eventos mutuamente excluyentes_ se denominan así porque la presencia de un evento

impide la presencia del otro.

PERMUTACIONES Y COMBINACIONES



A medida que el experimento se torna más complejo las listas y árboles se vuelven

inmanejables, por esto se requiere métodos de conteo alternos.

Dos tipos comunes de problemas de conteo son el de permutaciones y el de

combinaciones.

Una permutación es un arreglo de objetos en un orden determinado.

Una combinación es una selección de objetos sin orden alguno.



Conteo de permutaciones



Si se tiene un problema cuyo orden es de total importancia, se pregunta cuántas

permutaciones o arreglos de los objetos dados son posibles, es usual que la respuesta

se la obtenga con el principio de multiplicación.

El principio de multiplicación_ mediante este principio se obtiene el número total de

las formas en que puede ocurrir un evento, se usa en la resolución de problemas de

permutación.

La fórmula para calcular el número de permutaciones de n objetos distintos, de los

cuales se toman r objetos en un momento dado, se expresa en el siguiente teorema:



               Teorema. El numero de permutaciones de n objetos distintos, de los cuales se

               toman r a la vez, denotados con n Pr

                                                           n!
                                                 Pr =
                                                        (n − r )!
                                             n
El principio de multiplicación es la primera opción que deberíamos tomar cuando se

tenga un problema que incluye un orden, natural o impuesto.



Conteo de combinaciones

Los problemas de conteo en que la atención se centra en situaciones en las que el

orden es irrelevante, son problemas de combinaciones



              Teorema. El numero de combinaciones de n objetos distintos, de los cuales se

              seleccionan r a la vez, denotados con n C r o    n  , esta dado por:
                                                               
                                                              r
                                                               

                                                n       n!
                                       n   Cr =   =
                                                 r  r!(n − r )!
                                                 



Para distinguirse entre combinaciones y permutaciones y permutaciones debe

buscarse las palabras claves “seleccionar” y “ordenar”, la primera indica que es un

problema de combinaciones, y la segunda que se busca una permutación.



Permutaciones de objetos que no se diferencian



Las permutaciones de objetos que no se diferencian analizan problemas de

permutaciones en las que es inevitable la repetición, y responde a la pregunta de

cuántos ordenamientos distintos de n objetos son posibles si algunos de los objetos

son idénticos y por lo tanto no se puede diferenciarlos

La formula general del número total de ordenamientos distintos de estos objetos esta

dada por:



                            Permutaciones de objetos que no se diferencian

                                  n!
                                                  n = n1 + n2 + ... + nk
                              n1!n2 !..n K !
La estadística mediante sus métodos: el enfoque personal, el de frecuencia relativa y

el clásico, permiten la asignación de una probabilidad frente a una situación en la que

haya incertidumbre en la respuesta que se desea obtener.

Se puede interpretar el comportamiento de sucesos que se estén estudiando mediante

el análisis de los métodos estadísticos.

Se puede construir modelos en base a los resultados obtenidos.

Para obtener las probabilidades que puede tener un problema expuesto es necesario,

dadas las características del problema, determinar que enfoque probabilístico se va a

utilizar para responder esta pregunta.

La probabilidad del enfoque de la frecuencia relativa es una aproximación, con un

número de ensayos altos pude llegar a ser muy precisa la probabilidad aproximada.

Las permutaciones y combinaciones son métodos de conteo alternos cuando no se

puede calcular la probabilidad con los métodos anteriores.

Con el conteo de permutaciones es posible responder cuantos arreglos de los objetos

dados son posibles.

Con el conteo de combinaciones es posible responder cuantas selecciones de los

objetos dados son posibles con no importa el orden en que se den.

Con las permutaciones de objetos que no se diferencian es posible responder cuantos

ordenamientos distintos de n objetos son posibles si algunos de los objetos no se

pueden diferenciar.
ALGUNAS LEYES DE PROBABILIDAD



AXIOMAS DE PROBABILIDAD



Las definiciones son los términos técnicos del sistema y los axiomas son

afirmaciones que se suponen verdaderas y que por lo tanto no necesitan

comprobación.



                                      Axiomas de probabilidad

                1. Sea S el espacio muestral de un experimento
                                             P[S ] = 1
                2. P[ A] ≥ 0 con cualquier evento A
                3. Sean A1, A2, A3,... es una colección finita o infinita de eventos
                   mutuamente excluyentes.
                   Entonces,
                         P[A1 ∪ A2 ∪ A3 ⋅ ⋅ ⋅] = P[ A1 ] + P[ A2 ] − P[ A3 ] + ⋅ ⋅ ⋅




El axioma 1 expresa que la probabilidad asignada a un evento cierto es S es 1

El axioma 2 expresa que la probabilidades solo valores positivos

El axioma 3 afirma que cuando hay eventos mutuamente excluyentes, la

probabilidad de que ocurra por lo menos uno de ellos es la suma de las

probabilidades de esos eventos.
Por lo tanto una base hecha sobre axiomas y teoremas define lo que es y lo que

hace la probabilidad.




La regla general de la adición



La regla de adición permite calcular la probabilidad de que al menos uno de los

dos eventos tenga lugar cuando no sean por necesidad mutuamente

excluyentes.

La regla de adición relaciona a las operaciones de unión e intersección.


                               Regla general de la adición

                        P[A1 ∪ A2 ] = P[ A1 ] + P[ A2 ] − P[A1 ∩ A2 ]




Si se conoce P[A1 ∩ A2 ] , es posible usar la regla de adición para calcular

P[A1 ∪ A2 ]




PROBABILIDAD CONDICIONAL



La probabilidad condicional sirve para determinar la probabilidad de que ocurra

el evento A2 “condicionado” al supuesto de que ha tenido lugar otro evento, A1.

“si” y “dado que” son palabras claves que identifican una pregunta condicional.
Definición (probabilidad condicional). Sean A1 y A2 eventos
                             [        ]
                  tales que P A2 A1 y se define con la fórmula siguiente


                                                        P[ A1 ∩ A2 ]
                                          P[A2 A1 ] =
                                                           P[ A1 ]



Donde P[ A1 ] es la probabilidad de que ocurra el evento dado y

 P[ A1 ∩ A2 ] la probabilidad de que tengan lugar tanto el evento dado como el

evento en cuestión


Ejemplo: se tira un dado y sabemos que la probabilidad de que salga un 2 es

1/6. Si incorporamos nueva información (por ejemplo, alguien nos dice que el

resultado anterior ha sido un número par) entonces la probabilidad de que el

resultado sea el 2 ya no es 1/6 sino un 1/3 aplicando la definición de

probabilidad condicional




INDEPENDENCIA Y LA REGLA DE LA MULTIPLICACIÓN



           Definición (eventos independientes).     Los eventos A1 y A2 son
           independientes si y sólo si

                                 P[A1 ∩ A2 ] = P[A1 ]P[A2 ]



Esta definición es útil para calcular la probabilidad de que ocurran dos eventos

cuando son claramente independientes.
En este caso recibir la información de que ocurrió el evento A1 no tiene efecto

alguno en la probabilidad asignada al evento A2



Este teorema sirve para comprobar la independencia entre dos eventos



           Teorema. Sean A1 y A2 eventos tales que por lo menos P[ A1 ] o
             P[A2 ] difieren de cero. A1 y A2 son independientes si y sólo si:
                      P[A2 A1 ] = P[ A2 ]       si P[A1 ] ≠ 0     y
                        P[A2 A1 ] = P[ A1 ]         si P[ A2 ] ≠ 0




Esta definición tiene el propósito de servir como forma de cálculo de la

probabilidad de que ocurra una serie de eventos supuestamente independientes

           Definición. Sea C = {Ai : i = 1,2,⋅ ⋅ ⋅, n} un conjunto finito de
           eventos. Estos eventos son independientes si y sólo si dado
           cualquier subconjunto A(1) , A(2 ) ,⋅ ⋅ ⋅, A(m ) de elementos de C:


                    [                          ] [ ][ ]                  [ ]
                  P A(1) ∩ A(2 ) ∩ ⋅ ⋅ ⋅ ∩ A(m ) = P A(1) P A(2 ) ⋅ ⋅ ⋅ P A(m )



Para usar la definición anterior hay que tener la certeza de que es razonable

suponer que los eventos son independientes antes de aplicarla al calculo de la

probabilidad de que ocurra una serie de eventos.




Ejemplo: la probabilidad de que al tirar una moneda salga cara (suceso B),
condicionada a la probabilidad de que haga buen tiempo (suceso A), es igual a
la propia probabilidad del suceso B.
LA REGLA DE LA MULTIPLICACIÓN



La regla de la multiplicación es otra forma de calcular la probabilidad de que

ocurran simultáneamente dos eventos si no son independientes.




                              Regla de la multiplicación

                             P[A1 ∩ A2 ] = P[A2 A1 ]P[ A1 ]




TEOREMA DE BAYES



                   Teorema (teorema de Bayes). Sean A1 , A2 , A3 , ... , An un
                   conjunto de eventos mutuamente excluyentes, cuya union es S Sea
                   B eventos tal que P[B ] ≠ 0 Entonces, para cualquier evento Aj,con
                   j = 1,2,3,...,n, se tiene que:


                                        [
                                      P Aj B =]
                                                         [ ][ ]
                                                    P B Aj P Aj

                                                  ∑ P[B A ]P[A ]
                                                   n

                                                              i   i
                                                  i =1



El Teorema de Bayes resuelve lo que se conoce como probabilidad inversa. Esto

significa que, contrario a la probabilidad clásica, donde lo que se busca es

conocer la probabilidad que se dé un evento de un total de casos conocidos, la

probabilidad inversa busca saber la probabilidad de lo contrario.




Ejemplo: El parte meteorológico ha anunciado tres posibilidades para el fin de

semana:
a) Que llueva: probabilidad del 50%.

b) Que nieve: probabilidad del 30%

c) Que haya niebla: probabilidad del 20%.

Según estos posibles estados meteorológicos, la posibilidad de que ocurra un

accidente es la siguiente:


a) Si llueve: probabilidad de accidente del 10%.

b) Si nieva: probabilidad de accidente del 20%

c) Si hay niebla: probabilidad de accidente del 5%.


Resulta que efectivamente ocurre un accidente y como no estábamos en la

ciudad no sabemos que tiempo hizo (nevó, llovió o hubo niebla). El teorema de

Bayes nos permite calcular estas probabilidades:


Las probabilidades que manejamos antes de conocer que ha ocurrido un

accidente se denominan quot;probabilidades a prioriquot; (lluvia con el 60%, nieve con

el 30% y niebla con el 10%).


Una vez que incorporamos la información de que ha ocurrido un accidente, las

probabilidades del suceso A cambian: son probabilidades condicionadas P (A/B),

que se denominan quot;probabilidades a posterioriquot;.


Vamos a aplicar la fórmula:


   [    ]
 P Aj B =
                   [ ][ ]
              P B Aj P Aj

            ∑ P[B A ]P[A ]
             n

                      i      i
            i =1


a) Probabilidad de que estuviera lloviendo:
La probabilidad de que efectivamente estuviera lloviendo el día del accidente

(probabilidad a posteriori) es del 71,4%.


b) Probabilidad de que estuviera nevando:

La probabilidad de que estuviera nevando es del 21,4%.

c) Probabilidad de que hubiera niebla:

La probabilidad de que hubiera niebla es del 7,1%.
DISTRIBUCIONES DISCRETAS

Las distribuciones discretas son aquellas en las que la variable puede pude

tomar un número determinado de valores:


Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un

dado puede salir un número de 1 al 6; en una ruleta el número puede tomar un

valor del 1 al 32.


Las distribuciones continuas son aquellas que presentan un número infinito de

posibles soluciones:


Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos

valores dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc);

la esperanza media de vida de una población (72,5 años, 7,513 años, 72, 51234

años).


∗ Variable es una magnitud que puede tener un valor cualquiera de los

  comprendidos en un conjunto.




VARIABLES ALEATORIAS




              Definición (variable aleatoria discreta). Una variable aleatoria
              es discreta si puede asumir cuando mucho un número finito o uno
              infinito contable de valores posibles.
Una variable aleatoria no es discreta cuando se pregunta              “¿Cuáles son los

valores posibles de la variable?” Esto indica que el conjunto de posibilidades

abarca un intervalo o un conjunto continuo de números reales




DENSIDADES DE PROBABILIDAD DISCRETAS




La función de distribución discreta y función de distribución acumulativa se

usan para lograr en algún sentido predecir los valores que probablemente

asumirá la variable en un momento dado


La densidad indica la probabilidad de que X asuma el valor específico de x




           Definición (densidad discreta). Sea X una variable aleatoria
           discreta. La función f esta dada por:

                                    f ( x ) = P[ X = x ]

           para el número real x se llama función de densidad de X




Las dos condiciones siguientes afirman que una función f sea de densidad

discreta



               Condiciones necesarias y suficientes para que una función sea
                                 una densidad discreta.

                                        1. f ( x ) = P
                                        2. ∑ f ( x ) = 1
                                           ∀x
DISTRIBUCIÓN ACUMULATIVA



Esta función suma o acumula las probabilidades calculadas por medio de la

densidad.




            Definición (distribución acumulativa: discreta).    Sea X una
            variable aleatoria discreta con densidad f. La función de
            distribución acumulativa de X, denotada con F, se define con la
            fórmula siguiente:

              F ( x) = P[X ≤ x ]     para todo número real x




La distribución acumulativa indica la probabilidad de que X tenga un valor

menor o igual a x




ESPERANZA Y PARÁMETROS DE UNA DISTRIBUCIÓN




            Definición (valor esperado).        Sea X una variable aleatoria
            discreta con densidad f.
            Sea H(X) una variable aleatoria. El valor esperado de H(X), que se
            denota con E [H ( X )] , esta dado por
                                   E [H ( X )] = ∑ H ( x) f ( x)
                                                 ∀x

            Siempre y cuando ∑ H ( x) f ( x) sea finita. La suma abarca
                                    ∀x
            todos los valores de X que ocurran con probabilidad distinta de
            cero.
En el caso especial de que H(X)=X, el valor esperado de X se obtiene por:




                                 Valor esperado de X

                                 E [X ] = ∑ xf ( x )
                                           ∀x




           Teorema (reglas de la esperanza). Sean X y Y variables aleatorias y
           sea c cualquier número real.

              1. E[c]= c (El valor esperado de toda constante es esa
                 constante.)
              2. E[cX]= cE[X] (Las constantes se pueden factorizar a partir
                 de las esperanzas.)
              3. E[X+Y] = E[X]+ E[Y] (El valor esperado de una suma es
                 igual a la suma de los valores esperados.)



∗ Ejemplo: Sean X y Y variables aleatorias, con E[X] = 3 y E[Y] = 4.



                    E[5X-3Y+8] = E5[X]+E[-3Y]+E[8]

                                    = 5E[X]+(-3)E[Y]+E[8]

                                    = 5E[X]-3E[Y]+8

                                    = 5(3)-3(4)+8

                                    = 11
VARIANZA Y DESVIACIÓN ESTÁNDAR



∗ La media es una medición del centro de localización de la distribución.



∗ La varianza y la desviación estándar miden la variabilidad de la variable

  aleatoria en torno a su media



                Definición (varianza). Sean X una variable aleatoria con media
                µ . La varianza de X, denotada como Var X o σ 2     , esta dada
                por

                                                 [(
                               VarX = σ 2 = E X − µ 2       )]



                Teorema (fórmula de cálculo de   σ2)

                          σ 2 = VarX = E [X 2 ]− (E [X ])2



∗ Varianza es la media de las desviaciones cuadráticas de una variable

  aleatoria, referidas al valor medio de esta.




                Definición (desviación estándar). Sean X una variable aleatoria con
                varianza σ . La desviación estándar de X, denotada con
                           2
                                                                         σ   , esta
                dada por:


                                   σ = VarX = σ 2
∗ La desviación estándar esta dada por la raíz cuadrada no negativa de la

  varianza



  La desviación estándar es una medición de variabilidad




DISTRIBUCIÓN BINOMIAL


La distribución binomial parte de la distribución de Bernoulli:


La distribución de Bernoulli se aplica cuando se realiza una sola vez un

experimento que tiene únicamente dos posibles resultados (éxito o fracaso),

por lo que la variable sólo puede tomar dos valores: el 1 y el 0


La distribución binomial se aplica cuando se realizan un número quot;nquot; de veces el

experimento de Bernoulli, siendo cada ensayo independiente del anterior. La

variable puede tomar valores entre:


0: si todos los experimentos han sido fracaso

n: si todos los experimentos han sido éxitos


Ejemplo: se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido

ninguna la variable toma el valor 0; si han salido dos caras la variable toma el

valor 2; si todas han sido cara la variable toma el valor 10
La distribución de probabilidad de este tipo de distribución sigue el siguiente

modelo:


                                   Distribución binomial

                                                    k
                                       k!(n − k )!  p (1 − p )
                                            n!                  n−k
                         P( x = k ) =              
                                                   




Ejemplo: ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10

veces?


quot; k quot; es el número de aciertos. En este ejemplo quot; k quot; igual a 6


quot; nquot; es el número de ensayos. En este ejemplo son 10


quot; p quot; es la probabilidad de éxito, es decir, que salga quot;caraquot; al lanzar la moneda.

Por lo tanto p = 0,5


La fórmula quedaría:


                                                  k
                                                  0.5 (1 − 0.5)
                                          10!                   10 −6
                       P ( x = 6) = 
                                     6!(10 − 6)! 
                                                 
                       P (x = 6 ) = 0 ,205

Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10

veces una moneda
DISTRIBUCIÓN BINOMIAL NEGATIVA



La distribución binomial negativa es una distribución de probabilidad discreta.

La distribución binomial negativa es lo inverso de la distribución binomial

En esta distribución la variable aleatoria el número de ensayos es fijo y el

número de ensayos cambia de un experimento a otro

∗ Un experimento consiste en una serie de ensayos, cuando al resultado de

  cada ensayo lo podemos clasificar como éxito o fracaso el ensayo se

  denomina ensayo de Bernoulli



Las siguientes propiedades caracterizan las situaciones en las que surge la

variable aleatoria binomial negativa



   -   El experimento consiste en una serie de ensayos de Bernoulli

       independientes e idénticos con probabilidad p de éxito

   -   Los ensayos se observan hasta obtener exactamente r éxitos, el valor de

       r lo fija el que realiza el experimento

   -   La variable aleatoria X es el número de ensayos que se necesitan para

       lograr los r éxitos.




DISTRIBUCIÓN HIPERGEOMÉTRICA



Propiedades que caracterizan a la distribución hipergeométrica

   -   El experimento consiste en extraer una muestra aleatoria de tamaño n

       sin
Reemplazo y sin considerar su orden, e un conjunto de N objetos.

   -   De los N objetos, solo r posee el rasgo que interesa

   -   La variable aleatoria X es el número de objetos de la muestra que posee

       el rasgo


La distribución hipergeométrica es el modelo que se aplica en experimentos

del siguiente tipo:


En una urna hay bolas de dos colores (blancas y negras), ¿cuál es la

probabilidad de que al sacar 2 bolas las dos sean blancas?


Son experimentos donde, al igual que en la distribución binomial, en cada

ensayo hay tan sólo dos posibles resultados: o sale blanca o no sale. Pero se

diferencia de la distribución binomial en que los distintos ensayos son

dependientes entre sí:


Si en una urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola

blanca, en el segundo ensayo hay una bola blanca menos por lo que las

probabilidades son diferentes (hay dependencia entre los distintos ensayos).


La distribución hipergeométrica sigue el siguiente modelo:



               Definición (definición hipergeométrica). Una variable aleatoria
               X tiene distribución hipergeométrica con parámetros N, n y r si su
               densidad está dada por:
                                                r  N − r 
                                                
                                                x  n − x 
                                                            
                                      f ( x) =           
                                                    N
                                                     
                                                    n
                                                     
               Donde N, r y n son enteros positivos.
Donde explicándolo con el experimento dado:


N: es el número total de bolas en la urna


N1=>r: es el número total de bolas blancas


N2=>N-r: es el número total de bolas negras


x: es el número de bolas blancas cuya probabilidad se está calculando


n: es el número de ensayos que se realiza


Ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es

la probabilidad de que 3 sean blancas?


Entonces: N = 12; N1 = 7; N2 = 5; k = 3; n = 4


Si aplicamos el modelo:


                                            7 5
                                              
                                            3 1
                               P ( x = 3) =    
                                              12 
                                              
                                             4
                                              


Tenemos que, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas

blancas es del 35,3%.
DISTRIBUCIÓN DE POISSON



La distribución de Poisson parte de la distribución binomial:

Cuando en una distribución binomial se realiza el experimento un número quot;nquot;

muy elevado de veces y la probabilidad de éxito quot;pquot; en cada ensayo es

reducida, entonces se aplica el modelo de distribución de Poisson.
Se tiene que cumplir que:
                                         quot; p quot; < 0,10
                                        quot; p * n quot; < 10

La distribución de Poisson sigue el siguiente modelo:



              Definición (distribución de Poisson). Una variable aleatoria X
              tiene distribución de Poisson con parámetros k si su densidad f está
              dada por:

                                    e −k k x
                           f ( x) =                     x = 0,1,2,...
                                       x!
                                                      k >0



Donde:

e = 2,71828

k = n * p (es decir, el número de veces quot; n quot; que se realiza el experimento

multiplicado por la probabilidad quot; p quot; de éxito en cada ensayo)

x => es el número de éxito cuya probabilidad se está calculando


Ejemplo: La probabilidad de tener un accidente de tráfico es de 0,02 cada vez

que se viaja, si se realizan 300 viajes, ¿cual es la probabilidad de tener 3

accidentes?
Como la probabilidad quot; p quot; es menor que 0,1, y el producto quot; n * p quot; es menor

que 10, entonces aplicamos el modelo de distribución de Poisson.


                                             e −6 6 3
                              P ( x = 3) =
                                                3!

                              P (x = 3) = 0,0892

Por lo tanto, la probabilidad de tener 3 accidentes de tráfico en 300 viajes es

del 8,9%
DISTRIBUCIONES CONTINUAS




Las distribuciones continuas son aquellas que presentan un número infinito de

posibles soluciones.




LA DISTRIBUCIÓN UNIFORME


Es aquella que puede tomar cualquier valor dentro de un intervalo, todos ellos

con la misma probabilidad.


Es una distribución continua porque puede tomar cualquier valor y no

únicamente un número determinado, como ocurre en las distribuciones

discretas.




DISTRIBUCIÓN NORMAL


Es el modelo de distribución más utilizado en la práctica, ya que multitud de

fenómenos se comportan según una distribución normal.


Esta distribución de caracteriza porque los valores se

distribuyen formando una campana de Gauss, en torno a un
valor central que coincide con el valor medio de la

distribución:




Un 50% de los valores están a la derecha de este valor central y otro 50% a la

izquierda


Esta distribución viene definida por dos parámetros:


-> El valor medio de la distribución y es precisamente donde se sitúa el centro

de la urva (de la campana de Gauss).


-> La varianza. Indica si los valores están más o menos alejados del valor

central: si la varianza es baja los valores están próximos a la media; si es alta,

entonces los valores están muy dispersos.


Cuando la media de la distribución es 0 y la varianza es 1se denomina quot;normal

tipificadaquot;, y su ventaja reside en que hay tablas donde se recoge la

probabilidad acumulada para cada punto de la curva de esta distribución.
DISTRIBUCIÓN NORMAL ESTÁNDAR


Hay un número ilimitado de distribuciones de probabilidad normal, aunque

afortunadamente      todas   están    relacionadas     con   una   distribución,   la

distribución normal Estándar.



 Propiedades de la Distribución Normal Standard

  • El área total bajo la curva normal es igual a 1.

  • La distribución tiene forma de campana y es simétrica; se extiende en

  ambas direcciones y el eje x es su asíntota.

  • Tiene media igual a 0 y desviación estándar igual a 1.

  • La media divide el área en dos mitades.




DISTRIBUCION PROBABILIDAD GAMA.


Esta distribución se emplea de manera extensa en una gran variedad de áreas;

por ejemplo, para representar el tiempo aleatorio de falla de un sistema que

falla sólo si de manera exacta los componentes fallan y la falla de cada

componente ocurre con una frecuencia constante λ=1/β por unidad de tiempo.


La distribución Gamma es versátil puesto que exhibe varios perfiles que

dependen del valor del parámetro α, para α ≤1 la distribución Gamma tiene un

perfil en forma de J transpuesta. Para α>1, presenta un pico que ocurre en x =β

(α-1).
Los tiempos que tardan en revisar un motor de un automóvil ó avión tienen una

distribución de frecuencias sesgadas. Las poblaciones asociadas a estas

variables aleatorias frecuentemente tienen distribuciones que se pueden

modelar adecuadamente por la función de densidad tipo gamma.


Función de densidad de probabilidad para una variable aleatoria tipo gamma:



                                α , β > 0;0 ≤ y ≤ α


                                             yα −1e − y / β
                                  f ( y) =
                                              β ατ (α )


En donde:

                                         α              −y
                               τ (α ) = ∫ y α −1 e            dy
                                         0




La cantidad de la de la función alfa se conoce como la función gamma. La

integración directa nos da que la función uno igual a uno. La integración por

partes nos da que la función de alfa menos uno alfa menos uno por la función

alfa menos uno para cualquier intervalo de alfa mayor o igual a uno y que la

función de n sea igual a n menos uno factorial, para un número entero n.


En el caso especial cuando alfa es un número entero, se puede expresar la

función de distribución de una variable aleatoria tipo gamma como una suma de

ciertas variables aleatorias de Poisson.


Si alfa no es un número entero, es imposible encontrar la antiderivada del

integrando de la expresión:
0 < c < d <α


                 donde


                                d   y α −1 e − y / β
                            ∫
                            c        β α τ (α )
                                                     dy



Y por lo tanto es importante obtener las áreas bajo la función de densidad tipo

gamma mediante integración directa.




DISTRIBUCIÓN EXPONENCIAL


Devuelve la probabilidad de una variable aleatoria continua siguiendo una

distribución exponencial.           Se usa para la planeación del tiempo entre dos

sucesos.


Esta distribución se puede usar en diversos casos tales como: el tiempo que

tardara una maquina de cajero automático en entregar efectivo. Esta función

puede usarse para determinar la probabilidad de que el proceso tarde como

máximo un minuto.


La función de densidad gamma para el caso especial siguiente, se denomina

función de densidad exponencial.


                            β > 0;0 ≤ y < ∞
−y/β
                                     1
                          f ( y) =       e
                                     β


En cualquier punto.


La función de densidad exponencial muchas veces es útil en los modelos de

duración de componentes eléctricos.


Un fusible es un ejemplo de un componente para el cual este supuesto suele

cumplirse.


La ecuación de la distribución exponencial es:



                                               f ( x; λ ) = λe − λx



La distribución exponencial puede modelar el lapso entre dos eventos

consecutivos de Poisson que ocurren de manera independiente y a una

frecuencia constante. Esta distribución se emplea con bastante frecuencia con

el objeto de modelar problemas del tipo tiempo-falla y como modelo para el

intervalo en problemas de líneas de espera.


La distribución exponencial es conocida por no tener memoria, es decir, la

probabilidad de ocurrencia de eventos presentes o futuros no depende de los

que hayan ocurrido en el pasado. De esta forma, la probabilidad de que una

unidad falle en un lapso específico depende nada más de la duración de éste, no

del tiempo en que la unidad ha estado en operación.
DESIGUALDADES DE CHEBYSHEV



Esta desigualdad nos sirve para estimar probabilidades cuando disponemos de

una distribución de probabilidad de una variable aleatoria cuyos valores estén

ordenados de forma creciente.

La desigualdad de Chebyshev es un resultado estadístico que ofrece una cota

inferior a la probabilidad de que el valor de una variable aleatoria con varianza

finita esté a una cierta distancia de su esperanza matemática o de su media;

equivalentemente, el teorema proporciona una cota superior a la probabilidad

de que los valores caigan fuera de esa distancia respecto de la media. El

teorema es aplicable incluso en distribuciones que no tienen forma de quot;curva

de campanaquot; y acota la cantidad de datos que están o no quot;en medioquot;.




DISTRIBUCIÓN WEIBULL



La distribución Weibull fue establecida por el físico del mismo nombre, quien

demostró, con base en una evidencia empírica, que el esfuerzo al que se

someten los materiales puede modelarse de manera adecuada mediante el

empleo de esta distribución. Esta distribución se empleo como modelo para

situaciones del tipo tiempo-falla y con el objetivo de lograr una amplia variedad

componentes mecánicos y eléctricos.
Devuelve la probabilidad de una variable aleatoria siguiendo una distribución de

Weibull.   Esta distribución se aplica en los análisis de fiabilidad, para

establecer, por ejemplo, el periodo de vida de un componente hasta que

presenta una falla.
DISTRIBUCIONES CONJUNTAS


Para resolver problemas en los que intervienen simultáneamente 2 variables es
necesario estudiar las variables aleatorias bidimensionales o variables
aleatorias divariadas de tipo discreto y continuo.

  Una variable aleatoria asocia un número con cada resultado del experimento
  aleatorio. Es aleatoria porque al no conocer el resultado del experimento
  antes de realizarlo, tampoco conocemos el valor que va a tomar la variable.

  Una variable aleatoria es discreta si puede asumir cuando mucho un Número
  finito o uno infinito contable de valores posibles Ejemplo: número de piezas
  defectuosas

  Una variable aleatoria es continua si en su rango              contiene un intervalo.
  Ejemplo: duración batería.




DENSIDAD DISCRETA CONJUNTA.


       Definición.- Sean X y Y variables aleatorias discretas. El par
       ordenado (X;Y) se denomina variable aleatoria discreta
       bidimensional. La función fXY se denomina variable aleatoria
       discreta bidimensional. La función fXY :

                             f XY ( x, y ) = P[X = x Λ Y = y ]

       se llama densidad conjunta de (X,Y)
El propósito de la densidad es el cálculo de la probabilidad de que la variable
aleatoria (X,Y) asuma valores específicos.

La densidad conjunta de (X,Y) es no negativa, puesto que representa una
probabilidad

La distribución de probabilidad conjunta de (X, Y), mide la probabilidad de que
los dos resultados, x e y, ocurran al mismo tiempo.




           Condiciones necesarias y suficientes para que una función sea
                          una densidad discreta conjunta

                              f       XY   (x, y) ≥ 0.
                             ∑ ∑  x        y
                                               f   XY   (x, y) = 1




DISTRIBUCIONES MARGINALES

Cuando se trabaja con más de una variable y se quiere calcular las
distribuciones de frecuencias de cada una de manera independiente, tenemos
las distribuciones marginales.

Podemos encontrar la densidad marginal de la variable aleatoria X sumando
sobre todos los posibles valores de la variable aleatoria Y:


                            f X (x) = ∑ f XY ( x, y )
                                               y

Igualmente podemos encontrar la densidad marginal de la variable aleatoria Y
sumando sobre todos los posibles valores de la variable aleatoria X:


                             f Y (y) = ∑ f XY ( x, y )
                                               x
A través de la distribución conjunta, podremos encontrar la función de
probabilidad condicional de la otra variable, condicional al valor que tomó la
variable.



INDEPENDENCIA

Dos variables son independientes cuando la información de que ha ocurrido uno
de ellos no aporta indicios sobre las probabilidades de que ocurra el otro.

Se dirá que las variables aleatorias X e Y son independientes si y sólo si se
verifica que la función de distribución conjunta fXY es igual al producto de sus
distribuciones marginales


      Variables aleatorias independientes.- Sean X y Y variables
      aleatorias con densidad conjunta fXY y densidades marginales fX y
      fY, respectivamente. X y Y son independientes si y solo si:

                             f XY ( x, y ) = f X ( x) f Y ( y )

      para todos los valores de x y y.




ESPERANZA Y COVARIANZA

La esperanza condicional proporciona el valor esperado de una variable cuando
conocemos los valores que han tomado las otras variables de las cuales
depende.


La covarianza es útil para describir el comportamiento de una variable en
relación a otra

La covarianza describe y mide la relación lineal entre dos variables aleatorias,
se define como
Cov(X,Y) = E[(X - µX)(Y - µY)]

                              Cov(X,Y) = E[XY]-E[X]E[Y]

Si la Cov(x,y) es positiva si los valores altos de X están asociados a los valores
altos de Y y viceversa.

Si la Cov(x,y) es negativa si los valores altos de X están asociados a los valores
bajos de Y y viceversa.

Si X e Y son variables aleatorias independientes Cov(x,y) = 0 .

La independencia es condición suficiente pero no necesaria para que la Cov(x,y) sea nula.



CORRELACIÓN

•   La correlación es una técnica estadística usada para determinar la relación
    entre dos o más variables

•   El coeficiente de correlación nos permite valorar si ésta es fuerte o débil,
    positiva o negativa.

•   La correlación puede ir de -1 a 1. Las correlaciones de signo negativo indican
    relación inversa; las de signo positivo, relación directa.
    Si el coeficiente es positivo, significa que cuando una variable aumenta, la
    otra también. Si el coeficiente es negativo, significa que cuando una variable
    aumenta, la otra disminuye (esto se suele denominar correlación quot;inversaquot;).

•   Una correlación igual a 0 indica que no existe relación entre las variables. El
    grado de relación lo da el valor absoluto de la correlación.

•   El coeficiente de correlación es igual a la covarianza dividida por la raíz
    cuadrada del producto de la varianzas de X y Y




                      Coeficiente de correlación de Pearson.

                                           Cov( X , Y )
                                ρ XY =
                                         (Var X )(Var Y )
Por ejemplo, la estatura y el peso se encuentran relacionados: las personas más
altas suelen pesar más que las más bajas, pero la relación no es perfecta, es
decir personas de igual altura que no pesan lo mismo y, a veces, una persona
más baja pesa más que una más alta



Existen caracteres que ni son independientes, ni se da entre ellos una relación
de dependencia funcional, pero si se percibe una cierta relación de
dependencia entre ambos; se trata de una dependencia estadística.

Cuando los caracteres son de tipo cuantitativo, el estudio de la dependencia
estadística se conoce como el problema de “regresión”, y el análisis del grado
de dependencia que existe entre las variables se conoce como el problema de
correlación.



REGRESIÓN

Cuando se estudian dos características simultáneamente sobre una muestra, se
puede considerar que una de ellas influye sobre la otra de alguna manera.
El objetivo principal de la regresión es descubrir el modo en que se relacionan.

Por ejemplo, en una tabla de pesos y alturas de 10 personas se puede suponer
que la variable “Altura” influye sobre la variable “Peso” en el sentido de que
pesos grandes vienen explicados por valores grandes de altura.

De las dos variables a estudiar, se denomina a     X VARIABLE
INDEPENDIENTE o EXPLICATIVA, y a Y como VARIABLE DEPENDIENTE o
EXPLICADA.

Por ejemplo, se anota el tiempo de estudio (en horas) y la nota de examen de
cada alumno de una clase.

En este caso un pequeño tiempo de estudio tenderá a obtener una nota más
baja, y una nota buena indicará que tal vez el alumno ha estudiado mucho. Para
determinar qué variable explica a la otra, está claro que el “tiempo de estudio”
explica la “nota de examen” y no al contrario, pues el alumno primero estudia un
tiempo que puede decidir libremente, y luego obtiene una nota en la que ya no
puede decidir arbitrariamente. Por tanto,

X = Tiempo de estudio (variable explicativa o independiente)
Y = Nota de examen (variable explicada o dependiente)
ESTADISTICA DESCRIPTIVA


La estadística descriptiva es el conjunto de técnicas diseñadas para recoger,

organizar, resumir y analizar los datos obtenidos para poder extraer

conclusiones sobre el comportamiento de las variables que se esta estudiando,

para tener un mayor conocimiento y poder tomar decisiones futuras, en las que

tener un conocimiento de su comportamiento pasado es de mucha utilidad.


El conjunto de todos los elementos que aportan información sobre la

investigación que se quiera realizar se denomina población, cuando estos

elementos son demasiado extensos, y la recolección de todos los datos no es

posible por el gran costo que represente en recursos (tiempo,dinero), lo que se

hace es tomar un subconjunto representativo del conjunto total para poder

obtener información, que refleje las características de la población, a este

subconjunto se lo denomina muestra. Individuo es cada uno de los elementos

objeto de estudio, que componen la población y Variable es cada una de las

características que se quieren estudiar sobre la población.


Así, si se estudia la preferencia por una marca de cualquier producto, se

recoge información de un subgrupo (muestra) que sea suficientemente

representativo para poder sacar conclusiones sobre cual es la marca preferida

por los consumidores(población) cada consumidor se denomina individuo y la

característica de conocer cual es preferencia     es la variable que se quiere

estudiar.


Tipos de variables estadísticas
Cualitativas o atributos. Son las que expresan cualidades de los individuos y no
toman valores numéricos (color de ojos, aceptable o defectuoso…).
Cuantitativas. Son las que expresan cantidades de los individuos, toman valores
numéricos.

   Cuantitativas discretas. Pueden tomar puntos aislados como valor, el
   conjunto de valores es finito o infinito numerable (número de compras en un
   mes).
   Cuantitativas continuas. Pueden tomar cualquier valor en algún intervalo o
   entre dos números reales (tiempo transcurrido entre la llegada de dos
   autobuses).


TABLA DE DISTRIBUCIÓN DE FRECUENCIAS

Frecuencia absoluta (ni) de una variable estadística es el número de veces que

cada valor de la variable se repite.

Cuando los atributos no se corresponden con una escala ordinal es conveniente

ordenarlos por su frecuencia de aparición. Si se trata de una variable

cuantitativa se ordenará por el orden de los valores que toma.

La frecuencia absoluta por sí sola no da una idea de la importancia o relevancia

de los datos obtenidos.

Frecuencia relativa (fr(xi)). La frecuencia relativa del valor xi es el cociente

entre la frecuencia absoluta y el número total de datos.



                                         n º veces que se observa x i
                          f r ( xi ) =         n º total de datos

Se pueden multiplicar por 100 y así obtener porcentajes

Frecuencia absoluta acumulada (Ni).- es el resultado de acumular las

frecuencias absolutas.
Frecuencia relativa acumulada (Fi).- es el resultado de acumular las frecuencias

relativas.

Se puede dar que el porcentaje acumulado puede no sumar 100, debido a

errores de redondeo.


DATOS AGRUPADOS

Cuando el número de valores distintos que toma una variable discreta es grande
o cuando ésta sea continua, es conveniente agruparlos en clases.
Para realizar la subdivisión por clases se tiene que:

♣ Redondearlos datos, a lo sumo, tres cifras significativas y elegir las unidades
 de medida para que los datos tengan tres cifras enteras, siempre que sea
 posible.

♣ Decidir el número de clases entre 5 y 20. El número de clases es el entero
 más próximo a n , siendo n el número de datos. Es conveniente probar con
 varios y seleccionar la representación más clara.

♣ Sepuede utilizar la siguiente tabla para determinar el número de clases en
 función del tamaño de la muestra.

  Si n<16 el número de datos se considera insuficiente.

                         Número recomendado de clases en función
                                del tamaño de la muestra
                               <16       Insuficiente
                              16-31            5
                             32-63             6
                             64-127            7
                            128-255            8
                          256-511              9
                          512-1023            10
                          1024-2047           11
                          2048-4095           12
                          4096-8190           13
♣ Seleccionar  los límites de clase, que definirán los intervalos y la longitud de
  los mismos. Las observaciones se deben clasificar en una única clase sin
  ambigüedad.
♣ Contar el número de observaciones de cada clase para obtener la frecuencia
  absoluta de la clase.

Rango de datos =máximo – mínimo.
Rango / nº clases = valor mínimo de amplitud para cubrir el rango.
Para asegurarse de que ningún valor cae en el límite se comienza la primera
clase ligeramente inferior al mínimo. Entonces la amplitud deberá ser un poco
mayor que el cociente obtenido.

El límite inferior se puede escoger ½ por debajo del mínimo.

Medidas características de una distribución

Cuando disponemos de un conjunto de datos homogéneo de una variable
cuantitativa, resulta conveniente completar la distribución de frecuencias con
ciertas medidas resumen.

   Medidas de tendencia central o centralización. Indican el valor medio de los
   datos.
   Medidas de dispersión. Miden su variabilidad.
   Medidas de forma. Miden el grado de simetría y concentración de la
   distribución.

MEDIDAS DE LOCALIZACIÓN

Media poblacional, µ, es el valor medio de la variable sobre toda la población.

Mediana poblacional, M, aproximadamente el 50% de los valores de la
población están en o por debajo de la mediana y el resto por encima de M.

Los parámetros poblacionales son desconocidos y no pueden hallarse, pero es
posible estimarlos a partir de una muestra, mediante la media muestral y la
mediana muestral ( x , ~ )
                       x
Media muestral Sean x1,x2,…,xn un conjunto de n observaciones de la variable
x. A la media aritmética de estos valores se le llama media muestral.
                                                     n

                                                   ∑x          i
                                              x=    i =1

                                                          n

Diferencias entre la media y la mediana

La mediana tiene la ventaja de ser una medida resistente, es decir, una medida
que se ve afectada sólo ligeramente por valores atípicos, valores alejados del
resto de los datos. Mientras que la media muestral se ve muy afectada por
este tipo de valores.
La media tiene la ventaja de tener en cuenta todas las observaciones, mientras
que la mediana sólo tiene en cuenta el orden de las mismas y no su magnitud.

MEDIDAS DE DISPERSIÓN O VARIABILIDAD

Se busca un estadístico que cumpla que cuando los datos están agrupados
alrededor
de la media, éste sea pequeño y que cuando los datos están distribuidos de
manera

amplia, su valor sea grande.

       Parámetros poblacionales                    Parámetros muestrales. Estadísticos
                                   2
        Varianza                  σ                  Varianza muestral            s2
     Desviación típica            σ               Desviación típica muestral      s
       poblacional
   Rango intercuartílico          IQR                Rango intercuartílico       iqr
                                                          muestral
          Rango                                               Rango muestral


Varianza muestral
Sean x1,x2,…,xn una muestra de n observaciones de la variable x, con media
muestral x . La varianza muestral se denota por s2 y viene dada por la
expresión:

                                              ∑ (x    i    − x ) 2 ni
                                       s2 =   i

                                                           n
Puesto que la varianza muestral no tiene las mismas unidades que los datos, se
define la desviación típica muestral.

Desviación típica muestral
Sean x1,x2,…,xn una muestra de n observaciones de la variable x, con varianza
muestral s2. La desviación típica muestral se simboliza por s y viene dada por la
expresión:

                                            ∑ (x     i   − x ) 2 ni
                                s = s2 =        i

                                             n
La desviación típica muestral no es un buen estimador de la desviación típica
poblacional (se desvía a la izquierda de σ ). Para corregir esa desviación se
suele hacer uso de la raíz cuadrada de la cuasivarianza muestral

                                     ∑ (x
                                      i
                                            i   − x ) 2 ni

                                     n −1
La desviación típica se registra con un decimal más que los datos, sin antes
redondear la varianza. La varianza se expresa con dos decimales más que los
datos.

Interpretación de la desviación típica La media y la desviación típica de una
distribución proporcionan, de forma conjunta, una gran información. Entre la
media y más/menos k veces la desviación típica se encuentra como mínimo el
          1
100(1 −      )% de los datos.
          k2


Rango muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable
x. El rango muestral es la diferencia entre el mayor y el menor de los valores
observados.

Percentiles Los percentiles son una medida de posición que no refleja la
tendencia central. Son los noventa y nueve valores de la distribución que la
dividen en cien partes, de forma que dentro de cada una están incluidos el 1%
de los valores.
Para distribuciones no agrupadas en intervalos se calculan previamente las
frecuencias acumuladas y se calcula el valor que ocupa la posición n s de la
                                                                      100
distribución.
Rango inter cuartíl, iqr Las medidas de dispersión utilizadas se ven muy
afectadas por los datos atípicos.
El rango intercuartíl es una medida resistente a los datos atípicos, y se define
como la longitud del intervalo que contiene el 50% central de los datos.

                                  iqr = q3 – q1

Si iqr es muy pequeño, implica que la mayoría de los datos están en el centro, si
por el contrario es grande los datos se distribuyen ampliamente.




REPRESENTACIONES GRÁFICAS




Diagrama de barras

Un diagrama de barras permite transmitir la información contenida en una
tabla de frecuencias para variables estadísticas cualitativas o cuantitativas
discretas no agrupadas.

♣ Cada  barra tiene la misma anchura.
♣ Cada barra representa una categoría.
♣ Las alturas dependen del número de observaciones por categoría.
♣ El eje vertical representa: frecuencias absolutas, frecuencias relativas o
  porcentajes.

La utilización de las frecuencias relativas o porcentajes tiene la ventaja de que
la escala no dependerá de los datos, puesto que siempre oscilan entre 0 y 1 ó 0
y 100.
También se pueden utilizar barras horizontales.
Histogramas

Un histograma es una representación gráfica de los datos contenidos en una
tabla de frecuencias de variables continuas o discretas agrupadas en
intervalos.

   El área de cada barra es proporcional al número de objetos en la categoría o
   clase que representa.
   Es posible utilizar las frecuencias absolutas, relativas o lo porcentajes.

Los histogramas proporcionan mucha información sobre la distribución de los
datos.

Diagrama de tallo y hojas

Los diagramas de tallo y hojas permiten representar la distribución de una
variable cuantitativa.

   Elegir los números que servirán de tallos.
     o Para datos con 2 dígitos, se elegirán las decenas.
     o Para datos con 3 dígitos, se elegirán las decenas y centenas.
      Cada tallo define una clase y se escribe sólo una vez y el número de
      hojas representa su frecuencia absoluta.
    Etiquetamos las filas con los tallos.
    Anotamos el dígito que sigue al tallo.

Si la utilización del primer o de los dos primeros dígitos no proporciona
suficiente información, entonces se pueden utilizar tallos dobles, en la primera
rama se representan los valores menores que 5 y en la segundo los mayores.

Ejemplo. El tiempo que una persona espera la llegada de un radio taxi

                   1.0   8.3    3.1   1.1   5.1
                   1.2   1.0    4.1   1.1   4.0
                   2.0   1.9    6.3   1.4   1.3
                   3.3   2.2    2.3   2.1   2.1
                   1.4   2.7    2.4   3.0   4.1
                   5.0   2.2    1.2   7.7   1.5
Diagrama de tallo y hojas

                 1   02409211435
                 2   02723411
                 3   310
                 4   101
                 5   01
                 6   3
                 7   7
                 8   3



Diagrama de cajas

El diagrama de cajas es una representación gráfica de un conjunto de datos
que facilita la percepción visual de su localización, extensión y del grado y la
dirección del sesgo. También permite identificar datos atípicos.

  ♣   Calcular ~ , q1, q3, iqr.
                x
  ♣   Determinar los separadores interiores:
                       f1 = q1 - 1,5 iqr
                       f2 = q3 + 1,5 iqr
  ♣   Los puntos por debajo de f1 y por encima de f2 se consideran atípicos.
  ♣   Determinar los valores adyacentes a1 y a3:
       o a1 es el dato más próximo a f1 sin que esté por debajo de f1.
       o a3 es el dato más próximo a f2 sin que esté por encima de f2.
  ♣   Determinar los separadores exteriores
                   F1 = q1 – 2(1,5) iqr
                   F2 = q3 + 2(1,5) iqr
  ♣   Dibujar en una recta todos los puntos calculados.
  ♣   Dibujar una caja con q1 y q3.
       o Una línea en la mediana.
       o Representar por una “x” los valores a1 y a3. Bigotes – unirlos con una
         línea discontinua.
       o Los puntos entre f i y Fi son círculos abiertos, es decir, datos atípicos
         moderados.
       o Los puntos fuera de F=[F1, F2] son asteriscos, es decir, datos atípicos
         extremos.
La línea central indica la simetría de la distribución. Si la línea no está
centrada la distribución será asimétrica en la dirección del lado más largo.

              a1
                                                 a3

     F1      f1       q1          ~
                                  x         q3        f2        F2


 *                                                                   *
ESTIMACIÓN


ESTIMACIÓN DE PARÁMETROS


La teoría de muestreo puede emplearse para obtener información acerca de
muestras obtenidas aleatoriamente de una población conocida.

Esto nos sirve en la práctica para poder ser capaz de inferir información
acerca de una población a partir de muestras de ella, de ahí su importancia

Los problemas planteados que tenemos sobre los que queremos obtener
conclusiones de su comportamiento y evolución son tratados por la inferencia
estadística que utiliza principios de muestreo.

Un problema importante de la inferencia estadística es la estimación de
parámetros poblacionales o simplemente parámetros (como la media y la
varianza poblacionales)

La ventaja de la media es que es muy fácil de calcular, pero su desventaja es
que es muy sensible a valores extremos, es decir, si la mayoría de los datos se
encuentran alrededor de la media, pero si existe uno o varios valores cargados
hacia uno de los extremos el valor de la media se desplaza hacia ese lado.

La media aritmética es un promedio de los valores observados, mientras que la
mediana es cualquier valor que se encuentre en el promedio de todas las
posiciones de un arreglo ordenado. La mediana es una medida de tendencia
central más apropiada que la media cuando el conjunto de datos contiene unos
pocos valores extremos, altos o bajos.
La estimación es un proceso por el que se trata de averiguar un parámetro de

la población representado por una muestra, a partir del valor de un estadístico

llamado estimador y esta representado por                                       .

El problema se resuelve en base al conocimiento de la quot;distribución muestralquot;

del estadístico que se use (varianza, desviación estándar, rangos muestrales).

.

Si para cada muestra posible calculamos la media muestral ( ) obtenemos un

valor distinto (   es un estadístico: es una variable aleatoria y sólo depende de

la muestra), habrá por tanto una distribución muestral de medias para     .



Varianza de    :
                                    σ2
                          Var X =
                                 n
                          X → media muestral
                          σ 2 → var ianza
                          n → muetra aleatoria de tamaño n

La desviación típica de esta distribución se denomina error típico de la media.

Evidentemente, habrá una distribución muestral para cada estadístico, no sólo

para la media, y en consecuencia un error típico para cada estadístico.

Si la distribución muestral de un estadístico estuviera relacionada con algún

parámetro de interés, ese estadístico podría ser un estimador del parámetro.


Así al procedimiento utilizado cuando se quiere conocer las características de

un parámetro poblacional, a partir del conocimiento de la muestra, se denomina

estimación. Hay que tener en cuenta que la       población a muestrear es una

población presente, que ya existe en el momento de darse el proceso de lo

contrario se trataría de un pronostico, no de una estimación
INTERVALO DE CONFIANZA


Se llama así a un intervalo en el que sabemos que está un parámetro, con un

nivel de confianza específico.

Si se tiene que la media se encuentra en el intervalo (2,8 3,2) con un nivel de

confianza del 95%, lo que se dice es que si se hace muestras de tamaño 40, y

se fueran contabilizando sus medias, en el 95% de los casos, la media calculada

estaría en dicho intervalo.



NIVEL DE CONFIANZA

También se tiene que el porcentaje de intervalos que se puede esperar

contengan el valor real del parámetro, cuando se utilice una y otra vez el mismo

procedimiento de construcción de intervalo, se denomina nivel de confianza.

Es la probabilidad de que el parámetro a estimar se encuentre en el intervalo

de confianza.

Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y

99,9%



ERROR DE ESTIMACIÓN MÁXIMO

Es el radio de anchura del intervalo de confianza.

Este valor nos dice en qué margen de la media muestral se encuentra la media

poblacional al nivel de confianza asignado.

Varianza de un estimador
Una propiedad importante de un estimador es su varianza (o su raíz cuadrada,

la desviación estándar).

La importancia de la desviación estándar es que permite darle un sentido

numérico a la cercanía del valor del estimador a su valor esperado.

Entonces entre menor sea la desviación        estándar (o la varianza)   de

un

estimador, será más probable que su valor en una muestra específica se

encuentre mas cerca del valor esperado.

Bien si se considera T1 y T2 dos estimadores en la que ambos son insesgados y

que la varianza de T1 es menor que la de T2. ¿Qué quiere decir esto? Que en

un entorno fijo del valor del parámetro, los valores de T1 son más probables

que los de T2. O sea que vamos a encontrar a T1 más cerca del valor del

parámetro que a T2. Esto hace que las preferencias estén con T1.

Cuando un estimador tiene una varianza menor que otro se entiende que el

estimador es más eficiente.

Una estimación de un parámetro de la población dada por un solo número se

llama una estimación de punto del parámetro, se utiliza cuando el parámetro

poblacional como ya se mencionó se expresa en un sólo valor numérico, por

ejemplo, el tiempo máximo para que los estudiantes completen un examen de

matemáticas, el cual es de 2 hora

Una estimación de un parámetro de la población dada por dos puntos, entre los

cuales se pueden considerar encajado al parámetro, se llama una estimación del

intervalo del parámetro.
Ejemplo:

Un fabricante indica que una resistencia de 1 K Ω tiene una precisión de ± 0.5,

el fabricante esta dando una estimación por intervalo.

El margen de error o la percepción de una estimación, nos informa su

fiabilidad.

En general, las estimaciones de intervalo, que indican la precisión de una

estimación, las prefieren más que a las estimaciones de punto.

Para construir un intervalo, hay que hacer que la estimación puntual sea el

centro del intervalo y se crea un intervalo arriba y uno abajo del centro por

medio del error estándar del estimador, éste último es la desviación estándar

de la distribución muestral del estimador. Así se logra que el parámetro

desconocido   supuestamente     esté   dentro   de   ese   intervalo,   mas   no

necesariamente en su centro.

Weitere ähnliche Inhalte

Was ist angesagt?

Chi Cuadrado
Chi CuadradoChi Cuadrado
Chi Cuadradoaramirez
 
PRUEBAS DE HIPÓTESIS
PRUEBAS DE HIPÓTESIS PRUEBAS DE HIPÓTESIS
PRUEBAS DE HIPÓTESIS Roza Meza
 
Ejemplo distribucion normal
Ejemplo distribucion normalEjemplo distribucion normal
Ejemplo distribucion normaldavid silva
 
Distribución t student
Distribución t studentDistribución t student
Distribución t studentecruzo
 
Prueba de hipotesis 2018 final
Prueba de hipotesis 2018 finalPrueba de hipotesis 2018 final
Prueba de hipotesis 2018 finalfranciscoe71
 
Ejercicios de estimación de intervalo o intervalos de confianza (8)
Ejercicios de estimación de intervalo o intervalos de confianza (8) Ejercicios de estimación de intervalo o intervalos de confianza (8)
Ejercicios de estimación de intervalo o intervalos de confianza (8) Luz Hernández
 
Ejemplos de distribuciones de probabilidad
Ejemplos de distribuciones de probabilidadEjemplos de distribuciones de probabilidad
Ejemplos de distribuciones de probabilidadLaksmi Rodriguez
 
Distribuciones muestrales.ppt
Distribuciones muestrales.pptDistribuciones muestrales.ppt
Distribuciones muestrales.pptLucaGutirrez15
 
Pruebas de hipótesis
Pruebas de hipótesis Pruebas de hipótesis
Pruebas de hipótesis mariauparela
 
21065741 distribucion-uniforme
21065741 distribucion-uniforme21065741 distribucion-uniforme
21065741 distribucion-uniformeiruy ub
 
Distribuciones continuas de probabilidad
Distribuciones continuas de probabilidadDistribuciones continuas de probabilidad
Distribuciones continuas de probabilidadangiegutierrez11
 

Was ist angesagt? (20)

Chi Cuadrado
Chi CuadradoChi Cuadrado
Chi Cuadrado
 
PRUEBAS DE HIPÓTESIS
PRUEBAS DE HIPÓTESIS PRUEBAS DE HIPÓTESIS
PRUEBAS DE HIPÓTESIS
 
Ejemplo distribucion normal
Ejemplo distribucion normalEjemplo distribucion normal
Ejemplo distribucion normal
 
Pruebas de hipotesis Varianza desconocida
Pruebas de hipotesis Varianza  desconocidaPruebas de hipotesis Varianza  desconocida
Pruebas de hipotesis Varianza desconocida
 
Distribución t student
Distribución t studentDistribución t student
Distribución t student
 
Minimos cuadrados
Minimos cuadradosMinimos cuadrados
Minimos cuadrados
 
7 distribucion normal
7 distribucion normal7 distribucion normal
7 distribucion normal
 
Ejercicios Propuestos-Estadística
Ejercicios Propuestos-EstadísticaEjercicios Propuestos-Estadística
Ejercicios Propuestos-Estadística
 
Prueba de hipótesis
Prueba de hipótesisPrueba de hipótesis
Prueba de hipótesis
 
Investigación de Operaciones
Investigación de OperacionesInvestigación de Operaciones
Investigación de Operaciones
 
Introduccion a las probabilidades (Estadística Inferencial)
Introduccion a las probabilidades (Estadística Inferencial)Introduccion a las probabilidades (Estadística Inferencial)
Introduccion a las probabilidades (Estadística Inferencial)
 
Prueba de hipotesis 2018 final
Prueba de hipotesis 2018 finalPrueba de hipotesis 2018 final
Prueba de hipotesis 2018 final
 
Pruebas de hipotesis - Introducción
Pruebas de hipotesis - IntroducciónPruebas de hipotesis - Introducción
Pruebas de hipotesis - Introducción
 
Ejercicios de estimación de intervalo o intervalos de confianza (8)
Ejercicios de estimación de intervalo o intervalos de confianza (8) Ejercicios de estimación de intervalo o intervalos de confianza (8)
Ejercicios de estimación de intervalo o intervalos de confianza (8)
 
Ejemplos de distribuciones de probabilidad
Ejemplos de distribuciones de probabilidadEjemplos de distribuciones de probabilidad
Ejemplos de distribuciones de probabilidad
 
Distribuciones muestrales.ppt
Distribuciones muestrales.pptDistribuciones muestrales.ppt
Distribuciones muestrales.ppt
 
Pruebas de hipótesis
Pruebas de hipótesis Pruebas de hipótesis
Pruebas de hipótesis
 
21065741 distribucion-uniforme
21065741 distribucion-uniforme21065741 distribucion-uniforme
21065741 distribucion-uniforme
 
Distribuciones continuas de probabilidad
Distribuciones continuas de probabilidadDistribuciones continuas de probabilidad
Distribuciones continuas de probabilidad
 
Distribución Binomial Negativa y Geométrica
Distribución Binomial Negativa y GeométricaDistribución Binomial Negativa y Geométrica
Distribución Binomial Negativa y Geométrica
 

Ähnlich wie Introducción a la probabilidad y el conteo: métodos, axiomas y leyes

Ähnlich wie Introducción a la probabilidad y el conteo: métodos, axiomas y leyes (20)

Introduccón a la probabilidad
Introduccón a la probabilidadIntroduccón a la probabilidad
Introduccón a la probabilidad
 
Principios de probabilidad
Principios de probabilidadPrincipios de probabilidad
Principios de probabilidad
 
MPRO_U2_A1_VIVG.pdf
MPRO_U2_A1_VIVG.pdfMPRO_U2_A1_VIVG.pdf
MPRO_U2_A1_VIVG.pdf
 
Leyes de Probabilidades
Leyes de ProbabilidadesLeyes de Probabilidades
Leyes de Probabilidades
 
Estadistica
EstadisticaEstadistica
Estadistica
 
Probabilidades-Estadistica
Probabilidades-EstadisticaProbabilidades-Estadistica
Probabilidades-Estadistica
 
Clase 1 - Unidad 0 - Breve Repaso Estadística.pptx
Clase 1 - Unidad 0 - Breve Repaso Estadística.pptxClase 1 - Unidad 0 - Breve Repaso Estadística.pptx
Clase 1 - Unidad 0 - Breve Repaso Estadística.pptx
 
Probabilidad y estadistica
Probabilidad y estadisticaProbabilidad y estadistica
Probabilidad y estadistica
 
U 1 conjuntos y probabilidad (2)
U 1 conjuntos y probabilidad (2)U 1 conjuntos y probabilidad (2)
U 1 conjuntos y probabilidad (2)
 
Estadistica,Probabilidad
Estadistica,Probabilidad Estadistica,Probabilidad
Estadistica,Probabilidad
 
Apuntes de Probabilidad
Apuntes de ProbabilidadApuntes de Probabilidad
Apuntes de Probabilidad
 
Teoria de la probabilidad
Teoria de la probabilidadTeoria de la probabilidad
Teoria de la probabilidad
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Tema 10
Tema 10Tema 10
Tema 10
 
Estadistica
EstadisticaEstadistica
Estadistica
 
Unidad1
Unidad1Unidad1
Unidad1
 
Trabajo de matematicas
Trabajo de matematicasTrabajo de matematicas
Trabajo de matematicas
 
Ensayo de estadistica manuel suarez
Ensayo de estadistica manuel suarezEnsayo de estadistica manuel suarez
Ensayo de estadistica manuel suarez
 
Ensayo de teoria de probabilidad estadistica manuel suarez
Ensayo de teoria de probabilidad estadistica manuel suarezEnsayo de teoria de probabilidad estadistica manuel suarez
Ensayo de teoria de probabilidad estadistica manuel suarez
 

Introducción a la probabilidad y el conteo: métodos, axiomas y leyes

  • 1. INTRODUCCIÓN A LA PROBABILIDAD Y EL CONTEO Los métodos estadísticos se utilizan para tomar decisiones basadas en el análisis de datos recopilados en experimentos de diseño minucioso. Puesto que la ciencia experimental no puede tener en cuenta toda posible contingencia, siempre habrá algo de incertidumbre, los métodos estadísticos sirven para evaluar el grado de incertidumbre de los resultados. Se los ha clasificado en tres categorías: ∗ Estadística descriptiva_ mediante técnicas analíticas y graficas ésta describe o representa visualmente un conjunto de datos. ∗ Estadística inferencial_ los métodos de la estadística inferencial permiten establecer conclusiones acerca de un gran grupo de objetos, observando solo una porción de objetos del grupo. De lo anterior, se denomina población al grupo total de objetos de los que se obtiene conclusiones; y muestra a una parte o subconjunto de la población que se obtiene y se usa para extraer las conclusiones de dicha población. ∗ Construcción de modelos_ desarrolla ecuaciones predictivas a partir de datos experimentales. INTERPRETACIÓN DE LAS PROBABILIDADES La probabilidad es un número entre 0 y 1 que indica cuan factible es que ocurra un
  • 2. evento, si la probabilidad es cercana a 1 indica que es muy factible que ocurra el evento, si la probabilidad es cercana a 0 indica que poco factible que el evento ocurra, en ambos casos no signifique que el evento ocurrirá o no ocurrirá sino que se trata de un evento común en el primer caso y un evento poco usual en el segundo caso. Si la probabilidad es cercana a 1/2 indica que es igualmente factible que el evento ocurra o no. Para interpretar las probabilidades una vez que se conocen, se utilizan tres métodos: ∗ El enfoque personal_ asigna una probabilidad al evento en base a la opinión personal informada, la desventaja es que la precisión de la asignación depende de la exactitud de la información disponible y la capacidad de evaluar de manera correcta esa información ∗ El de frecuencia relativa_ se basa en la experimentación y observación repetidas, la desventaja es que el evento debe ser susceptible de repetirse, toda probabilidad obtenida de esta forma es una aproximación ∗ El clásico_ éste método puede usarse solamente cuando los posibles resultados del experimento son igualmente probables ESPACIOS MUESTRALES Y EVENTOS El primer paso en el análisis de muchos experimentos es elaborar una lista de todos los posibles resultados del experimento, llamada espacio muestral, Uno de los sistemas para desarrollar el espacio muestral a medida que aumenta el número de posibilidades es el diagrama de árbol. Evento_ (en sentido matemático) se denomina así a todo subconjunto de un espacio muestral.
  • 3. Eventos mutuamente excluyentes_ se denominan así porque la presencia de un evento impide la presencia del otro. PERMUTACIONES Y COMBINACIONES A medida que el experimento se torna más complejo las listas y árboles se vuelven inmanejables, por esto se requiere métodos de conteo alternos. Dos tipos comunes de problemas de conteo son el de permutaciones y el de combinaciones. Una permutación es un arreglo de objetos en un orden determinado. Una combinación es una selección de objetos sin orden alguno. Conteo de permutaciones Si se tiene un problema cuyo orden es de total importancia, se pregunta cuántas permutaciones o arreglos de los objetos dados son posibles, es usual que la respuesta se la obtenga con el principio de multiplicación. El principio de multiplicación_ mediante este principio se obtiene el número total de las formas en que puede ocurrir un evento, se usa en la resolución de problemas de permutación. La fórmula para calcular el número de permutaciones de n objetos distintos, de los cuales se toman r objetos en un momento dado, se expresa en el siguiente teorema: Teorema. El numero de permutaciones de n objetos distintos, de los cuales se toman r a la vez, denotados con n Pr n! Pr = (n − r )! n
  • 4. El principio de multiplicación es la primera opción que deberíamos tomar cuando se tenga un problema que incluye un orden, natural o impuesto. Conteo de combinaciones Los problemas de conteo en que la atención se centra en situaciones en las que el orden es irrelevante, son problemas de combinaciones Teorema. El numero de combinaciones de n objetos distintos, de los cuales se seleccionan r a la vez, denotados con n C r o  n  , esta dado por:   r   n n! n Cr =   =  r  r!(n − r )!   Para distinguirse entre combinaciones y permutaciones y permutaciones debe buscarse las palabras claves “seleccionar” y “ordenar”, la primera indica que es un problema de combinaciones, y la segunda que se busca una permutación. Permutaciones de objetos que no se diferencian Las permutaciones de objetos que no se diferencian analizan problemas de permutaciones en las que es inevitable la repetición, y responde a la pregunta de cuántos ordenamientos distintos de n objetos son posibles si algunos de los objetos son idénticos y por lo tanto no se puede diferenciarlos La formula general del número total de ordenamientos distintos de estos objetos esta dada por: Permutaciones de objetos que no se diferencian n! n = n1 + n2 + ... + nk n1!n2 !..n K !
  • 5. La estadística mediante sus métodos: el enfoque personal, el de frecuencia relativa y el clásico, permiten la asignación de una probabilidad frente a una situación en la que haya incertidumbre en la respuesta que se desea obtener. Se puede interpretar el comportamiento de sucesos que se estén estudiando mediante el análisis de los métodos estadísticos. Se puede construir modelos en base a los resultados obtenidos. Para obtener las probabilidades que puede tener un problema expuesto es necesario, dadas las características del problema, determinar que enfoque probabilístico se va a utilizar para responder esta pregunta. La probabilidad del enfoque de la frecuencia relativa es una aproximación, con un número de ensayos altos pude llegar a ser muy precisa la probabilidad aproximada. Las permutaciones y combinaciones son métodos de conteo alternos cuando no se puede calcular la probabilidad con los métodos anteriores. Con el conteo de permutaciones es posible responder cuantos arreglos de los objetos dados son posibles. Con el conteo de combinaciones es posible responder cuantas selecciones de los objetos dados son posibles con no importa el orden en que se den. Con las permutaciones de objetos que no se diferencian es posible responder cuantos ordenamientos distintos de n objetos son posibles si algunos de los objetos no se pueden diferenciar.
  • 6. ALGUNAS LEYES DE PROBABILIDAD AXIOMAS DE PROBABILIDAD Las definiciones son los términos técnicos del sistema y los axiomas son afirmaciones que se suponen verdaderas y que por lo tanto no necesitan comprobación. Axiomas de probabilidad 1. Sea S el espacio muestral de un experimento P[S ] = 1 2. P[ A] ≥ 0 con cualquier evento A 3. Sean A1, A2, A3,... es una colección finita o infinita de eventos mutuamente excluyentes. Entonces, P[A1 ∪ A2 ∪ A3 ⋅ ⋅ ⋅] = P[ A1 ] + P[ A2 ] − P[ A3 ] + ⋅ ⋅ ⋅ El axioma 1 expresa que la probabilidad asignada a un evento cierto es S es 1 El axioma 2 expresa que la probabilidades solo valores positivos El axioma 3 afirma que cuando hay eventos mutuamente excluyentes, la probabilidad de que ocurra por lo menos uno de ellos es la suma de las probabilidades de esos eventos.
  • 7. Por lo tanto una base hecha sobre axiomas y teoremas define lo que es y lo que hace la probabilidad. La regla general de la adición La regla de adición permite calcular la probabilidad de que al menos uno de los dos eventos tenga lugar cuando no sean por necesidad mutuamente excluyentes. La regla de adición relaciona a las operaciones de unión e intersección. Regla general de la adición P[A1 ∪ A2 ] = P[ A1 ] + P[ A2 ] − P[A1 ∩ A2 ] Si se conoce P[A1 ∩ A2 ] , es posible usar la regla de adición para calcular P[A1 ∪ A2 ] PROBABILIDAD CONDICIONAL La probabilidad condicional sirve para determinar la probabilidad de que ocurra el evento A2 “condicionado” al supuesto de que ha tenido lugar otro evento, A1. “si” y “dado que” son palabras claves que identifican una pregunta condicional.
  • 8. Definición (probabilidad condicional). Sean A1 y A2 eventos [ ] tales que P A2 A1 y se define con la fórmula siguiente P[ A1 ∩ A2 ] P[A2 A1 ] = P[ A1 ] Donde P[ A1 ] es la probabilidad de que ocurra el evento dado y P[ A1 ∩ A2 ] la probabilidad de que tengan lugar tanto el evento dado como el evento en cuestión Ejemplo: se tira un dado y sabemos que la probabilidad de que salga un 2 es 1/6. Si incorporamos nueva información (por ejemplo, alguien nos dice que el resultado anterior ha sido un número par) entonces la probabilidad de que el resultado sea el 2 ya no es 1/6 sino un 1/3 aplicando la definición de probabilidad condicional INDEPENDENCIA Y LA REGLA DE LA MULTIPLICACIÓN Definición (eventos independientes). Los eventos A1 y A2 son independientes si y sólo si P[A1 ∩ A2 ] = P[A1 ]P[A2 ] Esta definición es útil para calcular la probabilidad de que ocurran dos eventos cuando son claramente independientes.
  • 9. En este caso recibir la información de que ocurrió el evento A1 no tiene efecto alguno en la probabilidad asignada al evento A2 Este teorema sirve para comprobar la independencia entre dos eventos Teorema. Sean A1 y A2 eventos tales que por lo menos P[ A1 ] o P[A2 ] difieren de cero. A1 y A2 son independientes si y sólo si: P[A2 A1 ] = P[ A2 ] si P[A1 ] ≠ 0 y P[A2 A1 ] = P[ A1 ] si P[ A2 ] ≠ 0 Esta definición tiene el propósito de servir como forma de cálculo de la probabilidad de que ocurra una serie de eventos supuestamente independientes Definición. Sea C = {Ai : i = 1,2,⋅ ⋅ ⋅, n} un conjunto finito de eventos. Estos eventos son independientes si y sólo si dado cualquier subconjunto A(1) , A(2 ) ,⋅ ⋅ ⋅, A(m ) de elementos de C: [ ] [ ][ ] [ ] P A(1) ∩ A(2 ) ∩ ⋅ ⋅ ⋅ ∩ A(m ) = P A(1) P A(2 ) ⋅ ⋅ ⋅ P A(m ) Para usar la definición anterior hay que tener la certeza de que es razonable suponer que los eventos son independientes antes de aplicarla al calculo de la probabilidad de que ocurra una serie de eventos. Ejemplo: la probabilidad de que al tirar una moneda salga cara (suceso B), condicionada a la probabilidad de que haga buen tiempo (suceso A), es igual a la propia probabilidad del suceso B.
  • 10. LA REGLA DE LA MULTIPLICACIÓN La regla de la multiplicación es otra forma de calcular la probabilidad de que ocurran simultáneamente dos eventos si no son independientes. Regla de la multiplicación P[A1 ∩ A2 ] = P[A2 A1 ]P[ A1 ] TEOREMA DE BAYES Teorema (teorema de Bayes). Sean A1 , A2 , A3 , ... , An un conjunto de eventos mutuamente excluyentes, cuya union es S Sea B eventos tal que P[B ] ≠ 0 Entonces, para cualquier evento Aj,con j = 1,2,3,...,n, se tiene que: [ P Aj B =] [ ][ ] P B Aj P Aj ∑ P[B A ]P[A ] n i i i =1 El Teorema de Bayes resuelve lo que se conoce como probabilidad inversa. Esto significa que, contrario a la probabilidad clásica, donde lo que se busca es conocer la probabilidad que se dé un evento de un total de casos conocidos, la probabilidad inversa busca saber la probabilidad de lo contrario. Ejemplo: El parte meteorológico ha anunciado tres posibilidades para el fin de semana:
  • 11. a) Que llueva: probabilidad del 50%. b) Que nieve: probabilidad del 30% c) Que haya niebla: probabilidad del 20%. Según estos posibles estados meteorológicos, la posibilidad de que ocurra un accidente es la siguiente: a) Si llueve: probabilidad de accidente del 10%. b) Si nieva: probabilidad de accidente del 20% c) Si hay niebla: probabilidad de accidente del 5%. Resulta que efectivamente ocurre un accidente y como no estábamos en la ciudad no sabemos que tiempo hizo (nevó, llovió o hubo niebla). El teorema de Bayes nos permite calcular estas probabilidades: Las probabilidades que manejamos antes de conocer que ha ocurrido un accidente se denominan quot;probabilidades a prioriquot; (lluvia con el 60%, nieve con el 30% y niebla con el 10%). Una vez que incorporamos la información de que ha ocurrido un accidente, las probabilidades del suceso A cambian: son probabilidades condicionadas P (A/B), que se denominan quot;probabilidades a posterioriquot;. Vamos a aplicar la fórmula: [ ] P Aj B = [ ][ ] P B Aj P Aj ∑ P[B A ]P[A ] n i i i =1 a) Probabilidad de que estuviera lloviendo:
  • 12. La probabilidad de que efectivamente estuviera lloviendo el día del accidente (probabilidad a posteriori) es del 71,4%. b) Probabilidad de que estuviera nevando: La probabilidad de que estuviera nevando es del 21,4%. c) Probabilidad de que hubiera niebla: La probabilidad de que hubiera niebla es del 7,1%.
  • 13. DISTRIBUCIONES DISCRETAS Las distribuciones discretas son aquellas en las que la variable puede pude tomar un número determinado de valores: Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado puede salir un número de 1 al 6; en una ruleta el número puede tomar un valor del 1 al 32. Las distribuciones continuas son aquellas que presentan un número infinito de posibles soluciones: Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos valores dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc); la esperanza media de vida de una población (72,5 años, 7,513 años, 72, 51234 años). ∗ Variable es una magnitud que puede tener un valor cualquiera de los comprendidos en un conjunto. VARIABLES ALEATORIAS Definición (variable aleatoria discreta). Una variable aleatoria es discreta si puede asumir cuando mucho un número finito o uno infinito contable de valores posibles.
  • 14. Una variable aleatoria no es discreta cuando se pregunta “¿Cuáles son los valores posibles de la variable?” Esto indica que el conjunto de posibilidades abarca un intervalo o un conjunto continuo de números reales DENSIDADES DE PROBABILIDAD DISCRETAS La función de distribución discreta y función de distribución acumulativa se usan para lograr en algún sentido predecir los valores que probablemente asumirá la variable en un momento dado La densidad indica la probabilidad de que X asuma el valor específico de x Definición (densidad discreta). Sea X una variable aleatoria discreta. La función f esta dada por: f ( x ) = P[ X = x ] para el número real x se llama función de densidad de X Las dos condiciones siguientes afirman que una función f sea de densidad discreta Condiciones necesarias y suficientes para que una función sea una densidad discreta. 1. f ( x ) = P 2. ∑ f ( x ) = 1 ∀x
  • 15. DISTRIBUCIÓN ACUMULATIVA Esta función suma o acumula las probabilidades calculadas por medio de la densidad. Definición (distribución acumulativa: discreta). Sea X una variable aleatoria discreta con densidad f. La función de distribución acumulativa de X, denotada con F, se define con la fórmula siguiente: F ( x) = P[X ≤ x ] para todo número real x La distribución acumulativa indica la probabilidad de que X tenga un valor menor o igual a x ESPERANZA Y PARÁMETROS DE UNA DISTRIBUCIÓN Definición (valor esperado). Sea X una variable aleatoria discreta con densidad f. Sea H(X) una variable aleatoria. El valor esperado de H(X), que se denota con E [H ( X )] , esta dado por E [H ( X )] = ∑ H ( x) f ( x) ∀x Siempre y cuando ∑ H ( x) f ( x) sea finita. La suma abarca ∀x todos los valores de X que ocurran con probabilidad distinta de cero.
  • 16. En el caso especial de que H(X)=X, el valor esperado de X se obtiene por: Valor esperado de X E [X ] = ∑ xf ( x ) ∀x Teorema (reglas de la esperanza). Sean X y Y variables aleatorias y sea c cualquier número real. 1. E[c]= c (El valor esperado de toda constante es esa constante.) 2. E[cX]= cE[X] (Las constantes se pueden factorizar a partir de las esperanzas.) 3. E[X+Y] = E[X]+ E[Y] (El valor esperado de una suma es igual a la suma de los valores esperados.) ∗ Ejemplo: Sean X y Y variables aleatorias, con E[X] = 3 y E[Y] = 4. E[5X-3Y+8] = E5[X]+E[-3Y]+E[8] = 5E[X]+(-3)E[Y]+E[8] = 5E[X]-3E[Y]+8 = 5(3)-3(4)+8 = 11
  • 17. VARIANZA Y DESVIACIÓN ESTÁNDAR ∗ La media es una medición del centro de localización de la distribución. ∗ La varianza y la desviación estándar miden la variabilidad de la variable aleatoria en torno a su media Definición (varianza). Sean X una variable aleatoria con media µ . La varianza de X, denotada como Var X o σ 2 , esta dada por [( VarX = σ 2 = E X − µ 2 )] Teorema (fórmula de cálculo de σ2) σ 2 = VarX = E [X 2 ]− (E [X ])2 ∗ Varianza es la media de las desviaciones cuadráticas de una variable aleatoria, referidas al valor medio de esta. Definición (desviación estándar). Sean X una variable aleatoria con varianza σ . La desviación estándar de X, denotada con 2 σ , esta dada por: σ = VarX = σ 2
  • 18. ∗ La desviación estándar esta dada por la raíz cuadrada no negativa de la varianza La desviación estándar es una medición de variabilidad DISTRIBUCIÓN BINOMIAL La distribución binomial parte de la distribución de Bernoulli: La distribución de Bernoulli se aplica cuando se realiza una sola vez un experimento que tiene únicamente dos posibles resultados (éxito o fracaso), por lo que la variable sólo puede tomar dos valores: el 1 y el 0 La distribución binomial se aplica cuando se realizan un número quot;nquot; de veces el experimento de Bernoulli, siendo cada ensayo independiente del anterior. La variable puede tomar valores entre: 0: si todos los experimentos han sido fracaso n: si todos los experimentos han sido éxitos Ejemplo: se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido ninguna la variable toma el valor 0; si han salido dos caras la variable toma el valor 2; si todas han sido cara la variable toma el valor 10
  • 19. La distribución de probabilidad de este tipo de distribución sigue el siguiente modelo: Distribución binomial   k  k!(n − k )!  p (1 − p ) n! n−k P( x = k ) =     Ejemplo: ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces? quot; k quot; es el número de aciertos. En este ejemplo quot; k quot; igual a 6 quot; nquot; es el número de ensayos. En este ejemplo son 10 quot; p quot; es la probabilidad de éxito, es decir, que salga quot;caraquot; al lanzar la moneda. Por lo tanto p = 0,5 La fórmula quedaría:   k 0.5 (1 − 0.5) 10! 10 −6 P ( x = 6) =   6!(10 − 6)!    P (x = 6 ) = 0 ,205 Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda
  • 20. DISTRIBUCIÓN BINOMIAL NEGATIVA La distribución binomial negativa es una distribución de probabilidad discreta. La distribución binomial negativa es lo inverso de la distribución binomial En esta distribución la variable aleatoria el número de ensayos es fijo y el número de ensayos cambia de un experimento a otro ∗ Un experimento consiste en una serie de ensayos, cuando al resultado de cada ensayo lo podemos clasificar como éxito o fracaso el ensayo se denomina ensayo de Bernoulli Las siguientes propiedades caracterizan las situaciones en las que surge la variable aleatoria binomial negativa - El experimento consiste en una serie de ensayos de Bernoulli independientes e idénticos con probabilidad p de éxito - Los ensayos se observan hasta obtener exactamente r éxitos, el valor de r lo fija el que realiza el experimento - La variable aleatoria X es el número de ensayos que se necesitan para lograr los r éxitos. DISTRIBUCIÓN HIPERGEOMÉTRICA Propiedades que caracterizan a la distribución hipergeométrica - El experimento consiste en extraer una muestra aleatoria de tamaño n sin
  • 21. Reemplazo y sin considerar su orden, e un conjunto de N objetos. - De los N objetos, solo r posee el rasgo que interesa - La variable aleatoria X es el número de objetos de la muestra que posee el rasgo La distribución hipergeométrica es el modelo que se aplica en experimentos del siguiente tipo: En una urna hay bolas de dos colores (blancas y negras), ¿cuál es la probabilidad de que al sacar 2 bolas las dos sean blancas? Son experimentos donde, al igual que en la distribución binomial, en cada ensayo hay tan sólo dos posibles resultados: o sale blanca o no sale. Pero se diferencia de la distribución binomial en que los distintos ensayos son dependientes entre sí: Si en una urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola blanca, en el segundo ensayo hay una bola blanca menos por lo que las probabilidades son diferentes (hay dependencia entre los distintos ensayos). La distribución hipergeométrica sigue el siguiente modelo: Definición (definición hipergeométrica). Una variable aleatoria X tiene distribución hipergeométrica con parámetros N, n y r si su densidad está dada por:  r  N − r     x  n − x   f ( x) =    N   n   Donde N, r y n son enteros positivos.
  • 22. Donde explicándolo con el experimento dado: N: es el número total de bolas en la urna N1=>r: es el número total de bolas blancas N2=>N-r: es el número total de bolas negras x: es el número de bolas blancas cuya probabilidad se está calculando n: es el número de ensayos que se realiza Ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es la probabilidad de que 3 sean blancas? Entonces: N = 12; N1 = 7; N2 = 5; k = 3; n = 4 Si aplicamos el modelo: 7 5    3 1 P ( x = 3) =      12    4   Tenemos que, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas blancas es del 35,3%.
  • 23. DISTRIBUCIÓN DE POISSON La distribución de Poisson parte de la distribución binomial: Cuando en una distribución binomial se realiza el experimento un número quot;nquot; muy elevado de veces y la probabilidad de éxito quot;pquot; en cada ensayo es reducida, entonces se aplica el modelo de distribución de Poisson. Se tiene que cumplir que: quot; p quot; < 0,10 quot; p * n quot; < 10 La distribución de Poisson sigue el siguiente modelo: Definición (distribución de Poisson). Una variable aleatoria X tiene distribución de Poisson con parámetros k si su densidad f está dada por: e −k k x f ( x) = x = 0,1,2,... x! k >0 Donde: e = 2,71828 k = n * p (es decir, el número de veces quot; n quot; que se realiza el experimento multiplicado por la probabilidad quot; p quot; de éxito en cada ensayo) x => es el número de éxito cuya probabilidad se está calculando Ejemplo: La probabilidad de tener un accidente de tráfico es de 0,02 cada vez que se viaja, si se realizan 300 viajes, ¿cual es la probabilidad de tener 3 accidentes?
  • 24. Como la probabilidad quot; p quot; es menor que 0,1, y el producto quot; n * p quot; es menor que 10, entonces aplicamos el modelo de distribución de Poisson. e −6 6 3 P ( x = 3) = 3! P (x = 3) = 0,0892 Por lo tanto, la probabilidad de tener 3 accidentes de tráfico en 300 viajes es del 8,9%
  • 25. DISTRIBUCIONES CONTINUAS Las distribuciones continuas son aquellas que presentan un número infinito de posibles soluciones. LA DISTRIBUCIÓN UNIFORME Es aquella que puede tomar cualquier valor dentro de un intervalo, todos ellos con la misma probabilidad. Es una distribución continua porque puede tomar cualquier valor y no únicamente un número determinado, como ocurre en las distribuciones discretas. DISTRIBUCIÓN NORMAL Es el modelo de distribución más utilizado en la práctica, ya que multitud de fenómenos se comportan según una distribución normal. Esta distribución de caracteriza porque los valores se distribuyen formando una campana de Gauss, en torno a un
  • 26. valor central que coincide con el valor medio de la distribución: Un 50% de los valores están a la derecha de este valor central y otro 50% a la izquierda Esta distribución viene definida por dos parámetros: -> El valor medio de la distribución y es precisamente donde se sitúa el centro de la urva (de la campana de Gauss). -> La varianza. Indica si los valores están más o menos alejados del valor central: si la varianza es baja los valores están próximos a la media; si es alta, entonces los valores están muy dispersos. Cuando la media de la distribución es 0 y la varianza es 1se denomina quot;normal tipificadaquot;, y su ventaja reside en que hay tablas donde se recoge la probabilidad acumulada para cada punto de la curva de esta distribución.
  • 27. DISTRIBUCIÓN NORMAL ESTÁNDAR Hay un número ilimitado de distribuciones de probabilidad normal, aunque afortunadamente todas están relacionadas con una distribución, la distribución normal Estándar. Propiedades de la Distribución Normal Standard • El área total bajo la curva normal es igual a 1. • La distribución tiene forma de campana y es simétrica; se extiende en ambas direcciones y el eje x es su asíntota. • Tiene media igual a 0 y desviación estándar igual a 1. • La media divide el área en dos mitades. DISTRIBUCION PROBABILIDAD GAMA. Esta distribución se emplea de manera extensa en una gran variedad de áreas; por ejemplo, para representar el tiempo aleatorio de falla de un sistema que falla sólo si de manera exacta los componentes fallan y la falla de cada componente ocurre con una frecuencia constante λ=1/β por unidad de tiempo. La distribución Gamma es versátil puesto que exhibe varios perfiles que dependen del valor del parámetro α, para α ≤1 la distribución Gamma tiene un perfil en forma de J transpuesta. Para α>1, presenta un pico que ocurre en x =β (α-1).
  • 28. Los tiempos que tardan en revisar un motor de un automóvil ó avión tienen una distribución de frecuencias sesgadas. Las poblaciones asociadas a estas variables aleatorias frecuentemente tienen distribuciones que se pueden modelar adecuadamente por la función de densidad tipo gamma. Función de densidad de probabilidad para una variable aleatoria tipo gamma: α , β > 0;0 ≤ y ≤ α yα −1e − y / β f ( y) = β ατ (α ) En donde: α −y τ (α ) = ∫ y α −1 e dy 0 La cantidad de la de la función alfa se conoce como la función gamma. La integración directa nos da que la función uno igual a uno. La integración por partes nos da que la función de alfa menos uno alfa menos uno por la función alfa menos uno para cualquier intervalo de alfa mayor o igual a uno y que la función de n sea igual a n menos uno factorial, para un número entero n. En el caso especial cuando alfa es un número entero, se puede expresar la función de distribución de una variable aleatoria tipo gamma como una suma de ciertas variables aleatorias de Poisson. Si alfa no es un número entero, es imposible encontrar la antiderivada del integrando de la expresión:
  • 29. 0 < c < d <α donde d y α −1 e − y / β ∫ c β α τ (α ) dy Y por lo tanto es importante obtener las áreas bajo la función de densidad tipo gamma mediante integración directa. DISTRIBUCIÓN EXPONENCIAL Devuelve la probabilidad de una variable aleatoria continua siguiendo una distribución exponencial. Se usa para la planeación del tiempo entre dos sucesos. Esta distribución se puede usar en diversos casos tales como: el tiempo que tardara una maquina de cajero automático en entregar efectivo. Esta función puede usarse para determinar la probabilidad de que el proceso tarde como máximo un minuto. La función de densidad gamma para el caso especial siguiente, se denomina función de densidad exponencial. β > 0;0 ≤ y < ∞
  • 30. −y/β 1 f ( y) = e β En cualquier punto. La función de densidad exponencial muchas veces es útil en los modelos de duración de componentes eléctricos. Un fusible es un ejemplo de un componente para el cual este supuesto suele cumplirse. La ecuación de la distribución exponencial es: f ( x; λ ) = λe − λx La distribución exponencial puede modelar el lapso entre dos eventos consecutivos de Poisson que ocurren de manera independiente y a una frecuencia constante. Esta distribución se emplea con bastante frecuencia con el objeto de modelar problemas del tipo tiempo-falla y como modelo para el intervalo en problemas de líneas de espera. La distribución exponencial es conocida por no tener memoria, es decir, la probabilidad de ocurrencia de eventos presentes o futuros no depende de los que hayan ocurrido en el pasado. De esta forma, la probabilidad de que una unidad falle en un lapso específico depende nada más de la duración de éste, no del tiempo en que la unidad ha estado en operación.
  • 31. DESIGUALDADES DE CHEBYSHEV Esta desigualdad nos sirve para estimar probabilidades cuando disponemos de una distribución de probabilidad de una variable aleatoria cuyos valores estén ordenados de forma creciente. La desigualdad de Chebyshev es un resultado estadístico que ofrece una cota inferior a la probabilidad de que el valor de una variable aleatoria con varianza finita esté a una cierta distancia de su esperanza matemática o de su media; equivalentemente, el teorema proporciona una cota superior a la probabilidad de que los valores caigan fuera de esa distancia respecto de la media. El teorema es aplicable incluso en distribuciones que no tienen forma de quot;curva de campanaquot; y acota la cantidad de datos que están o no quot;en medioquot;. DISTRIBUCIÓN WEIBULL La distribución Weibull fue establecida por el físico del mismo nombre, quien demostró, con base en una evidencia empírica, que el esfuerzo al que se someten los materiales puede modelarse de manera adecuada mediante el empleo de esta distribución. Esta distribución se empleo como modelo para situaciones del tipo tiempo-falla y con el objetivo de lograr una amplia variedad componentes mecánicos y eléctricos.
  • 32. Devuelve la probabilidad de una variable aleatoria siguiendo una distribución de Weibull. Esta distribución se aplica en los análisis de fiabilidad, para establecer, por ejemplo, el periodo de vida de un componente hasta que presenta una falla.
  • 33. DISTRIBUCIONES CONJUNTAS Para resolver problemas en los que intervienen simultáneamente 2 variables es necesario estudiar las variables aleatorias bidimensionales o variables aleatorias divariadas de tipo discreto y continuo. Una variable aleatoria asocia un número con cada resultado del experimento aleatorio. Es aleatoria porque al no conocer el resultado del experimento antes de realizarlo, tampoco conocemos el valor que va a tomar la variable. Una variable aleatoria es discreta si puede asumir cuando mucho un Número finito o uno infinito contable de valores posibles Ejemplo: número de piezas defectuosas Una variable aleatoria es continua si en su rango contiene un intervalo. Ejemplo: duración batería. DENSIDAD DISCRETA CONJUNTA. Definición.- Sean X y Y variables aleatorias discretas. El par ordenado (X;Y) se denomina variable aleatoria discreta bidimensional. La función fXY se denomina variable aleatoria discreta bidimensional. La función fXY : f XY ( x, y ) = P[X = x Λ Y = y ] se llama densidad conjunta de (X,Y)
  • 34. El propósito de la densidad es el cálculo de la probabilidad de que la variable aleatoria (X,Y) asuma valores específicos. La densidad conjunta de (X,Y) es no negativa, puesto que representa una probabilidad La distribución de probabilidad conjunta de (X, Y), mide la probabilidad de que los dos resultados, x e y, ocurran al mismo tiempo. Condiciones necesarias y suficientes para que una función sea una densidad discreta conjunta f XY (x, y) ≥ 0. ∑ ∑ x y f XY (x, y) = 1 DISTRIBUCIONES MARGINALES Cuando se trabaja con más de una variable y se quiere calcular las distribuciones de frecuencias de cada una de manera independiente, tenemos las distribuciones marginales. Podemos encontrar la densidad marginal de la variable aleatoria X sumando sobre todos los posibles valores de la variable aleatoria Y: f X (x) = ∑ f XY ( x, y ) y Igualmente podemos encontrar la densidad marginal de la variable aleatoria Y sumando sobre todos los posibles valores de la variable aleatoria X: f Y (y) = ∑ f XY ( x, y ) x
  • 35. A través de la distribución conjunta, podremos encontrar la función de probabilidad condicional de la otra variable, condicional al valor que tomó la variable. INDEPENDENCIA Dos variables son independientes cuando la información de que ha ocurrido uno de ellos no aporta indicios sobre las probabilidades de que ocurra el otro. Se dirá que las variables aleatorias X e Y son independientes si y sólo si se verifica que la función de distribución conjunta fXY es igual al producto de sus distribuciones marginales Variables aleatorias independientes.- Sean X y Y variables aleatorias con densidad conjunta fXY y densidades marginales fX y fY, respectivamente. X y Y son independientes si y solo si: f XY ( x, y ) = f X ( x) f Y ( y ) para todos los valores de x y y. ESPERANZA Y COVARIANZA La esperanza condicional proporciona el valor esperado de una variable cuando conocemos los valores que han tomado las otras variables de las cuales depende. La covarianza es útil para describir el comportamiento de una variable en relación a otra La covarianza describe y mide la relación lineal entre dos variables aleatorias, se define como
  • 36. Cov(X,Y) = E[(X - µX)(Y - µY)] Cov(X,Y) = E[XY]-E[X]E[Y] Si la Cov(x,y) es positiva si los valores altos de X están asociados a los valores altos de Y y viceversa. Si la Cov(x,y) es negativa si los valores altos de X están asociados a los valores bajos de Y y viceversa. Si X e Y son variables aleatorias independientes Cov(x,y) = 0 . La independencia es condición suficiente pero no necesaria para que la Cov(x,y) sea nula. CORRELACIÓN • La correlación es una técnica estadística usada para determinar la relación entre dos o más variables • El coeficiente de correlación nos permite valorar si ésta es fuerte o débil, positiva o negativa. • La correlación puede ir de -1 a 1. Las correlaciones de signo negativo indican relación inversa; las de signo positivo, relación directa. Si el coeficiente es positivo, significa que cuando una variable aumenta, la otra también. Si el coeficiente es negativo, significa que cuando una variable aumenta, la otra disminuye (esto se suele denominar correlación quot;inversaquot;). • Una correlación igual a 0 indica que no existe relación entre las variables. El grado de relación lo da el valor absoluto de la correlación. • El coeficiente de correlación es igual a la covarianza dividida por la raíz cuadrada del producto de la varianzas de X y Y Coeficiente de correlación de Pearson. Cov( X , Y ) ρ XY = (Var X )(Var Y )
  • 37. Por ejemplo, la estatura y el peso se encuentran relacionados: las personas más altas suelen pesar más que las más bajas, pero la relación no es perfecta, es decir personas de igual altura que no pesan lo mismo y, a veces, una persona más baja pesa más que una más alta Existen caracteres que ni son independientes, ni se da entre ellos una relación de dependencia funcional, pero si se percibe una cierta relación de dependencia entre ambos; se trata de una dependencia estadística. Cuando los caracteres son de tipo cuantitativo, el estudio de la dependencia estadística se conoce como el problema de “regresión”, y el análisis del grado de dependencia que existe entre las variables se conoce como el problema de correlación. REGRESIÓN Cuando se estudian dos características simultáneamente sobre una muestra, se puede considerar que una de ellas influye sobre la otra de alguna manera. El objetivo principal de la regresión es descubrir el modo en que se relacionan. Por ejemplo, en una tabla de pesos y alturas de 10 personas se puede suponer que la variable “Altura” influye sobre la variable “Peso” en el sentido de que pesos grandes vienen explicados por valores grandes de altura. De las dos variables a estudiar, se denomina a X VARIABLE INDEPENDIENTE o EXPLICATIVA, y a Y como VARIABLE DEPENDIENTE o EXPLICADA. Por ejemplo, se anota el tiempo de estudio (en horas) y la nota de examen de cada alumno de una clase. En este caso un pequeño tiempo de estudio tenderá a obtener una nota más baja, y una nota buena indicará que tal vez el alumno ha estudiado mucho. Para determinar qué variable explica a la otra, está claro que el “tiempo de estudio”
  • 38. explica la “nota de examen” y no al contrario, pues el alumno primero estudia un tiempo que puede decidir libremente, y luego obtiene una nota en la que ya no puede decidir arbitrariamente. Por tanto, X = Tiempo de estudio (variable explicativa o independiente) Y = Nota de examen (variable explicada o dependiente)
  • 39. ESTADISTICA DESCRIPTIVA La estadística descriptiva es el conjunto de técnicas diseñadas para recoger, organizar, resumir y analizar los datos obtenidos para poder extraer conclusiones sobre el comportamiento de las variables que se esta estudiando, para tener un mayor conocimiento y poder tomar decisiones futuras, en las que tener un conocimiento de su comportamiento pasado es de mucha utilidad. El conjunto de todos los elementos que aportan información sobre la investigación que se quiera realizar se denomina población, cuando estos elementos son demasiado extensos, y la recolección de todos los datos no es posible por el gran costo que represente en recursos (tiempo,dinero), lo que se hace es tomar un subconjunto representativo del conjunto total para poder obtener información, que refleje las características de la población, a este subconjunto se lo denomina muestra. Individuo es cada uno de los elementos objeto de estudio, que componen la población y Variable es cada una de las características que se quieren estudiar sobre la población. Así, si se estudia la preferencia por una marca de cualquier producto, se recoge información de un subgrupo (muestra) que sea suficientemente representativo para poder sacar conclusiones sobre cual es la marca preferida por los consumidores(población) cada consumidor se denomina individuo y la característica de conocer cual es preferencia es la variable que se quiere estudiar. Tipos de variables estadísticas
  • 40. Cualitativas o atributos. Son las que expresan cualidades de los individuos y no toman valores numéricos (color de ojos, aceptable o defectuoso…). Cuantitativas. Son las que expresan cantidades de los individuos, toman valores numéricos. Cuantitativas discretas. Pueden tomar puntos aislados como valor, el conjunto de valores es finito o infinito numerable (número de compras en un mes). Cuantitativas continuas. Pueden tomar cualquier valor en algún intervalo o entre dos números reales (tiempo transcurrido entre la llegada de dos autobuses). TABLA DE DISTRIBUCIÓN DE FRECUENCIAS Frecuencia absoluta (ni) de una variable estadística es el número de veces que cada valor de la variable se repite. Cuando los atributos no se corresponden con una escala ordinal es conveniente ordenarlos por su frecuencia de aparición. Si se trata de una variable cuantitativa se ordenará por el orden de los valores que toma. La frecuencia absoluta por sí sola no da una idea de la importancia o relevancia de los datos obtenidos. Frecuencia relativa (fr(xi)). La frecuencia relativa del valor xi es el cociente entre la frecuencia absoluta y el número total de datos. n º veces que se observa x i f r ( xi ) = n º total de datos Se pueden multiplicar por 100 y así obtener porcentajes Frecuencia absoluta acumulada (Ni).- es el resultado de acumular las frecuencias absolutas.
  • 41. Frecuencia relativa acumulada (Fi).- es el resultado de acumular las frecuencias relativas. Se puede dar que el porcentaje acumulado puede no sumar 100, debido a errores de redondeo. DATOS AGRUPADOS Cuando el número de valores distintos que toma una variable discreta es grande o cuando ésta sea continua, es conveniente agruparlos en clases. Para realizar la subdivisión por clases se tiene que: ♣ Redondearlos datos, a lo sumo, tres cifras significativas y elegir las unidades de medida para que los datos tengan tres cifras enteras, siempre que sea posible. ♣ Decidir el número de clases entre 5 y 20. El número de clases es el entero más próximo a n , siendo n el número de datos. Es conveniente probar con varios y seleccionar la representación más clara. ♣ Sepuede utilizar la siguiente tabla para determinar el número de clases en función del tamaño de la muestra. Si n<16 el número de datos se considera insuficiente. Número recomendado de clases en función del tamaño de la muestra <16 Insuficiente 16-31 5 32-63 6 64-127 7 128-255 8 256-511 9 512-1023 10 1024-2047 11 2048-4095 12 4096-8190 13
  • 42. ♣ Seleccionar los límites de clase, que definirán los intervalos y la longitud de los mismos. Las observaciones se deben clasificar en una única clase sin ambigüedad. ♣ Contar el número de observaciones de cada clase para obtener la frecuencia absoluta de la clase. Rango de datos =máximo – mínimo. Rango / nº clases = valor mínimo de amplitud para cubrir el rango. Para asegurarse de que ningún valor cae en el límite se comienza la primera clase ligeramente inferior al mínimo. Entonces la amplitud deberá ser un poco mayor que el cociente obtenido. El límite inferior se puede escoger ½ por debajo del mínimo. Medidas características de una distribución Cuando disponemos de un conjunto de datos homogéneo de una variable cuantitativa, resulta conveniente completar la distribución de frecuencias con ciertas medidas resumen. Medidas de tendencia central o centralización. Indican el valor medio de los datos. Medidas de dispersión. Miden su variabilidad. Medidas de forma. Miden el grado de simetría y concentración de la distribución. MEDIDAS DE LOCALIZACIÓN Media poblacional, µ, es el valor medio de la variable sobre toda la población. Mediana poblacional, M, aproximadamente el 50% de los valores de la población están en o por debajo de la mediana y el resto por encima de M. Los parámetros poblacionales son desconocidos y no pueden hallarse, pero es posible estimarlos a partir de una muestra, mediante la media muestral y la mediana muestral ( x , ~ ) x
  • 43. Media muestral Sean x1,x2,…,xn un conjunto de n observaciones de la variable x. A la media aritmética de estos valores se le llama media muestral. n ∑x i x= i =1 n Diferencias entre la media y la mediana La mediana tiene la ventaja de ser una medida resistente, es decir, una medida que se ve afectada sólo ligeramente por valores atípicos, valores alejados del resto de los datos. Mientras que la media muestral se ve muy afectada por este tipo de valores. La media tiene la ventaja de tener en cuenta todas las observaciones, mientras que la mediana sólo tiene en cuenta el orden de las mismas y no su magnitud. MEDIDAS DE DISPERSIÓN O VARIABILIDAD Se busca un estadístico que cumpla que cuando los datos están agrupados alrededor de la media, éste sea pequeño y que cuando los datos están distribuidos de manera amplia, su valor sea grande. Parámetros poblacionales Parámetros muestrales. Estadísticos 2 Varianza σ Varianza muestral s2 Desviación típica σ Desviación típica muestral s poblacional Rango intercuartílico IQR Rango intercuartílico iqr muestral Rango Rango muestral Varianza muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x, con media muestral x . La varianza muestral se denota por s2 y viene dada por la expresión: ∑ (x i − x ) 2 ni s2 = i n
  • 44. Puesto que la varianza muestral no tiene las mismas unidades que los datos, se define la desviación típica muestral. Desviación típica muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x, con varianza muestral s2. La desviación típica muestral se simboliza por s y viene dada por la expresión: ∑ (x i − x ) 2 ni s = s2 = i n La desviación típica muestral no es un buen estimador de la desviación típica poblacional (se desvía a la izquierda de σ ). Para corregir esa desviación se suele hacer uso de la raíz cuadrada de la cuasivarianza muestral ∑ (x i i − x ) 2 ni n −1 La desviación típica se registra con un decimal más que los datos, sin antes redondear la varianza. La varianza se expresa con dos decimales más que los datos. Interpretación de la desviación típica La media y la desviación típica de una distribución proporcionan, de forma conjunta, una gran información. Entre la media y más/menos k veces la desviación típica se encuentra como mínimo el 1 100(1 − )% de los datos. k2 Rango muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x. El rango muestral es la diferencia entre el mayor y el menor de los valores observados. Percentiles Los percentiles son una medida de posición que no refleja la tendencia central. Son los noventa y nueve valores de la distribución que la dividen en cien partes, de forma que dentro de cada una están incluidos el 1% de los valores. Para distribuciones no agrupadas en intervalos se calculan previamente las frecuencias acumuladas y se calcula el valor que ocupa la posición n s de la 100 distribución.
  • 45. Rango inter cuartíl, iqr Las medidas de dispersión utilizadas se ven muy afectadas por los datos atípicos. El rango intercuartíl es una medida resistente a los datos atípicos, y se define como la longitud del intervalo que contiene el 50% central de los datos. iqr = q3 – q1 Si iqr es muy pequeño, implica que la mayoría de los datos están en el centro, si por el contrario es grande los datos se distribuyen ampliamente. REPRESENTACIONES GRÁFICAS Diagrama de barras Un diagrama de barras permite transmitir la información contenida en una tabla de frecuencias para variables estadísticas cualitativas o cuantitativas discretas no agrupadas. ♣ Cada barra tiene la misma anchura. ♣ Cada barra representa una categoría. ♣ Las alturas dependen del número de observaciones por categoría. ♣ El eje vertical representa: frecuencias absolutas, frecuencias relativas o porcentajes. La utilización de las frecuencias relativas o porcentajes tiene la ventaja de que la escala no dependerá de los datos, puesto que siempre oscilan entre 0 y 1 ó 0 y 100. También se pueden utilizar barras horizontales.
  • 46. Histogramas Un histograma es una representación gráfica de los datos contenidos en una tabla de frecuencias de variables continuas o discretas agrupadas en intervalos. El área de cada barra es proporcional al número de objetos en la categoría o clase que representa. Es posible utilizar las frecuencias absolutas, relativas o lo porcentajes. Los histogramas proporcionan mucha información sobre la distribución de los datos. Diagrama de tallo y hojas Los diagramas de tallo y hojas permiten representar la distribución de una variable cuantitativa. Elegir los números que servirán de tallos. o Para datos con 2 dígitos, se elegirán las decenas. o Para datos con 3 dígitos, se elegirán las decenas y centenas. Cada tallo define una clase y se escribe sólo una vez y el número de hojas representa su frecuencia absoluta. Etiquetamos las filas con los tallos. Anotamos el dígito que sigue al tallo. Si la utilización del primer o de los dos primeros dígitos no proporciona suficiente información, entonces se pueden utilizar tallos dobles, en la primera rama se representan los valores menores que 5 y en la segundo los mayores. Ejemplo. El tiempo que una persona espera la llegada de un radio taxi 1.0 8.3 3.1 1.1 5.1 1.2 1.0 4.1 1.1 4.0 2.0 1.9 6.3 1.4 1.3 3.3 2.2 2.3 2.1 2.1 1.4 2.7 2.4 3.0 4.1 5.0 2.2 1.2 7.7 1.5
  • 47. Diagrama de tallo y hojas 1 02409211435 2 02723411 3 310 4 101 5 01 6 3 7 7 8 3 Diagrama de cajas El diagrama de cajas es una representación gráfica de un conjunto de datos que facilita la percepción visual de su localización, extensión y del grado y la dirección del sesgo. También permite identificar datos atípicos. ♣ Calcular ~ , q1, q3, iqr. x ♣ Determinar los separadores interiores: f1 = q1 - 1,5 iqr f2 = q3 + 1,5 iqr ♣ Los puntos por debajo de f1 y por encima de f2 se consideran atípicos. ♣ Determinar los valores adyacentes a1 y a3: o a1 es el dato más próximo a f1 sin que esté por debajo de f1. o a3 es el dato más próximo a f2 sin que esté por encima de f2. ♣ Determinar los separadores exteriores F1 = q1 – 2(1,5) iqr F2 = q3 + 2(1,5) iqr ♣ Dibujar en una recta todos los puntos calculados. ♣ Dibujar una caja con q1 y q3. o Una línea en la mediana. o Representar por una “x” los valores a1 y a3. Bigotes – unirlos con una línea discontinua. o Los puntos entre f i y Fi son círculos abiertos, es decir, datos atípicos moderados. o Los puntos fuera de F=[F1, F2] son asteriscos, es decir, datos atípicos extremos.
  • 48. La línea central indica la simetría de la distribución. Si la línea no está centrada la distribución será asimétrica en la dirección del lado más largo. a1 a3 F1 f1 q1 ~ x q3 f2 F2 * *
  • 49. ESTIMACIÓN ESTIMACIÓN DE PARÁMETROS La teoría de muestreo puede emplearse para obtener información acerca de muestras obtenidas aleatoriamente de una población conocida. Esto nos sirve en la práctica para poder ser capaz de inferir información acerca de una población a partir de muestras de ella, de ahí su importancia Los problemas planteados que tenemos sobre los que queremos obtener conclusiones de su comportamiento y evolución son tratados por la inferencia estadística que utiliza principios de muestreo. Un problema importante de la inferencia estadística es la estimación de parámetros poblacionales o simplemente parámetros (como la media y la varianza poblacionales) La ventaja de la media es que es muy fácil de calcular, pero su desventaja es que es muy sensible a valores extremos, es decir, si la mayoría de los datos se encuentran alrededor de la media, pero si existe uno o varios valores cargados hacia uno de los extremos el valor de la media se desplaza hacia ese lado. La media aritmética es un promedio de los valores observados, mientras que la mediana es cualquier valor que se encuentre en el promedio de todas las posiciones de un arreglo ordenado. La mediana es una medida de tendencia central más apropiada que la media cuando el conjunto de datos contiene unos pocos valores extremos, altos o bajos.
  • 50. La estimación es un proceso por el que se trata de averiguar un parámetro de la población representado por una muestra, a partir del valor de un estadístico llamado estimador y esta representado por . El problema se resuelve en base al conocimiento de la quot;distribución muestralquot; del estadístico que se use (varianza, desviación estándar, rangos muestrales). . Si para cada muestra posible calculamos la media muestral ( ) obtenemos un valor distinto ( es un estadístico: es una variable aleatoria y sólo depende de la muestra), habrá por tanto una distribución muestral de medias para . Varianza de : σ2 Var X = n X → media muestral σ 2 → var ianza n → muetra aleatoria de tamaño n La desviación típica de esta distribución se denomina error típico de la media. Evidentemente, habrá una distribución muestral para cada estadístico, no sólo para la media, y en consecuencia un error típico para cada estadístico. Si la distribución muestral de un estadístico estuviera relacionada con algún parámetro de interés, ese estadístico podría ser un estimador del parámetro. Así al procedimiento utilizado cuando se quiere conocer las características de un parámetro poblacional, a partir del conocimiento de la muestra, se denomina estimación. Hay que tener en cuenta que la población a muestrear es una población presente, que ya existe en el momento de darse el proceso de lo contrario se trataría de un pronostico, no de una estimación
  • 51. INTERVALO DE CONFIANZA Se llama así a un intervalo en el que sabemos que está un parámetro, con un nivel de confianza específico. Si se tiene que la media se encuentra en el intervalo (2,8 3,2) con un nivel de confianza del 95%, lo que se dice es que si se hace muestras de tamaño 40, y se fueran contabilizando sus medias, en el 95% de los casos, la media calculada estaría en dicho intervalo. NIVEL DE CONFIANZA También se tiene que el porcentaje de intervalos que se puede esperar contengan el valor real del parámetro, cuando se utilice una y otra vez el mismo procedimiento de construcción de intervalo, se denomina nivel de confianza. Es la probabilidad de que el parámetro a estimar se encuentre en el intervalo de confianza. Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9% ERROR DE ESTIMACIÓN MÁXIMO Es el radio de anchura del intervalo de confianza. Este valor nos dice en qué margen de la media muestral se encuentra la media poblacional al nivel de confianza asignado. Varianza de un estimador
  • 52. Una propiedad importante de un estimador es su varianza (o su raíz cuadrada, la desviación estándar). La importancia de la desviación estándar es que permite darle un sentido numérico a la cercanía del valor del estimador a su valor esperado. Entonces entre menor sea la desviación estándar (o la varianza) de un estimador, será más probable que su valor en una muestra específica se encuentre mas cerca del valor esperado. Bien si se considera T1 y T2 dos estimadores en la que ambos son insesgados y que la varianza de T1 es menor que la de T2. ¿Qué quiere decir esto? Que en un entorno fijo del valor del parámetro, los valores de T1 son más probables que los de T2. O sea que vamos a encontrar a T1 más cerca del valor del parámetro que a T2. Esto hace que las preferencias estén con T1. Cuando un estimador tiene una varianza menor que otro se entiende que el estimador es más eficiente. Una estimación de un parámetro de la población dada por un solo número se llama una estimación de punto del parámetro, se utiliza cuando el parámetro poblacional como ya se mencionó se expresa en un sólo valor numérico, por ejemplo, el tiempo máximo para que los estudiantes completen un examen de matemáticas, el cual es de 2 hora Una estimación de un parámetro de la población dada por dos puntos, entre los cuales se pueden considerar encajado al parámetro, se llama una estimación del intervalo del parámetro.
  • 53. Ejemplo: Un fabricante indica que una resistencia de 1 K Ω tiene una precisión de ± 0.5, el fabricante esta dando una estimación por intervalo. El margen de error o la percepción de una estimación, nos informa su fiabilidad. En general, las estimaciones de intervalo, que indican la precisión de una estimación, las prefieren más que a las estimaciones de punto. Para construir un intervalo, hay que hacer que la estimación puntual sea el centro del intervalo y se crea un intervalo arriba y uno abajo del centro por medio del error estándar del estimador, éste último es la desviación estándar de la distribución muestral del estimador. Así se logra que el parámetro desconocido supuestamente esté dentro de ese intervalo, mas no necesariamente en su centro.