Distribución Normal : noviembre 2014

miércoles, 26 de noviembre de 2014

Historia de la distribución normal

          La distribución normal fue presentada por primera vez por Abraham De Moivre en un artículo del año 1733, que fue reimpreso en la segunda edición del libro "The Doctrine of Chances", de 1738, en el contexto de cierta aproximación de la distribución binomial para grandes valores de n. Su resultado fue ampliado por Laplace en su libro Teoría analítica de las probabilidades (1812) y en la actualidad se llama Teorema de "De Moivre-Laplace".


       Laplace usó la distribución normal en el análisis de errores de experimentos; el importante método de mínimos cuadrados fue introducido por Legendre en 1805.


      Gauss, que afirmaba haber usado el método desde 1794, lo justificó rigurosamente en 1809 asumiendo una distribución normal de los errores. El nombre de Gauss se ha asociado a esta distribución porque la usó con profusión cuando analizaba datos astronómicos y algunos autores le atribuyen un descubrimiento independiente del "De Moivre". Esta atribución del nombre de la distribución a una persona distinta de su primer descubridor es un claro ejemplo de la Ley de Stigler.


       El nombre de "campana" viene de Esprit Jouffret que usó el término "bell surface" (superficie campana) por primera vez en 1872 para una distribución normal bivariante de componentes independientes. El nombre de "distribución normal" fue otorgado independientemente por Charles S. Peirce, Francis Galton y Wilhelm Lexis hacia 1875.


Abraham de Moivre, primero en descubrir la distribución normal


Abraham De Moivre, primero en descubrir la distribución normal

Concepto e importancia de la distribución normal

      En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales. La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto a un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana.


    La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos, mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos por la enorme cantidad de variables incontrolables que en ellos intervienen.

   El uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes, la distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.


    La distribución normal también aparece en muchas áreas de la propia estadística, por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal cuando la distribución de la población de la cual se extrae la muestra no es normal. Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".

Propiedades de la distribución normal

Algunas propiedades de la distribución normal son:
  • Es simétrica respecto de su media, μ;
  • La moda y la mediana son ambas iguales a la media, μ;
  •  Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ.
  •  Distribución de probabilidad en un entorno de la media:
  • En el intervalo [μ - σ, μ + σ] se encuentra comprendida, aproximadamente, el 68,26% de la distribución;
  •  En el intervalo [μ - 2σ, μ + 2σ] se encuentra, aproximadamente, el 95,44% de la distribución;
  •  Por su parte, en el intervalo [μ -3σ, μ + 3σ] se encuentra comprendida, aproximadamente, el 99,74% de la distribución.
  •  Estas propiedades son de gran utilidad para el establecimiento de intervalos de confianza. Por otra parte, el hecho de que prácticamente la totalidad de la distribución se encuentre a tres desviaciones típicas de la media justifica los límites de las tablas empleadas habitualmente en la normal estándar.
  •  Si X ~ N(μ, σ2) y a y b son números reales, entonces (aX + b) ~ N(aμ+b, a2σ2).
  •  Si X ~ N(μx, σx2) e Y ~ N(μy, σy2) son variables aleatorias normales independientes, entonces:
  •  Su suma está normalmente distribuida con U = X + Y ~ N(μx + μy, σx2 + σy2) (demostración). Recíprocamente, si dos variables aleatorias independientes tienen una suma normalmente distribuida, deben ser normales (Teorema de Crámer).
  •  Su diferencia está normalmente distribuida con
.
  •  Si las varianzas de X e Y son iguales, entonces U y V son independientes entre sí. 
  • La divergencia de Kullback-Leibler,    

  • Si e son variables aleatorias independientes normalmente distribuidas, entonces:

  • Su producto sigue una distribución con densidad dada por

  • donde es una función de Bessel modificada de segundo tipo.

  • Su cociente sigue una distribución de Cauchy con . De este modo la distribución de Cauchy es un tipo especial de distribución cociente.

  • Si son variables normales estándar independientes, entonces sigue una distribución χ² con n grados de libertad. 

  • Si son variables normales estándar independientes, entonces la media muestral y la varianza muestral son independientes. Esta propiedad caracteriza a las distribuciones normales y contribuye a explicar por qué el test-F no es robusto respecto a la no-normalidad).

Tabla de la Distribución Normal


Empleo de la tabla de la distribución normal





Tabla de la curva normal (0,1)

        La tabla nos da las probabilidades de P(z ≤ k), siendo z la variable tipificada. Estas probabilidades nos dan la función de distribución Φ(k).

Φ(k) = P(z ≤ k) 

Búsqueda en la tabla de valor de k

       Unidades y décimas en la columna de la izquierda.
Céntesimas en la fila de arriba.

P(Z ≤ a)

gráfica
P(Z ≤ 1.47) = 0.9292

P(Z > a) = 1 - P(Z ≤ a)

gráfica
P(Z > 1.47) = 1 − P(Z ≤ 1.47) = 1 − 0.9292 = 0.0708

P(Z ≤ −a) = 1 − P(Z ≤ a)

gráfica
P(Z ≤ −1.47) = 1 − P(Z ≤ 1.47) = 1 − 0.9292 = 0.0708

P(Z > −a) = P(Z ≤ a)

gráfica
p(Z > −1.47) = p(Z ≤ 1.47) = 0.9292

P(a < Z ≤ b ) = P(Z ≤ b) − P(Z ≤ a)

gráfica
P( 0.45 <Z ≤ 1.47) = P(Z ≤ 1.47) − P(Z ≤ 0.45) =
= 0.9292 − 0.6736 = 0.2556

P(−b < Z ≤ −a ) = P(a < Z ≤ b )

gráfica
P(−1.47 <Z ≤ − 0.45) = P( 0.45 <Z ≤ 1.47) =
= P(Z ≤ 1.47) − P(Z ≤ 0.45) = 0.9292 − 0.6736 = 0.2556

P(−a < Z ≤ b ) = P(Z ≤ b) − [ 1 − P(Z ≤ a)]

gráfica
P(-1.47 < Z ≤ 0.45) = P(Z ≤ 0.45) − [ 1 − P(Z ≤ 1.47)]=
= 0.6736 − (1 − 0.9292) = 0.6028

p = K

     Nos encontramos con el caso inverso a los anteriores, conocemos el valor de la probabilidad y se trata de hallar el valor de la abscisa. Ahora tenemos que buscar en la tabla el valor que más se aproxime a K.

 p = 0.75Z ≤ 0.68
     
     Para calcular la variable X nos vamos a la fórmula de la tipificación.

(X - μ)/σ = 0.68X = μ + 0.68 σ


Aplicación de la distribución Normal




   
                



INTEGRANTES:
               Luis Figueroa                         Diego Salazar                        Kriptza Gomez                                            Rosmir Ascanio