domingo, 15 de noviembre de 2015

Medidas de forma

Son medidas que determinan numéricamente algunas características de la forma en que estan distribuidos los datos. Entre estas medidas se tiene: el coeficiente de asimetría y el coeficiente de curtosis.


Coeficiente de asimetría: Se dice que una distribución de datos estadísticos es simétrica cuando la línea vertical que pasa por su media, divide a su representación gráfica en dos partes simétricas. Ello equivale a decir que los valores equidistantes de la media, presentan la misma frecuencia. En las distribuciones simétricas los parámetros media, mediana y moda coinciden, mientras que si una distribución presenta cierta asimetría, de un tipo o de otro, los parámetros se sitúan como muestra el siguiente gráfico:
Posiciones relativas de parámetros centrales.svg

Ello puede demostrarse fácilmente si se tiene en cuenta la atracción que la media aritmética siente por los valores extremos, que ya se ha comentado más arriba y las definiciones de mediana (justo en el centro de la distribución, tomando el eje de abscisas como referencia) y moda (valor que presenta una ordenada más alta).

Por consiguiente, la posición relativa de los parámetros de centralización pueden servir como una primera medida de la simetría de una distribución.

Medidas de curtosis: Con estos parámetros se pretende medir cómo se reparten las frecuencias relativas de los datos entre el centro y los extremos, tomando como comparación la campana de Gauss. El parámetro usado con más frecuencia para esta medida es el coeficiente de curtosis de Fisher, definido como:
\gamma_2 = \frac{\sum_{i=1}^n (x_i-\bar{x})^4}{n\sigma^4}-3

La comparación con la distribución normal permite hablar de distribuciones platicúrticas o más aplastadas que la normal; distribuciones mesocúrticas, con igual apuntamiento que la normal; y distribuciones leptocúrticas, esto es, más apuntadas que la normal.
Por último, existen otras medidas para decidir sobre la forma de una distribución con ajuste a modelos menos usuales como los que se muestran en las siguientes gráficas:

Forma distribucion.svg

Medidas de dispersión

Las medidas de dispersión, muestran la variabilidad de una distribución, indicando por medio de un número si las diferentes puntuaciones de una variable están muy alejadas de la media. Cuanto mayor sea ese valor, mayor será la variabilidad, y cuanto menor sea, más homogénea será a la media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos.
Las medidas de dispersión son:

Rango o recorrido: es la diferencia entre el mayor y el menor de los datos de una distribución estadística.

Desviación media: La desviación respecto a la media es la diferencia entre cada valor de la variable estadística y la media aritmética.
Di = x - x
La desviación media es la media aritmética de los valores absolutos de las desviaciones respecto a la media.
Se representa por signo

desviación media
desviación media

Desviación media para datos agrupados

Si los datos vienen agrupados en una tabla de frecuencias, la expresión de la desviación media es: 
delegación media
desviación media


 Varianza: es la media aritmética del cuadrado de las desviaciones respecto a la media de una distribución estadística.
La varianza se representa por signo.
varianza        varianza

Varianza para datos agrupados
varianza      varianza
Para simplificar el cálculo de la varianza vamos o utilizar las siguientes expresiones que son equivalentes a las anteriores.
varianza     varianza
varianza      varianza

Propiedades de la varianza:
  1. La varianza será siempre un valor positivo o cero, en el caso de que las puntuaciones sean iguales.
  2. Si a todos los valores de la variable se les suma un número la varianza no varía.
  3. Si todos los valores de la variable se multiplican por un número la varianza queda multiplicada por el cuadrado de dicho número.
  4. Si tenemos varias distribuciones con la misma media y conocemos sus respectivas varianzas se puede calcular la varianza total.
Si todas las muestras tienen el mismo tamaño:
varianzas
Si las muestras tienen distinto tamaño:
varianzas
Observaciones sobre la varianza:
  1. La varianza, al igual que la media, es un índice muy sensible a las puntuaciones extremas.
  2. En los casos que no se pueda hallar la media tampoco será posible hallar la varianza.
  3. La varianza no viene expresada en las mismas unidades que los datos, ya que las desviaciones están elevadas al cuadrado.
 
Desviación típica: es la raíz cuadrada de la varianza. Es decir, la raíz cuadrada de la media de los cuadrados de las puntuaciones de desviación.
La desviación típica se representa por σ.
de relación típica         desviación

Desviación típica para datos agrupados

desviación típica     desviación
Para simplificar el cálculo vamos o utilizar las siguientes expresiones que son equivalentes a las anteriores.
desviación típica         desviación típica

desviación típica         desviación típica

Propiedades de la desviación típica:
  1. La desviación típica será siempre un valor positivo o cero, en el caso de que las puntuaciones sean iguales.
  2. Si a todos los valores de la variable se les suma un número la desviación típica no varía.
  3. Si todos los valores de la variable se multiplican por un número la desviación típica queda multiplicada por dicho número.
  4. Si tenemos varias distribuciones con la misma media y conocemos sus respectivas desviaciones típicas se puede calcular la desviación típica total.
Si todas las muestras tienen el mismo tamaño:
desviación típica
Si las muestras tienen distinto tamaño:
desviación típica

Observaciones sobre la desviación típica
  1. La desviación típica, al igual que la media y la varianza, es un índice muy sensible a las puntuaciones extremas.
  2. En los casos que no se pueda hallar la media tampoco será posible hallar la desviación típica.
  3. Cuanta más pequeña sea la desviación típica mayor será la concentración de datos alrededor de la media.