viernes, 2 de noviembre de 2012


SESGO:


En estadística se llama sesgo de un estimador a la diferencia entre su esperanza matemática y el valor numérico del parámetro que estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado.
En notación matemática, dada una muestra x_1, \dots, x_n\, y un estimador T(x_1, \dots, x_n)\, del parámetro muestral \theta\,, el sesgo es:
E(T) - \theta\,
El no tener sesgo es una propiedad deseable de los estimadores. Una propiedad relacionada con ésta es la de la consistencia: un estimador puede tener un sesgo pero el tamaño de éste converge a cero conforme crece el tamaño muestral.
Dada la importancia de la falta de sesgo, en ocasiones, en lugar de estimadores naturales se utilizan otros corregidos para eliminar el sesgo. Así ocurre, por ejemplo, con la Varianza muestral.
CURTOSIS:
En teoría de la probabilidad y estadística, la curtosis es una medida de la forma. Así, las medidas de curtosis tratan de estudiar la proporción de la Varianza que se explica por la combinación de datos extremos respecto a la media en contraposición con datos poco alejados de la misma. Una mayor curtosis implica una mayor concentración de datos muy cerca de la media de la distribución coexistiendo al mismo tiempo con una relativamente elevada frecuencia de datos muy alejados de la misma. Esto explica una forma de la distribución de frecuencias con colas muy elevadas y un con un centro muy apuntado.


No hay comentarios:

Publicar un comentario