lunes, 28 de abril de 2008

ESTIMACIÓN DE PARÁMETROS.

UNIDAD II.

v ESTIMACIÓN DE LOS PARÁMETROS DE LA POBLACIÓN.

Parte A:


1. DISTRIBUCIONES TEÓRICAS EMPLEADAS EN ESTADÍSTICA INFERENCIAL:
· DISTRIBUCIÓN NORMAL.
· DISTRIBUCIÓN CHI CUADRADO.
· DISTRIBUCIÓN t DE STUDENT.

2. ESTIMADOR Y ESTIMACIÓN.

3. TIPOS DE ESTIMACIÓN:
· ESTIMACIÓN PUNTUAL.
· ESTIMACIÓN POR INTERVALOS.

4. PROPIEDADES DE LOS BUENOS ESTIMADORES:
· INSESGABILIDAD.
· CONSISTENCIA.
· EFICIENCIA.
· SUFICIENCIA.

5. REQUISITOS PARA QUE UN ESTIMADOR SEA VÁLIDO.

6. SIGNIFICACIÓN DE UN ESTADÍSTICO:
· NIVELES DE CONFIANZA.
· NIVELES DE RIESGOS.
· LÍMITES E INTERVALOS DE CONFIANZA.
· GRADOS DE LIBERTAD.
· MUESTRAS GRANDES.
· MUESTRAS PEQUEÑAS.




FECHA LÍMITE DE CONSIGNACIÓN: Sábado, 03/04/2008

19 comentarios:

jose dijo...

ESTIMACIÓN DE LOS PARÁMETROS DE LA POBLACIÓN.

• DISTRIBUCIÓN NORMAL:
Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas.
Su propio nombre indica su extendida utilización, justificada por las frecuencia o normalidad con la que las ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de p y de valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una forma en forma de campana.
En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal.
• DISTRIBUCIÓN CHI CUADRADO.
En estadística, la distribución chi-cuadrado, también denominada ji-cuadrado de Pearson, es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria:

• DISTRIBUCIÓN t DE STUDENT.
En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.

La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.

-ESTIMACIÓN DE LOS PARÁMETROS DE LA POBLACIÓN
-TIPOS DE ESTIMACIÓN
ESTIMACION PUNTUAL:
Un estimador puntual es simplemente un estadístico (media aritmética, varianza, etc.) que se emplea para estimar parámetros (media poblacional, varianza poblacional, etc.).
Es decir, cuando obtenemos una media aritmética a partir de una muestra, tal valor puede ser empleado como un estimador para el valor de la media poblacional.
(Algunos autores comparan los estimadores con los lanzamientos en una diana; el círculo central sería el valor real del parámetro.)
ESTIMACIÓN POR INTERVALOS.
Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:

-PROPIEDADES DE LOS BUENOS ESTIMADORES:
INSESGABILIDAD.

Estimador insesgado
Ésta es una propiedad deseable para un buen estimador. El término insesgado se refiere al hecho de que una media de muestra es un estimador no sesgado de una media de población porque la distribución de muestreo de las medias de muestra tomadas de la misma población es igual a la media de la población misma.

Estimador consistente
Una estimador es consistente si, al aumentar el tamaño de la muestra, se tiene casi la certeza de que el valor del estimador se aproxima bastante al valor del parámetro de la población.

Estimador eficiente
La eficiencia se refiere al tamaño del error estándar de la estadística. Si comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de decidir cuál de ellas es un estimador más eficiente, escogeríamos la estadística que tuviera el menor error estándar de la distribución de muestreo. Supongamos se escogemos una muestra de un tamaño determinado y debemos de decidir si utilizamos o no la media de la muestra para estimar la media de la población. Si calculamos el error estándar de la media de la muestra y nos da un valor de 1.05 y luego calculamos el error estándar de la mediana de la muestra y tenemos que es de 1.4, diríamos que la media de la muestra es un estimador más eficiente de la media de la población ya que su error estándar es menor que el de la mediana.

Estimador Suficiente
Un estimador es suficiente si extrae de la muestra toda la información de interés en relación con el parámetro.

NIVELES DE CONFIANZA
El nivel de confianza es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor del parámetro. Se indica por 1-α y habitualmente se da en porcentaje (1-α)100%. Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1-α)% de los intervalos así construidos contendría al verdadero valor del parámetro.

Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9%

LÍMITES E INTERVALOS DE CONFIANZA.

La estimacion se toma de una muetra de la poblacion y se usa la media de la muetra para estimar la media de la poblacion, una estimacion puntual es un valor que se usa para estimar un valor poblacional; pero una estimacion puntual es un solo valor, una estimacion en la que se da mas informacion implica dar un intervalo de valores, en el que se espera se encuentre el parametro

GRADOS DE LIBERTAD

En estadística, grados de libertad es un estimador del número de categorías independientes en un test particular o experimento estadístico. Se encuentran mediante la fórmula n-1, donde n=número de sujetos en la muestra (también pueden ser representados por k-1 donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales).

MUESTRAS GRANDES.

Unknown dijo...

estimacion de los parametro
Un estimador es un valor que puede calcularse a partir de los datos muestrales y que proporciona información sobre el valor del parámetro. Por ejemplo la media muestral es un estimador de la media poblacional, la proporción observada en la muestra es un estimador de la proporción en la población
Distribucion CHI cuadrado
En estadística, la distribución chi-cuadrado, también denominada ji-cuadrado de Pearson, es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable
Nivel de confianza es la "probabilidad" de que el intervalo calculado contenga al verdadero valor del parámetro. Se indica por 1-a y habitualmente se da en porcentaje (1-a)100%. Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1-a)% de los intervalos así construidos contendría al verdadero valor del parámetro.

ESTIMACION PUNTUAL
Cuando en una población con familia distribucional conocida queremos estimar el verdadero valor del parámetro poblacional utilizando como lente para determinarlo al estimador muestral ; procedemos a seleccionar una muestra de tamaño n de dicha población, calculamos a partir de ella un valor y afirmamos entonces que es una estimación puntual de con un error, por exceso o defecto, de valor k.
K depende en general de la variable aleatoria muestral y de su desviación . En los casos de muestras grandes, cuando los valores de la muestra corresponden a variables aleatorias

Estimado Un estimador de un parámetro poblacional es una función de los datos muestrales. En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.

Por ejemplo, un estimador de la media poblacional, μ, sería la media muestral, , según la siguiente fórmula:


donde (x1, x2, ..., xn) sería el conjunto de de datos de la muestra.

En el ejemplo se habla de una estimación puntual. Sin embargo, el estimador es una variable aleatoria que asigna a cada valor de la función su probabilidad de aparición, esto es, la probabilidad de la muestra de la que se extrae.


Estimación puntual Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos.


Estimación por intervalos Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:


Intervalo de confianza El intervalo de confianza es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. Pero Aveces Puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circustancial


Variabilidad del Parámetro Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ.


Error de la estimación Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, más ocurrencias deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión. Se suele llamar E, según la fórmula E = θ2 - θ1.


Limite de Confianza Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-α)·100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01 respectivamente

Grado de libertad
En estadística, grados de libertad es un estimador del número de categorías independientes en un test particular o experimento estadístico. Se encuentran mediante la fórmula n-1, donde n=número de sujetos en la muestra (también pueden ser representados por k-1 donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales

Estimador Suficiente
Un estimador es suficiente si extrae de la muestra toda la información de interés en relación con el parámetro.

Estimador insesgado
Ésta es una propiedad deseable para un buen estimador. El término insesgado se refiere al hecho de que una media de muestra es un estimador no sesgado de una media de población porque la distribución de muestreo de las medias de muestra tomadas de la misma población es igual a la media de la población misma.

Unknown dijo...

DISTRIBUCIONES TEORICA EMPLEADA EN LA ESTADISTICA INFERENCIAL.
Distribución normal: Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Distribución Chi Cuadrado: En estadística, la distribución ji-cuadrado, también denominada ji-cuadrado de Pearzón, es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria.

Distribución t de student:En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de t de student para la determinación de las diferencias entre dos medias muéstrales y para la construcción de intervalo de confianza para la diferencia entre las medias de dos poblaciones.
La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.

ESTIMADOR Y ESTIMACION
ESTIMADOR: En estadística, un estimador es un estadístico (esto es, una función de la muestra) usado para estimar un parámetro desconocido de la población. Por ejemplo, si se desea conocer el precio medio de un artículo (el parámetro desconocido) se recogerán observaciones del precio de dicho artículo en diversos establecimientos (la muestra) y la media aritmética de las observaciones puede utilizarse como estimador del precio medio.
Para cada parámetro pueden existir varios estimadores diferentes. En general, escogeremos el estimador que posea mejores propiedades que los restantes, como insesgadez, eficiencia, convergencia y robustez (consistencia).
El valor de un estimador proporciona lo que se denomina en estadística una estimación puntual del valor del parámetro en estudio. En general, se suele preferir realizar una estimación mediante un intervalo, esto es, obtener un intervalo [a,b] dentro del cual se espera esté el valor real del parámetro con un cierto nivel de confianza. Utilizar un intervalo resulta más informativo, al proporcionar información sobre el posible error de estimación, asociado con la amplitud de dicho intervalo. El nivel de confianza es la probabilidad de que a priori el verdadero valor del parámetro quede contenido en el intervalo.
En la práctica, en los intervalos suelen indicarse dando el valor del estimador puntual utilizado como centro del intervalo y un valor que debe sumarse y restarse para obtener el límite superior e inferior, por ejemplo:
Equivale a

ESTIMACIÖN :En estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra
En su versión más simple, una estimación de la media de una determinada característica de una población de tamaño N sería la media de esa misma característica para una muestra de tamaño n.
TIPO DE ESTIMACIÖN:
Estimación puntual:
Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos.
Estimación por intervalos:
Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos
PROPIEDADES DE LOS BUENOS ESTIMADORES
Insesgabilidad: , estimador de es una variable aleatoria y por lo tanto tiene una distribución de probabilidad con una cierta media y variancia. Se puede definir estimador insesgado diciendo: Si se utiliza un estadístico muestral para estimar el parámetro de la población , se dice que es un estimador insesgado de , si la esperanza matemática de coincide con el parámetro que desea estimar.
En símbolos: es insesgado
O sea que es de esperar que si se toman muchas muestras de igual tamaño partiendo de la misma distribución y si de cada una se obtiene un valor , la media de todos los valores de ha de estar muy cerca de .
Por ejemplo:
* La media muestral es un estimador insesgado de la media poblacional, o sea que E( ) = 
* La variancia muestral, ¿es un estimador insesgado de la variancia poblacional?
La respuesta depende de como se defina la variancia muestral.
Si , entonces S² es un estimador sesgado de  ² pues . Mas aún, . Pero el sesgo se puede corregir alterando la definición de variancia muestral.
En efecto, si es la variancia muestral corregida, entonces ( y S² es un estimador insesgado de  ².
Consistencia: Si es un estimador muestral calculado a partir de una muestra de tamaño n y si es el parámetro de población que se va a estimar, entonces es un estimador consistente de si la probabilidad de que el valor absoluto de la diferencia entre y su esperanza iguale o supere a e (error admitido que tiende a cero, o sea que es tan pequeño como se quiera), tienda a cero cuando el número de elementos de la muestra tienda a infinito. En símbolos:
si n  
O equivalentemente: si n  
Es decir, para que el estimador sea consistente, es necesario que la probabilidad de que esté a menos de cierta distancia "e" del parámetro  , tienda a 1 al tender n a infinito.
Por ejemplo, se sabe que la media muestral y la variancia son estimadores consistentes ya que tienden a acercarse a los correspondientes valores de la población a medida que aumenta el tamaño de la muestra, pero un estadístico muestral puede ser un estimador sin consistencia. Por ejemplo, si el valor de la primera observación o la media entre la primera y última observación de una muestra se utilizaran para estimar la esperanza de la población, tal estimador no sería consistente pues no tiende a acercarse más y más al valor de la población cuando se aumenta el tamaño de la muestra
Eficiencia: si se utilizan dos estadísticos como estimadores del mismo parámetro, entonces aquel cuya distribución muestral tenga menor variancia, es un estimador más eficiente o más eficaz que el otro. Es decir: es eficiente mínima.
Luego, si tenemos dos estimadores y de un mismo parámetro , procedemos como sigue para hallar el más eficiente entre ellos.
Se halla la razón
Si K > 1, es más eficiente que y usaremos .
Si K < 1, es más eficiente que y usaremos .
Si K = 1, y son igualmente eficientes y se puede utilizar cualquiera de los dos indistintamente.
Supongamos que una variable aleatoria X tiene una distribución simétrica. Por lo tanto la media aritmética y la mediana son iguales. Si se toma una muestra de esta distribución, ¿qué estadístico muestral, o , debería utilizarse para estimar la media de la población  ?
La respuesta depende de cuál es el estimador más eficaz. Ambos son insesgados, pero la variancia de es menor que la de , es decir que . Por lo tanto la media muestral es un estimador más eficaz que la mediana muestral.
Suficiencia: Un estimador suficiente del parámetro  es aquel que agota toda la información pertinente sobre  que se puede disponer en la muestra. Por ejemplo, si se toma una muestra de n = 30 valores con el fin de estimar  , pueden utilizarse como estimadores la primera, la décimo quinta o la última observación, o el promedio entre la primera y la quinta observación. Pero estos estimadores no son suficientes pues no contienen toda la información disponible de la muestra. La media aritmética calculada con las 30 observaciones sí lo es pues tiene en cuenta todas las observaciones.
En definitiva, por ejemplo la media aritmética muestral y la forma corregida de la variancia muestral, son estadísticas que satisfacen los criterios o propiedades de "buenos" estimadores.
SIGNIFICACIÓN DE UN ESTADÍSTICO:
NIVELES DE CONFIANZA El nivel de confianza es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor del parámetro. Se indica por 1-α y habitualmente se da en porcentaje (1-α) 100%. Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1-α) % de los intervalos así construidos contendría al verdadero valor del parámetro.
Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9%
Ejemplos:
Para un nivel de confianza del 88%,
1-α = 0.88
α = 0.12
α/2 = 0.06
Z α / 2 = Z 0.06
P(Z ≤ Z 0.06) =0.94 (1-α/2)
Z(0.94)=1.56

Para un nivel de confianza del 98%,
1-α=0.98
α=0.02
α/2=0.01
Z α / 2 = Z 0.01
P(Z ≤ Z 0.01) =0.99 (1-α/2)
Z(0.99)=2.35

Estimación e intervalos de confianza: En este capitulo nos dice que hay varios aspectos importantes del muestreo y uno de los aspectos que nos dice es sobre el estudio de las estimaciones puntuales que nos dice que es un valor que se usa para estimar un valor poblacional que tiene como fin encontrar el parametro poblacional. También nos dice que el intervalo de valores se lo conoce como intervalo de confianza que es un conjunto de valores obtenido a partir de los datos muéstrales, en el que hay una determinada probabilidad de que se encuentre le parametro.
Grado de libertad: En estadística, grados de libertad es un estimador del número de categorías independientes en un test particular o experimento estadístico. Se encuentran mediante la fórmula n-1, donde n=número de sujetos en la muestra (también pueden ser representados por k-1 donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales).
Cuando se trata de ajustar modelos estadísticos a un conjunto de datos, los residuos -expresados en forma de vector- se encuentran habitualmente en un espacio de menor dimensión que aquél en el que se encontraban los datos originales. Los grados de libertad del error los determina, precisamente, el valor de esta menor dimensión.
Un ejemplo aclara el concepto. Supongamos que
son variables aleatorias, cada una de ellas con media μ, y que

es la "media muestral". Entonces las cantidades

Son los residuos, que pueden ser considerados estimaciones de los errores Xi − μ. La suma de los residuos (a diferencia de la suma de los errores, que no es conocida) es necesariamente 0, ya que existen variables con valores superiores e inferiores a la media muestral. Esto también significa que los residuos están restringidos a encontrarse en un espacio de dimensión n-1 ya que si se conoce el valor de n-1 de estos residuos la determinación del valor del residuo restante es inmediata. Así, se dice que "el error tiene n-1 grados de libertad".

Yexy Cristina dijo...

UNIDAD II.

v ESTIMACIÓN DE LOS PARÁMETROS DE LA POBLACIÓN.

Parte A:

1. DISTRIBUCIONES TEÓRICAS EMPLEADAS EN ESTADÍSTICA INFERENCIAL:

• DISTRIBUCIÓN NORMAL.
Es la distribución de probabilidad que con más frecuencia aparece en estadística y teoría de probabilidades. Esto se debe a dos razones fundamentalmente:
Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación como modelo a gran número de variables estadísticas.
Es, además, límite de otras distribuciones y aparece relacionada con multitud de resultados ligados a la teoría de las probabilidades gracias a sus propiedades matemáticas.

• DISTRIBUCIÓN CHI CUADRADO.
La distribución chi-cuadrado con n grados de libertad es la suma de los cuadrados de variables de distribución normal de media 0 y varianza 1

• DISTRIBUCIÓN t DE STUDENT.
Es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.
La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.


2. ESTIMADOR Y ESTIMACIÓN.
Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.
En su versión más simple, una estimación de la media de una determinada característica de una población de tamaño N sería la media de esa misma característica para una muestra de tamaño n.



3. TIPOS DE ESTIMACIÓN:
. Estimación puntual: CONSISTE en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos.
Estimación por intervalos: Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad


4. PROPIEDADES DE LOS BUENOS ESTIMADORES:
INSESGABILIDAD:
Se refiere al hecho de que una media de muestra es un estimador no sesgado de una media de población porque la distribución de muestreo de las medias de muestra tomadas de la misma población es igual a la media de la población misma.





La eficiencia:
Se refiere al tamaño del error estándar de la estadística. Si comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de decidir cuál de ellas es un estimador más eficiente, escogeríamos la estadística que tuviera el menor error estándar de la distribución de muestreo. Supongamos se escogemos una muestra de un tamaño determinado y debemos de decidir si utilizamos o no la media de la muestra para estimar la media de la población. Si calculamos el error estándar de la media de la muestra y nos da un valor de 1.05 y luego calculamos el error estándar de la mediana de la muestra y tenemos que es de 1.4, diríamos que la media de la muestra es un estimador más eficiente de la media de la población ya que su error estándar es menor que el de la mediana.


Consistente:
Si, al aumentar el tamaño de la muestra, se tiene casi la certeza de que el valor del estimador se aproxima bastante al valor del parámetro de la población.


Suficiente:

Si extrae de la muestra toda la información de interés en relación con el parámetro.


5. REQUISITOS PARA QUE UN ESTIMADOR SEA VÁLIDO.







6. SIGNIFICACIÓN DE UN ESTADÍSTICO:
• NIVELES DE CONFIANZA.
Es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor del parámetro. Se indica por 1-α y habitualmente se da en porcentaje (1-α)100%. Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1-α)% de los intervalos así construidos contendría al verdadero valor del parámetro.
Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9%

• NIVELES DE RIESGOS.

• LÍMITES E INTERVALOS DE CONFIANZA.
El intervalo de confianza.- se dice que es el conjunto de todos los valores obtenidos a partir de los datos de una muetra en el que hay una determinada probabilidad de que se encuentre el parametro. Una distribucion muetral permite localizar un intervalo que tenga una determinada probabilidad de contener a la media poblacional

• GRADOS DE LIBERTAD.
Es un estimador del número de categorías independientes en un test particular o experimento estadístico. Se encuentran mediante la fórmula n-1, donde n=número de sujetos en la muestra (también pueden ser representados por k-1 donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales).
Cuando se trata de ajustar modelos estadísticos a un conjunto de datos, los residuos -expresados en forma de vector- se encuentran habitualmente en un espacio de menor dimensión que aquél en el que se encontraban los datos originales. Los grados de libertad del error los determina, precisamente, el valor de esta menor dimensión.

MUESTRAS GRANDES.

MUESTRAS PEQUEÑAS.

isaias tovar dijo...

isaias tovar administracion seccion b gestion municipal.

• DISTRIBUCIÓN NORMAL:
Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas.
Su propio nombre indica su extendida utilización, justificada por las frecuencia o normalidad con la que las ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de p y de valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una forma en forma de campana.
En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal.
• DISTRIBUCIÓN CHI CUADRADO.
En estadística, la distribución chi-cuadrado, también denominada ji-cuadrado de Pearson, es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria:

• DISTRIBUCIÓN t DE STUDENT.
En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.

La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.

-ESTIMACIÓN DE LOS PARÁMETROS DE LA POBLACIÓN
-TIPOS DE ESTIMACIÓN
ESTIMACION PUNTUAL:
Un estimador puntual es simplemente un estadístico (media aritmética, varianza, etc.) que se emplea para estimar parámetros (media poblacional, varianza poblacional, etc.).
Es decir, cuando obtenemos una media aritmética a partir de una muestra, tal valor puede ser empleado como un estimador para el valor de la media poblacional.
(Algunos autores comparan los estimadores con los lanzamientos en una diana; el círculo central sería el valor real del parámetro.)
ESTIMACIÓN POR INTERVALOS.
Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:

-PROPIEDADES DE LOS BUENOS ESTIMADORES:
INSESGABILIDAD.

Estimador insesgado
Ésta es una propiedad deseable para un buen estimador. El término insesgado se refiere al hecho de que una media de muestra es un estimador no sesgado de una media de población porque la distribución de muestreo de las medias de muestra tomadas de la misma población es igual a la media de la población misma.

Estimador consistente
Una estimador es consistente si, al aumentar el tamaño de la muestra, se tiene casi la certeza de que el valor del estimador se aproxima bastante al valor del parámetro de la población.

Estimador eficiente
La eficiencia se refiere al tamaño del error estándar de la estadística. Si comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de decidir cuál de ellas es un estimador más eficiente, escogeríamos la estadística que tuviera el menor error estándar de la distribución de muestreo. Supongamos se escogemos una muestra de un tamaño determinado y debemos de decidir si utilizamos o no la media de la muestra para estimar la media de la población. Si calculamos el error estándar de la media de la muestra y nos da un valor de 1.05 y luego calculamos el error estándar de la mediana de la muestra y tenemos que es de 1.4, diríamos que la media de la muestra es un estimador más eficiente de la media de la población ya que su error estándar es menor que el de la mediana.

Estimador Suficiente
Un estimador es suficiente si extrae de la muestra toda la información de interés en relación con el parámetro.

NIVELES DE CONFIANZA
El nivel de confianza es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor del parámetro. Se indica por 1-α y habitualmente se da en porcentaje (1-α)100%. Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1-α)% de los intervalos así construidos contendría al verdadero valor del parámetro.

Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9%

LÍMITES E INTERVALOS DE CONFIANZA.

La estimacion se toma de una muetra de la poblacion y se usa la media de la muetra para estimar la media de la poblacion, una estimacion puntual es un valor que se usa para estimar un valor poblacional; pero una estimacion puntual es un solo valor, una estimacion en la que se da mas informacion implica dar un intervalo de valores, en el que se espera se encuentre el parametro

GRADOS DE LIBERTAD

En estadística, grados de libertad es un estimador del número de categorías independientes en un test particular o experimento estadístico. Se encuentran mediante la fórmula n-1, donde n=número de sujetos en la muestra (también pueden ser representados por k-1 donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales).

Unknown dijo...

BUENAS NOCHES.


UNIDAD II.
ESTIMACION DE PARAMETROS.

PARTE A.
1). DISTRIBUCIONES TEORICAS EMPLEADAS EN ESTADISTICA INFERENCIAL.

-DISTRIBUCION NORMAL:
Es aquella que normalmente o frecuentemente se utiiza en las aplicaciones estadisticas.

-DITRIBUCION CHI CUADRADO.
Es una suma de normales al cuadrado mas o menos se podia definir asi ya que si calculamos la distribucion de una variable nrmal al cuadrado no podemos aplicar cambio de variable y apartir de su funcion de distribucion.

-DISTRIBUCION t DE STUDENT.
Se crea a partir de una norma (0,1) y una chi- cuadrado con n grados de libertad independientes.

2). ESTIMADOR Y ESTIMACION.

- ESTIMADOR.
Cualquier estadistica de muestra que se utilice para estimar un parametro de poblacion se conoce como estimador, es decir, un estimador es una estadistica de muestra utilizada para estimar un parametro de poblacion.

- ESTIMACION.
Es un valor especifico observado de una estadistica. Hacemos una estimacion si tomamos una muestra y calculamos el valor que toma nuestro estimador en esa muestra.

3). TIPOS DE ESTMACION.

-ESTIMACION PUNTUAL.
Es un solo numero que se utiliza para estimar un parametro de poblacion desconocido.

-ESTIMACION POR INTERVALO.
Es un intervalo de valores que se utiliza para estimar de intervalo un parametro de poblacion.

4). PROPIEDADES DE LOS BUENOS ESTIMADORES.

-INSESGABILIDAD.
Podemos decir que es un estimador imparcial, se refiere al hecho de que una media de muestra de la poblacion, es tomada por un buen estimador.

-EFICIENCIA.
La eficiencia se refiere al tamaño del error estandar de la estadistica.Si comparamos dos estadisticas de una muestra del mismo tamaño y tratamos de decir cual de ellas es un estimador mas eficiente.

-SUFICIENCIA.
Un estimador suficiete si utiliza una cantidad de la informacion contenida en la muestra que ningun otro estimador podria extraer informacion adicional de la muestra sobre el parametro de la poblacion que se esta estimando.

5). REQUISITOS PARA QUE UN ESTIMADOR SEA VALIDO.

6. SIGNIFICACION DE UN ESTADISTICO.

- NIVELES DE CONFIANZA.

Probabilidad de que la estimacion bse ajuste a la realidad.

-NIVELES DE RIESGO.
Es cuando el investigador se arriesga a sostener que los resultados son estadisticamente significativoses decir a aceptar la hipotesis.

-LIMITES E INTERVALOS DE CONFIANZA.
El el intervalo de valores , en el que se espera se encuentre el parametro.

-GRADOS DE LIBERTAD.

Es un estimador de numeros de categoria independientes en un test particular o experimento.

Monica Zapata dijo...

DISTRIBUCIÓN NORMAL: Es la distribución de probabilidad que con más frecuencia aparece en estadística y teoría de probabilidades. Esto se debe a dos razones fundamentalmente:
• Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación como modelo a gran número de variables estadísticas.
• Es además límite de otras distribuciones y aparece relacionada con multitud de resultados ligados a la teoría de las probabilidades gracias a sus propiedades matemáticas.
DISTRIBUCIÓN JI-CUADRADO, también denominada Ji-cuadrado de Pearson, es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria:

donde Zi son variables de distribución normal, de media cero y varianza uno.
Esta distribución se expresa habitualmente
DISTRIBUCIÓN T DE STUDENT En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.
La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.
ESTIMADOR: Un estimador de un parámetro poblacional es una función de los datos muestrales. En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.
Por ejemplo, un estimador de la media poblacional, μ, sería la media muestral, , según la siguiente fórmula:

donde (x1, x2, ..., xn) sería el conjunto de de datos de la muestra.
En el ejemplo se habla de una estimación puntual. Sin embargo, el estimador es una variable aleatoria que asigna a cada valor de la función su probabilidad de aparición, esto es, la probabilidad de la muestra de la que se extrae.
Se llama ESTIMACIÓN al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.
En su versión más simple, una estimación de la media de una determinada característica de una población de tamaño N sería la media de esa misma característica para una muestra de tamaño n.


ESTIMACIÓN PUNTUAL: Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos de la muestra.
ESTIMACIÓN POR INTERVALOS Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:
Intervalo de confianza
El intervalo de confianza es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. Pero Aveces Puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circustancial
Variabilidad del Parámetro
Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ.
Error de la estimación
Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, más ocurrencias deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión. Se suele llamar E, según la fórmula E = θ2 - θ1.
Limite de Confianza
Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-α)•100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01 respectivamente.
Valor α
También llamado nivel de significación. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-α). Por ejemplo, en una estimación con un nivel de confianza del 95%, el valor α es (100-95)/100 = 0,05.
Valor crítico
Se representa por Zα/2. Es el valor de la abscisa en una determinada distribución que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza. Normalmente los valores críticos están tabulados o pueden calcularse en función de la distribución de la población. Por ejemplo, para una distribución normal, de media 0 y desviación típica 1, el valor crítico para α = 0,05 se calcularía del siguiente modo: se busca en la tabla de la distribución ese valor (o el más aproximado), bajo la columna "Área"; se observa que se corresponde con -1,64. Entonces Zα/2 = 1,64. Si la media o desviación típica de la distribución normal no coinciden con las de la tabla, se puede realizar el cambio de variable t =(X-μ)/σ para su cálculo.
Con estas definiciones, si tras la extracción de una muestra se dice que "3 es una estimación de la media con un margen de error de 0,6 y un nivel de confianza del 99%", podemos interpretar que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen restando y sumando, respectivamente, la mitad del error, para obtener el intervalo de confianza según las definiciones dadas.
Para un tamaño fijo de la muestra, los conceptos de error y nivel de confianza van relacionados. Si admitimos un error mayor, esto es, aumentamos el tamaño del intervalo de confianza, tenemos también una mayor probabilidad de éxito en nuestra estimación, es decir, un mayor nivel de confianza.
DISTRIBUCIÓN NORMAL: Es la distribución de probabilidad que con más frecuencia aparece en estadística y teoría de probabilidades. Esto se debe a dos razones fundamentalmente:
• Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación como modelo a gran número de variables estadísticas.
• Es además límite de otras distribuciones y aparece relacionada con multitud de resultados ligados a la teoría de las probabilidades gracias a sus propiedades matemáticas.
DISTRIBUCIÓN JI-CUADRADO, también denominada Ji-cuadrado de Pearson, es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria:

donde Zi son variables de distribución normal, de media cero y varianza uno.
Esta distribución se expresa habitualmente
DISTRIBUCIÓN T DE STUDENT En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.
La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.
ESTIMADOR: Un estimador de un parámetro poblacional es una función de los datos muestrales. En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.
Por ejemplo, un estimador de la media poblacional, μ, sería la media muestral, , según la siguiente fórmula:

donde (x1, x2, ..., xn) sería el conjunto de de datos de la muestra.
En el ejemplo se habla de una estimación puntual. Sin embargo, el estimador es una variable aleatoria que asigna a cada valor de la función su probabilidad de aparición, esto es, la probabilidad de la muestra de la que se extrae.
Se llama ESTIMACIÓN al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.
En su versión más simple, una estimación de la media de una determinada característica de una población de tamaño N sería la media de esa misma característica para una muestra de tamaño n.


ESTIMACIÓN PUNTUAL: Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos de la muestra.
ESTIMACIÓN POR INTERVALOS Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:
Intervalo de confianza
El intervalo de confianza es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. Pero Aveces Puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circustancial
Variabilidad del Parámetro
Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ.
Error de la estimación
Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, más ocurrencias deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión. Se suele llamar E, según la fórmula E = θ2 - θ1.
Limite de Confianza
Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-α)•100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01 respectivamente.
Valor α
También llamado nivel de significación. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-α). Por ejemplo, en una estimación con un nivel de confianza del 95%, el valor α es (100-95)/100 = 0,05.
Valor crítico
Se representa por Zα/2. Es el valor de la abscisa en una determinada distribución que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza. Normalmente los valores críticos están tabulados o pueden calcularse en función de la distribución de la población. Por ejemplo, para una distribución normal, de media 0 y desviación típica 1, el valor crítico para α = 0,05 se calcularía del siguiente modo: se busca en la tabla de la distribución ese valor (o el más aproximado), bajo la columna "Área"; se observa que se corresponde con -1,64. Entonces Zα/2 = 1,64. Si la media o desviación típica de la distribución normal no coinciden con las de la tabla, se puede realizar el cambio de variable t =(X-μ)/σ para su cálculo.
Con estas definiciones, si tras la extracción de una muestra se dice que "3 es una estimación de la media con un margen de error de 0,6 y un nivel de confianza del 99%", podemos interpretar que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen restando y sumando, respectivamente, la mitad del error, para obtener el intervalo de confianza según las definiciones dadas.
Para un tamaño fijo de la muestra, los conceptos de error y nivel de confianza van relacionados. Si admitimos un error mayor, esto es, aumentamos el tamaño del intervalo de confianza, tenemos también una mayor probabilidad de éxito en nuestra estimación, es decir, un mayor nivel de confianza.

franklin davila dijo...

buenos dias prof.le escribe Franklin Dávila.
Distribución normal: Es la distribución de la probabilidad que con mas frecuencia aparece en estadistica y teoria de probabilidades.

Distribución chi cuadreado: Es una distribución de probabilidad continua con un parámetro "k" que representa los grados de libertad de la variable aleatoria.

Distribución t de student: Es un distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeña.

Estimador y estimación: Estimador es una función de los datosmuestrales. Estimación se le llama al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.

Estimación puntual: Consiste en la estimación del valor del parámetro mediante un solo valor, obtenido de una fórmula determinada.

Estimación por intervalo: Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad.

Insesgabilidad: Es una propiedad deseable para un buen estimador.

Consistencia: Un estimador es consistente, si al aumentar el tamaño de la muestra, se tiene casi la certeza de que el valor del estimador se aproxima bastante al valor del parámetro de la poblaciòn.

Eficiencia: Se refiere al tamaño del error estándar de la estadistica.

Suficiencia: Un estimador es suficiente si extrae de la muestra toda la información de interés en relación con el parámetro.

Nivel de confianza: Es la probabilidad a priori que el intervalo de confianza a calcular contenga el verdadero valor del parámetro.

Unknown dijo...

buenas tardes profesor es yelitza rodriguez de administracion y gestion municipal seccion b. nocturno.

UNIDAD II.

ESTIMACIÓN DE LOS PARÁMETROS DE LA POBLACIÓN.

Parte A:


1. DISTRIBUCIONES TEÓRICAS EMPLEADAS EN ESTADÍSTICA INFERENCIAL:
• DISTRIBUCIÓN NORMAL.

Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.
En otras ocasiones, al considerar distribuciones bino míales, tipo B(n,p), para un mismo valor de p y valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una curva en "forma de campana".
En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal
• Caracteres morfológicos de individuos (personas, animales, plantas,...) de una especie, p.ejm. tallas, pesos, envergaduras, diámetros, perímetros,...
• Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco, o de una misma cantidad de abono.
• Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de individuos, puntuaciones de examen.
• Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a un medio,...
• Errores cometidos al medir ciertas magnitudes.
• Valores estadísticos muestrales, por ejemplo : la media.
• Otras distribuciones como la binomial o la de Poisson son aproximaciones normales, ...

• DISTRIBUCIÓN CHI CUADRADO.

Una variable aleatoria X tiene una distribución Chi Cuadrado ó Ji dos si su función de densidad de probabilidad está dada por:


donde  es el número de grados de libertad, o simplemente "grados de libertad".
La distribución Chi Cuadrado es un caso particular de la distribución Gamma, cuya función de densidad está dada por:


donde (k) es la función gamma de k. Los valores correspondientes de los parámetros  y k son = 1/2 y k = /2.
El valor esperado y la varianza de la distribución Chi cuadrado están dados por:
E(X) = , V(X) = 2

Notación: Si una variable tiene una distribución Chi cuadrado con  grados de libertad, lo denotaremos como Chi(n) ó

• DISTRIBUCIÓN t DE STUDENT.

En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.
La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.

2. ESTIMADOR Y ESTIMACIÓN.

Se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.
En su versión más simple, una estimación de la media de una determinada característica de una población de tamaño N sería la media de esa misma característica para una muestra de tamaño n.
Un estimador de un parámetro poblacional es una función de los datos muestrales. En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.
Por ejemplo, un estimador de la media poblacional, μ, sería la media muestral, , según la siguiente fórmula:

donde (x1, x2, ..., xn) sería el conjunto de de datos de la muestra.

3. TIPOS DE ESTIMACIÓN:

Estimación de parámetros:
Un problema importante de la inferencia estadística es la estimación de parámetros de la población, brevemente parámetros (tales como la media y la variación de la población), de los correspondientes estadísticos muéstrales, o simplemente estadísticos(tales como la media y la variación de la muestra).
Estimaciones sin sesgo:
Si la media de las dispersiones de muestreo con un estadístico es igual que la del correspondiente parámetro de la población, el estadístico se llamara estimador sin sesgo, del parámetro; si no, si no se llama estimador sesgado. Los correspondientes valores de tal estadístico se llaman estimación sin sesgo, y estimación con sesgo respectivamente.
Estimación Eficiente:
Si las distribuciones de muestreo de dos estadísticos tienen la misma media(o esperanza), el de menor varianza se llama un estimador eficiente de la media, mientras que el otro se llama un estimador ineficiente, respectivamente.
Si consideramos todos los posibles estadísticos cuyas distribuciones de muestreo tiene la misma media, aquel de varianza mínima se llama a veces, el estimador de máxima eficiencia, ósea el mejor estimador.
Ejemplo:
Las distribuciones de muestreo de media y mediana tienen ambas la misma media, a saber, la media de la población. Sin embargo, la varianza de la distribución de muestreo de medias es menor que la varianza de la distribución de muestreo de medianas. Por tanto, la media muestral da una estimación eficiente de la media de la población, mientras la mediana de la muestra da una estimación ineficiente de ella.
De todos los estadísticos que estiman la media de la población, la media muestral proporciona la mejor( la más eficiente) estimación.
En la práctica, estimaciones ineficientes se usan con frecuencia a causa de la relativa sencillez con que se obtienen algunas de ellas.

Estimaciones de punto y estimaciones de intervalo, su fiabilidad:
Una estimación de un parámetro de la población dada por un solo número se llama una estimación de punto del parámetro. Una estimación de un parámetro de la población dada por dos puntos, entre los cuales se pueden considerar encajado al parámetro, se llama una estimación del intervalo del parámetro.
Las estimaciones de intervalo que indican la precisión de una estimación y son por tanto preferibles a las estimaciones de punto
Ejemplo:
Si decimos que una distancia sé a medido como 5.28 metros (m), estamos dando una estimación de punto. Por otra parte, si decimos que la distancia es 5.28 ± 0.03 m, (ósea, que esta entre 5.25 y 5.31 m), estamos dando una estimación de intervalo
El margen de error o la percepción de una estimación nos informa su fiabilidad.

Estimaciones De Intervalos De Confianza Para Parámetros De Población:
Sean y la media y la desviación típica (error típico) de la distribución de muestreo de un estadístico S. Entonces, si la distribución de muestreo de s es aproximadamente normal (que como hemos visto es cierto para muchos estadísticos si el tamaño de la muestra es N³30), podemos esperar hallar un estadístico muestral real S que este en los intervalos alrededor del 68.27 %, 95.45% y 99.7 % del tiempo restante, respectivamente.
• ESTIMACIÓN PUNTUAL.
Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos.

• ESTIMACIÓN POR INTERVALOS.

Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad.

4. PROPIEDADES DE LOS BUENOS ESTIMADORES:

Insesgabilidad; eficiencia; consistencia; suficiencia.

• INSESGABILIDAD.
Estimador de es una variable aleatoria y por lo tanto tiene una distribución de probabilidad con una cierta media y variancia. Se puede definir estimador insesgado diciendo: Si se utiliza un estadístico muestral para estimar el parámetro de la población , se dice que es un estimador insesgado de , si la esperanza matemática de coincide con el parámetro que desea estimar.

• CONSISTENCIA.
Si es un estimador muestral calculado a partir de una muestra de tamaño n y si es el parámetro de población que se va a estimar, entonces es un estimador consistente de si la probabilidad de que el valor absoluto de la diferencia entre y su esperanza iguale o supere a e (error admitido que tiende a cero, o sea que es tan pequeño como se quiera), tienda a cero cuando el número de elementos de la muestra tienda a infinito.

• EFICIENCIA.
si se utilizan dos estadísticos como estimadores del mismo parámetro, entonces aquel cuya distribución muestral tenga menor variancia, es un estimador más eficiente o más eficaz que el otro. Es decir: es eficiente mínima.

• SUFICIENCIA.
Un estimador suficiente del parámetro  es aquel que agota toda la información pertinente sobre  que se puede disponer en la muestra. Por ejemplo, si se toma una muestra de n = 30 valores con el fin de estimar  , pueden utilizarse como estimadores la primera, la décimo quinta o la última observación, o el promedio entre la primera y la quinta observación. Pero estos estimadores no son suficientes pues no contienen toda la información disponible de la muestra. La media aritmética calculada con las 30 observaciones sí lo es pues tiene en cuenta todas las observaciones.

5. REQUISITOS PARA QUE UN ESTIMADOR SEA VÁLIDO.

6. SIGNIFICACIÓN DE UN ESTADÍSTICO:

• NIVELES DE CONFIANZA.

Es una medida de la fiabilidad de la estimación. Por ejemplo, si se toma  = 10%, entonces 1 -  = 90% y se dice que se tiene un intervalo de confianza del 90% y que la probabilidad de que el intervalo contenga al verdadero valor del parámetro es del 90%. Es decir, que si repetidamente se muestra y se construye tal intervalo una y otra vez, 90 de cada 100 de estos intervalos, contendrá al parámetro y 10 de ellos no.

• NIVELES DE RIESGOS.
Es cuando el estadístico se arriesga a sostener que los resultados son realmente significativos, es decir, a aceptar la hipótesis.


• LÍMITES E INTERVALOS DE CONFIANZA.

El intervalo de confianza indica los límites inferior y superior del RR u OR. Al igual que en el valor de p, se usa el intervalo de confianza de 95% y este nos permite tener una “confianza de 95% de que el valor de la población (parámetro) se halla dentro del intervalo.

• GRADOS DE LIBERTAD.
Es un estimador del número de categorías independientes en un test particular o experimento estadístico. Se encuentran mediante la fórmula n-1, donde n=número de sujetos en la muestra (también pueden ser representados por k-1 donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales).
Cuando se trata de ajustar modelos estadísticos a un conjunto de datos, los residuos -expresados en forma de vector- se encuentran habitualmente en un espacio de menor dimensión que aquél en el que se encontraban los datos originales. Los grados de libertad del error los determina, precisamente, el valor de esta menor dimensión.

• MUESTRAS GRANDES.

Son aquellas donde existen más de treinta elementos, y los resultados tienden hacer poco confiables.

• MUESTRAS PEQUEÑAS.

Son aquellas que poseen menos de treinta elementos y los resultados son más certeros.

Gregoria Prieto dijo...

buenas tardes es gregoria prieto de admon y gestion municipal seccion b.

UNIDAD II.

ESTIMACIÓN DE LOS PARÁMETROS DE LA POBLACIÓN.

Parte A:


1. DISTRIBUCIONES TEÓRICAS EMPLEADAS EN ESTADÍSTICA INFERENCIAL:
• DISTRIBUCIÓN NORMAL.

Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.
En otras ocasiones, al considerar distribuciones bino míales, tipo B(n,p), para un mismo valor de p y valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una curva en "forma de campana".
En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal
• Caracteres morfológicos de individuos (personas, animales, plantas,...) de una especie, p.ejm. tallas, pesos, envergaduras, diámetros, perímetros,...
• Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco, o de una misma cantidad de abono.
• Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de individuos, puntuaciones de examen.
• Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a un medio,...
• Errores cometidos al medir ciertas magnitudes.
• Valores estadísticos muestrales, por ejemplo : la media.
• Otras distribuciones como la binomial o la de Poisson son aproximaciones normales, ...

• DISTRIBUCIÓN CHI CUADRADO.

Una variable aleatoria X tiene una distribución Chi Cuadrado ó Ji dos si su función de densidad de probabilidad está dada por:


donde  es el número de grados de libertad, o simplemente "grados de libertad".
La distribución Chi Cuadrado es un caso particular de la distribución Gamma, cuya función de densidad está dada por:


donde (k) es la función gamma de k. Los valores correspondientes de los parámetros  y k son = 1/2 y k = /2.
El valor esperado y la varianza de la distribución Chi cuadrado están dados por:
E(X) = , V(X) = 2

Notación: Si una variable tiene una distribución Chi cuadrado con  grados de libertad, lo denotaremos como Chi(n) ó

• DISTRIBUCIÓN t DE STUDENT.

En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.
La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.

2. ESTIMADOR Y ESTIMACIÓN.

Se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.
En su versión más simple, una estimación de la media de una determinada característica de una población de tamaño N sería la media de esa misma característica para una muestra de tamaño n.
Un estimador de un parámetro poblacional es una función de los datos muestrales. En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.
Por ejemplo, un estimador de la media poblacional, μ, sería la media muestral, , según la siguiente fórmula:

donde (x1, x2, ..., xn) sería el conjunto de de datos de la muestra.

3. TIPOS DE ESTIMACIÓN:

Estimación de parámetros:
Un problema importante de la inferencia estadística es la estimación de parámetros de la población, brevemente parámetros (tales como la media y la variación de la población), de los correspondientes estadísticos muéstrales, o simplemente estadísticos(tales como la media y la variación de la muestra).
Estimaciones sin sesgo:
Si la media de las dispersiones de muestreo con un estadístico es igual que la del correspondiente parámetro de la población, el estadístico se llamara estimador sin sesgo, del parámetro; si no, si no se llama estimador sesgado. Los correspondientes valores de tal estadístico se llaman estimación sin sesgo, y estimación con sesgo respectivamente.
Estimación Eficiente:
Si las distribuciones de muestreo de dos estadísticos tienen la misma media(o esperanza), el de menor varianza se llama un estimador eficiente de la media, mientras que el otro se llama un estimador ineficiente, respectivamente.
Si consideramos todos los posibles estadísticos cuyas distribuciones de muestreo tiene la misma media, aquel de varianza mínima se llama a veces, el estimador de máxima eficiencia, ósea el mejor estimador.
Ejemplo:
Las distribuciones de muestreo de media y mediana tienen ambas la misma media, a saber, la media de la población. Sin embargo, la varianza de la distribución de muestreo de medias es menor que la varianza de la distribución de muestreo de medianas. Por tanto, la media muestral da una estimación eficiente de la media de la población, mientras la mediana de la muestra da una estimación ineficiente de ella.
De todos los estadísticos que estiman la media de la población, la media muestral proporciona la mejor( la más eficiente) estimación.
En la práctica, estimaciones ineficientes se usan con frecuencia a causa de la relativa sencillez con que se obtienen algunas de ellas.

Estimaciones de punto y estimaciones de intervalo, su fiabilidad:
Una estimación de un parámetro de la población dada por un solo número se llama una estimación de punto del parámetro. Una estimación de un parámetro de la población dada por dos puntos, entre los cuales se pueden considerar encajado al parámetro, se llama una estimación del intervalo del parámetro.
Las estimaciones de intervalo que indican la precisión de una estimación y son por tanto preferibles a las estimaciones de punto
Ejemplo:
Si decimos que una distancia sé a medido como 5.28 metros (m), estamos dando una estimación de punto. Por otra parte, si decimos que la distancia es 5.28 ± 0.03 m, (ósea, que esta entre 5.25 y 5.31 m), estamos dando una estimación de intervalo
El margen de error o la percepción de una estimación nos informa su fiabilidad.

Estimaciones De Intervalos De Confianza Para Parámetros De Población:
Sean y la media y la desviación típica (error típico) de la distribución de muestreo de un estadístico S. Entonces, si la distribución de muestreo de s es aproximadamente normal (que como hemos visto es cierto para muchos estadísticos si el tamaño de la muestra es N³30), podemos esperar hallar un estadístico muestral real S que este en los intervalos alrededor del 68.27 %, 95.45% y 99.7 % del tiempo restante, respectivamente.
• ESTIMACIÓN PUNTUAL.
Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos.

• ESTIMACIÓN POR INTERVALOS.

Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad.

4. PROPIEDADES DE LOS BUENOS ESTIMADORES:

Insesgabilidad; eficiencia; consistencia; suficiencia.

• INSESGABILIDAD.
Estimador de es una variable aleatoria y por lo tanto tiene una distribución de probabilidad con una cierta media y variancia. Se puede definir estimador insesgado diciendo: Si se utiliza un estadístico muestral para estimar el parámetro de la población , se dice que es un estimador insesgado de , si la esperanza matemática de coincide con el parámetro que desea estimar.

• CONSISTENCIA.
Si es un estimador muestral calculado a partir de una muestra de tamaño n y si es el parámetro de población que se va a estimar, entonces es un estimador consistente de si la probabilidad de que el valor absoluto de la diferencia entre y su esperanza iguale o supere a e (error admitido que tiende a cero, o sea que es tan pequeño como se quiera), tienda a cero cuando el número de elementos de la muestra tienda a infinito.

• EFICIENCIA.
si se utilizan dos estadísticos como estimadores del mismo parámetro, entonces aquel cuya distribución muestral tenga menor variancia, es un estimador más eficiente o más eficaz que el otro. Es decir: es eficiente mínima.

• SUFICIENCIA.
Un estimador suficiente del parámetro  es aquel que agota toda la información pertinente sobre  que se puede disponer en la muestra. Por ejemplo, si se toma una muestra de n = 30 valores con el fin de estimar  , pueden utilizarse como estimadores la primera, la décimo quinta o la última observación, o el promedio entre la primera y la quinta observación. Pero estos estimadores no son suficientes pues no contienen toda la información disponible de la muestra. La media aritmética calculada con las 30 observaciones sí lo es pues tiene en cuenta todas las observaciones.

5. REQUISITOS PARA QUE UN ESTIMADOR SEA VÁLIDO.

6. SIGNIFICACIÓN DE UN ESTADÍSTICO:

• NIVELES DE CONFIANZA.

Es una medida de la fiabilidad de la estimación. Por ejemplo, si se toma  = 10%, entonces 1 -  = 90% y se dice que se tiene un intervalo de confianza del 90% y que la probabilidad de que el intervalo contenga al verdadero valor del parámetro es del 90%. Es decir, que si repetidamente se muestra y se construye tal intervalo una y otra vez, 90 de cada 100 de estos intervalos, contendrá al parámetro y 10 de ellos no.

• NIVELES DE RIESGOS.
Es cuando el estadístico se arriesga a sostener que los resultados son realmente significativos, es decir, a aceptar la hipótesis.


• LÍMITES E INTERVALOS DE CONFIANZA.

El intervalo de confianza indica los límites inferior y superior del RR u OR. Al igual que en el valor de p, se usa el intervalo de confianza de 95% y este nos permite tener una “confianza de 95% de que el valor de la población (parámetro) se halla dentro del intervalo.

• GRADOS DE LIBERTAD.
Es un estimador del número de categorías independientes en un test particular o experimento estadístico. Se encuentran mediante la fórmula n-1, donde n=número de sujetos en la muestra (también pueden ser representados por k-1 donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales).
Cuando se trata de ajustar modelos estadísticos a un conjunto de datos, los residuos -expresados en forma de vector- se encuentran habitualmente en un espacio de menor dimensión que aquél en el que se encontraban los datos originales. Los grados de libertad del error los determina, precisamente, el valor de esta menor dimensión.

• MUESTRAS GRANDES.

Son aquellas donde existen más de treinta elementos, y los resultados tienden hacer poco confiables.

• MUESTRAS PEQUEÑAS.

Son aquellas que poseen menos de treinta elementos y los resultados son más certeros.

carlos santamaria dijo...

1. DISTRIBUCIONES TEÓRICAS EMPLEADAS EN ESTADÍSTICA INFERENCIAL:

• DISTRIBUCIÓN NORMAL.

R- es la distribución de probabilidad que con más frecuencia aparece en estadística y teoría de probabilidades. Esto se debe a dos razones fundamentalmente:

Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación como modelo a gran número de variables estadísticas.
Es, además, límite de otras distribuciones y aparece relacionada con multitud de resultados ligados a la teoría de las probabilidades gracias a sus propiedades matemáticas.

• DISTRIBUCIÓN CHI CUADRADO.

R- En estadística, la distribución ji-cuadrado, también denominada ji-cuadrado de Pearson, es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria.

• DISTRIBUCIÓN t DE STUDENT.

R- es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño.

2. ESTIMADOR Y ESTIMACIÓN.

R- En estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.
En su versión más simple, una estimación de la media de una determinada característica de una población de tamaño N sería la media de esa misma característica para una muestra de tamaño n.


3. TIPOS DE ESTIMACIÓN:

R- Estimaciones sin sesgo
Estimación Eficiente


• ESTIMACIÓN PUNTUAL.

R-En estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.

• ESTIMACIÓN POR INTERVALOS.

R-Sea desconocida la media poblacional de una cierta variable que deseamos estudiar, sacamos una muestra y se trata de obtener un intervalo (L1,L2) de forma que tengamos una probabilidad alta (1-alfa)% de que la media poblacional esté en ese intervalo. El nivel de confianza del intervalo (1-alfa)% lo fijamos nosotros., se suele trabajar con 95% y a veces con 99% o el 90%; es decir, con probabilidad 0.05, 0.01 o 0.

Monica Zapata dijo...

CONTINUACION....PROPIEDADES DE LOS BUENOS ESTIMADORES
Insesgado.- Se dice que un estimador puntual es un estimador insesgado de si para todo valor posible de En otras palabras, un estimador insesgado es aquel para el cual la media de la distribución muestral es el parámetro estimado. Si se usa la media muestral para estimar la media poblacional , se sabe que la por lo tanto la media es un estimador insesgado.
Eficiente o con varianza mínima.- Suponga que y son dos estimadores insesgados de . Entonces, aun cuando la distribución de cada estimador esté centrada en el valor verdadero de las dispersiones de las distribuciones alrededor del valor verdadero pueden ser diferentes.
Entre todos los estimadores de que son insesgados seleccione al que tenga varianza minima.
Coherencia.- Una estadística es un estimador coherente de un parámetro de población, si al aumentar el tamaño de la muestra se tiene casi la certeza de que el valor de la estadística se aproxima bastante al valor del parámetro de la población. Si un estimador es coherente se vuelve mas confiable si tenemos tamaños de muestras mas grandes.
Suficiencia.- Un estimador es suficiente si utiliza una cantidad de la información contenida de la muestra que ningún otro estimador podría extraer información adicional de la muestra sobre el parámetro de la población que se esta estimando.
6. SIGNIFICACIÓN DE UN ESTADÍSTICO:
Nivel de confianza es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor del parámetro. Se indica por 1-α y habitualmente se da en porcentaje (1-α)100%. Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1-α)% de los intervalos así construidos contendría al verdadero valor del parámetro.
Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9%
Limite de Confianza Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-α)•100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01 respectivamente.
Grados de libertad es un estimador del número de categorías independientes en un test particular o experimento estadístico. Se encuentran mediante la fórmula n-1, donde n=número de sujetos en la muestra (también pueden ser representados por k-1 donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales). Cuando se trata de ajustar modelos estadísticos a un conjunto de datos, los residuos -expresados en forma de vector- se encuentran habitualmente en un espacio de menor dimensión que aquél en el que se encontraban los datos originales. Los grados de libertad del error los determina, precisamente, el valor de esta menor dimensión.
Muestras Pequeñas se entendiende por tales aquéllas que tienen menos de treinta elementos (n < 30).
Muestras Grandes Una muestra se considera grande cuando tiene más de 30 elementos para la media (m) y para la proporción (p). Para la determinación del resto de estadísticos, se considera grande la que tiene más de 100 elementos

diana carolina gomez palencia dijo...

UNIDAD II.

v ESTIMACIÓN DE LOS PARÁMETROS DE LA POBLACIÓN.

Parte A:


1. DISTRIBUCIONES TEÓRICAS EMPLEADAS EN ESTADÍSTICA INFERENCIAL:
• DISTRIBUCIÓN NORMAL.
Una de las distribuciones teóricas mejor estudiadas en los textos de bioestadística y más utilizada en la práctica es la distribución normal, también llamada distribución gaussiana2,3,4,5. Su importancia se debe fundamentalmente a la frecuencia con la que distintas variables asociadas a fenómenos naturales y cotidianos siguen, aproximadamente, esta distribución. Caracteres morfológicos (como la talla o el peso), o psicológicos (como el cociente intelectual) son ejemplos de variables de las que frecuentemente se asume que siguen una distribución normal. No obstante, y aunque algunos autores6,7 han señalado que el comportamiento de muchos parámetros en el campo de la salud puede ser descrito mediante una distribución normal, puede resultar incluso poco frecuente encontrar variables que se ajusten a este tipo de comportamiento.

• DISTRIBUCIÓN CHI CUADRADO.
Definición. Una variable aleatoria X tiene una distribución Chi Cuadrado ó Ji dos si su función de densidad de probabilidad está dada por:


donde  es el número de grados de libertad, o simplemente "grados de libertad".

• DISTRIBUCIÓN t DE STUDENT.
Una variable con distribución t de Student se define como el cociente entre una variable normal estandarizada y la raíz cuadrada positiva de una variable 2 dividida por sus grados de libertad.

2. ESTIMADOR Y ESTIMACIÓN.

Cualquier estadística de muestra que se utilice para estimar un parámetro de población se conoce como estimador, es decir, un estimador es una estadística de muestra utilizada para estimar un parámetro de población. La media de la muestra 0 puede ser un estimado de la media de la población , y la porción de la muestra se puede utilizar como estimador de la porción de la población. También podemos utilizar el alcance de la muestra como un estimador del alcance de la población.

Cuando hemos observado un valor numérico específico de nuestro estimador, nos referimos a ese valor como una estimación. En otras palabras, una estimación es un valor específico observado de una estadística. Hacemos una estimación si tomamos una muestra y calculamos el valor que toma nuestro estimador en esa muestra. Suponga que calculamos la lectura media de un odómetro (kilometraje) a partir de una muestra de taxis en sevicio y encontramos que ésta es de 160,000 kilómetros. Si utilizamos este valor específico para estimar el kilometraje de la flotilla de taxis completa, el valor obtenido de 160,000 kilómetros sería una estimación. En la tabla 9 ilustramos varias poblaciones, parámetros de población, estimadores y estimaciones.


3. TIPOS DE ESTIMACIÓN:

• ESTIMACIÓN PUNTUAL.
Podemos hacer dos tipos de estimaciones concernientes a una población: una estimación puntual y una estimación de intervalo. Una estimación puntual es un solo número que se utiliza para estimar un parámetro de población desconocido. Si, mientras observamos al primer integrante de un equipo de fútbol americano salir al campo de juego, usted se dice: ¡Anda! Apuesto a que su línea defensiva pesará unos 125 kilogramos, usted ha hecho una estimación puntual. El jefe de departamento de alguna universidad estaría haciendo una estimación puntual si afirmara: "Nuestros datos actuales indican que en esta materia tendremos 350 estudiantes en el siguiente semestre".

• ESTIMACIÓN POR INTERVALOS.
Una estimación de intervalo es un intervalo de valores que se utiliza para estimar de intervalo un parámetro de población. Esta estimación indica el error de dos maneras: por la extensión del intervalo y por la probabilidad de obtener el verdadero parámetro de la población que se encuentra dentro del intervalo. En este caso, el jefe de departamento diría algo como lo siguiente: Estimo que la inscripción real de este curso para el próximo semestre estará entre 330 y 380, y es muy probable que la inscripción exacta caiga dentro de este intervalo. Tiene una mejor idea de la confiabilidad de su estimación. Si el curso se imparte en grupos de 100 estudiantes cada uno y si, tentativamente, ha programado cinco cursos, entonces, basándose en su estimación, puede cancelar uno de tales grupos y dejarlo como optativo.

4. PROPIEDADES DE LOS BUENOS ESTIMADORES:

• INSESGABILIDAD.

• CONSISTENCIA.

• EFICIENCIA. Otra propiedad deseable de un buen estimador es que sea eficiente. La eficiencia se refiere al tamaño del error estándar de la estadística. Si comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de decidir cuál de ellas es un estimador más eficiente, escogeríamos la estadística que tuviera el menor error estándar o la menor desviación estándar de la distribución de muestreo. Suponga que escogemos una muestra de un tamaño determinado y debemos decidir si utilizamos o no la media de la muestra para estimar la media de la población. Si calculamos el error estándar de la media de la muestra y encontramos que es de 1.05 y luego calculamos el error estándar de la mediana de la muestra y tenemos que éste es de 1.6, diríamos que la media de la muestra es un estimador más eficiente de la media de la muestra ya que su error estándar es menor. Tiene sentido pensar que un estimador con un error estándar menor (con menos variación) tendrá una mayor oportunidad de producir una estimación más cercana al parámetro de población que se está considerando.

• SUFICIENCIA. Un estimador es suficiente si utiliza una cantidad de la información contenida en la muestra que ningún otro estimador podría extraer información adicional de la muestra sobre el parámetro de la población que se está estimando.

Presentamos estos criterios con anticipación para hacerlo consciente del cuidado que los estadísticos deben tener a la hora de escoger un estimador.



5. REQUISITOS PARA QUE UN ESTIMADOR SEA VÁLIDO.
Una estadística de muestra dada no siempre es el mejor estimador de su parámetro de estimador población correspondiente. Considere una población distribuida de manera simétrica, en la que los valores de la mediana y de la media coinciden. En este caso, la media de la muestra sería un estimador imparcial de la mediana de la población debido a que asumiría valores que en promedio serían iguales a la mediana de la población. También, la media de la muestra sería un estimador consistente de la mediana de la población puesto que, conforme aumenta el tamaño de la muestra, el valor de la medía de la muestra tenderá a acercarse bastante a la mediana de la población. Y la media de la muestra sería un estimador más eficiente de la mediana de la población que la mediana de la muestra misma, ya que en muestras grandes, la media de la muestra tiene una desviación estándar menor que la de la mediana de la muestra. Al mismo tiempo, la mediana de la muestra de una población distribuida simétricamente sería un estimador imparcial y consistente de la media de la población, pero no el más eficiente estimador porque en muestras grandes su error estándar es mayor que el de la media de la muestra.

ruben fuentes dijo...

DISTRIBUCIONES TEÓRICAS EMPLEADAS EN ESTADÍSTICA INFERENCIAL.

- DISTRIBUCIÓN NORMAL:
Se debe principalmente a que hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal

•-DISTRIBUCIÓN CHI CUADRADO:
También denominada ji-cuadrado de Pearson, es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria.

-• DISTRIBUCIÓN t DE STUDENT:
es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.

-. ESTIMADOR Y ESTIMACIÓN:
Se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.
En su versión más simple, una estimación de la media de una determinada característica de una población de tamaño N sería la media de esa misma característica para una muestra de tamaño n.


. TIPOS DE ESTIMACIÓN:

•- ESTIMACIÓN PUNTUAL:
Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos.

•- ESTIMACIÓN POR INTERVALOS: Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:
Intervalo de confianza
El intervalo de confianza es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. Pero Aveces Puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circustancial
Variabilidad del Parámetro
Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ.

deury dijo...

UNIDAD II.

v ESTIMACIÓN DE LOS PARÁMETROS DE LA POBLACIÓN.

Parte A:


1. DISTRIBUCIONES TEÓRICAS EMPLEADAS EN ESTADÍSTICA INFERENCIAL:
• DISTRIBUCIÓN NORMAL
. Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.

• DISTRIBUCIÓN CHI CUADRADO.
Distribución Chi-cuadrado
Si son v.a. que siguen una distribución normal tipificada N(0,1), entonces X= sigue una distribución .

Distribución t de Student
Si X y Z son v.a. independientes, donde Z sigue una dist. normal N(0, 1), y X una , entonces, la v.a. sigue una distribución




2. ESTIMADOR Y ESTIMACIÓN.
En estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.
En su versión más simple, una estimación de la media de una determinada característica de una población de tamaño N sería la media de esa misma característica para una muestra de tamaño n.
Estimador
Un estimador de un parámetro poblacional es una función de los datos muestrales. En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.
Por ejemplo, un estimador de la media poblacional, μ, sería la media muestral, , según la siguiente fórmula:

donde (x1, x2, ..., xn) sería el conjunto de de datos de la muestra.


3. TIPOS DE ESTIMACIÓN:
• ESTIMACIÓN PUNTUAL.
Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos.
ESTIMACIÓN POR INTERVALOS.


Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:


4. PROPIEDADES DE LOS BUENOS ESTIMADORES:
• INSESGABILIDAD.
• CONSISTENCIA.
consistencia
Propiedad de lo que es duradero, estable o sólido:
la consistencia de sus argumentos no daba lugar a la réplica.
Cohesión entre las partículas de una masa:
tienes que conseguir que la pasta tenga más consistencia.

• EFICIENCIA.
La palabra eficiencia proviene del latín efficientia que en español quiere decir, acción, fuerza, producción.
Eficiencia tiene varios significados:
• En economía, la eficiencia es relación entre los resultados obtenidos (ganancias, objetivos cumplidos, productos, etc.) y los recursos utilizados (horas-hombre, capital invertido, materias primas, etc.):

suficiencia
La suficiencia descriptiva, también denominada ejecutividad objetiva es un requisito para la concesión de una patente por el cual la solicitud de patente debe describir completamente la invención, de forma que un hombre del oficio pueda ejecutarla a partir de la solicitud.
Es un requisito mixto entre formal y objetivo, pues se refiere al contenido de la solicitud pero en caso de ausencia se produce la nulidad de la patente al igual que en caso de falta de novedad, actividad inventiva o aplicabilidad industrial.



5. REQUISITOS PARA QUE UN ESTIMADOR SEA VÁLIDO.
el estimador basado sólo en los datos que la muestra mientras la muestra es grande el estimador tiende a tener éxito
6. SIGNIFICACIÓN DE UN ESTADÍSTICO:
• NIVELES DE CONFIANZA.
El nivel de confianza es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor del parámetro. Se indica por 1-α y habitualmente se da en porcentaje (1-α)100%. Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1-α)% de los intervalos así construidos contendría al verdadero valor del parámetro.

• NIVELES DE RIESGOS. El riesgo es una manera de medir la magnitud de las fluctuaciones de un fondo, tanto hacia arriba como hacia abajo. Al decidir el riesgo que usted desea en sus ahorros debe preguntarse cuánto puede aceptar que se reduzca el valor de su pensión futura


• LÍMITES E INTERVALOS DE CONFIANZA.
En el contexto de estimar un parámetro poblacional, un intervalo de confianza es un rango de valores (calculado en una muestra) en el cual se encuentra el verdadero valor del parámetro, con una probabilidad determinada.

• GRADOS DE LIBERTAD.
En estadística, grados de libertad es un estimador del número de categorías independientes en un test particular o experimento estadístico. Se encuentran mediante la fórmula n-1, donde n=número de sujetos en la muestra (también pueden ser representados por k-1 donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales).
Cuando se trata de ajustar modelos estadísticos a un conjunto de datos, los residuos -expresados en forma de vector- se encuentran habitualmente en un espacio de menor dimensión que aquél en el que se encontraban los datos originales. Los grados de libertad del error los determina, precisamente, el valor de esta menor dimensión.
Un ejemplo aclara el concepto. Supongamos que
son variables aleatorias, cada una de ellas con media μ, y que

es la "media muestral". Entonces las cantidades


• MUESTRAS GRANDES.
Es una porción tomada mediante la población
• MUESTRAS PEQUEÑAS.
Es una pequeña porción

carlos santamaria dijo...

4. PROPIEDADES DE LOS BUENOS ESTIMADORES:

• INSESGABILIDAD.

R- es una variable aleatoria y por lo tanto tiene una distribución de probabilidad con una cierta media y variancia.

• CONSISTENCIA.

R- una propiedad material relacionada con la rigidez de los cuerpos (física, ingeniería, mecánica de medios continuos).

• EFICIENCIA.

R- Se refiere al tamaño del error estándar de la estadística

• SUFICIENCIA.

R- Un estimador es suficiente si extrae de la muestra toda la información de interés en relación con el parámetro.

6. SIGNIFICACIÓN DE UN ESTADÍSTICO:

• NIVELES DE CONFIANZA.

R- es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor del parámetro.

• NIVELES DE RIESGOS.

R- Es cuando el investigador se arriesga a sostener que los resultados son estadísticamente significativo

• LÍMITES E INTERVALOS DE CONFIANZA.

R- la estimación se la toma de una muestra de la población y a esta se la se usa la media de la muestra para estimar la media de la población, Así mismo una estimación puntual es un valor que se usa para estimar un valor poblacional

• GRADOS DE LIBERTAD.

R- es un estimador del número de categorías independientes en un test particular o experimento estadístico.

• MUESTRAS GRANDES.

R- Son aquellas donde existen más de treinta elementos

• MUESTRAS PEQUEÑAS.

R- Son aquellas que poseen menos de treinta elementos

Unknown dijo...

UNIDAD II.

v ESTIMACIÓN DE LOS PARÁMETROS DE LA POBLACIÓN.

Parte A:

1. DISTRIBUCIONES TEÓRICAS EMPLEADAS EN ESTADÍSTICA INFERENCIAL:

• DISTRIBUCIÓN NORMAL.
Es la distribución de probabilidad que con más frecuencia aparece en estadística y teoría de probabilidades. Esto se debe a dos razones fundamentalmente:
Su función de densidad es simétrica y con forma de campana, lo que favorece su aplicación como modelo a gran número de variables estadísticas.
Es, además, límite de otras distribuciones y aparece relacionada con multitud de resultados ligados a la teoría de las probabilidades gracias a sus propiedades matemáticas.

• DISTRIBUCIÓN CHI CUADRADO.
La distribución chi-cuadrado con n grados de libertad es la suma de los cuadrados de variables de distribución normal de media 0 y varianza 1

• DISTRIBUCIÓN t DE STUDENT.
Es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.
La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.


2. ESTIMADOR Y ESTIMACIÓN.
Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra.
En su versión más simple, una estimación de la media de una determinada característica de una población de tamaño N sería la media de esa misma característica para una muestra de tamaño n.



3. TIPOS DE ESTIMACIÓN:
. Estimación puntual: CONSISTE en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos.
Estimación por intervalos: Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad


4. PROPIEDADES DE LOS BUENOS ESTIMADORES:
INSESGABILIDAD:
Se refiere al hecho de que una media de muestra es un estimador no sesgado de una media de población porque la distribución de muestreo de las medias de muestra tomadas de la misma población es igual a la media de la población misma.





La eficiencia:
Se refiere al tamaño del error estándar de la estadística. Si comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de decidir cuál de ellas es un estimador más eficiente, escogeríamos la estadística que tuviera el menor error estándar de la distribución de muestreo. Supongamos se escogemos una muestra de un tamaño determinado y debemos de decidir si utilizamos o no la media de la muestra para estimar la media de la población. Si calculamos el error estándar de la media de la muestra y nos da un valor de 1.05 y luego calculamos el error estándar de la mediana de la muestra y tenemos que es de 1.4, diríamos que la media de la muestra es un estimador más eficiente de la media de la población ya que su error estándar es menor que el de la mediana.


Consistente:
Si, al aumentar el tamaño de la muestra, se tiene casi la certeza de que el valor del estimador se aproxima bastante al valor del parámetro de la población.


Suficiente:

Si extrae de la muestra toda la información de interés en relación con el parámetro.


5. REQUISITOS PARA QUE UN ESTIMADOR SEA VÁLIDO.







6. SIGNIFICACIÓN DE UN ESTADÍSTICO:
• NIVELES DE CONFIANZA.
Es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor del parámetro. Se indica por 1-α y habitualmente se da en porcentaje (1-α)100%. Hablamos de nivel de confianza y no de probabilidad ya que una vez extraída la muestra, el intervalo de confianza contendrá al verdadero valor del parámetro o no, lo que sabemos es que si repitiésemos el proceso con muchas muestras podríamos afirmar que el (1-α)% de los intervalos así construidos contendría al verdadero valor del parámetro.
Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9%

• NIVELES DE RIESGOS.

• LÍMITES E INTERVALOS DE CONFIANZA.
El intervalo de confianza.- se dice que es el conjunto de todos los valores obtenidos a partir de los datos de una muetra en el que hay una determinada probabilidad de que se encuentre el parametro. Una distribucion muetral permite localizar un intervalo que tenga una determinada probabilidad de contener a la media poblacional

• GRADOS DE LIBERTAD.
Es un estimador del número de categorías independientes en un test particular o experimento estadístico. Se encuentran mediante la fórmula n-1, donde n=número de sujetos en la muestra (también pueden ser representados por k-1 donde k=número de grupos, cuando se realizan operaciones con grupos y no con sujetos individuales).
Cuando se trata de ajustar modelos estadísticos a un conjunto de datos, los residuos -expresados en forma de vector- se encuentran habitualmente en un espacio de menor dimensión que aquél en el que se encontraban los datos originales. Los grados de libertad del error los determina, precisamente, el valor de esta menor dimensión.

MUESTRAS GRANDES:Son aquellas donde existen más de treinta elementos

• MUESTRAS PEQUEÑAS.

R- Son aquellas que poseen menos de treinta elementos

luisa dijo...

DISTRIBUCIONES TEÓRICAS EMPLEADAS EN ESTADÍSTICA

La distribución normal, también llamada distribución de Gauss o distribución gaussiana, es la distribución de probabilidad que con más frecuencia aparece en estadística y teoría de probabilidades.

En estadística, la distribución ji-cuadrado, también denominada ji-cuadrado de Pearson, es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria:








Donde Zi son variables de distribución normal, de media cero y varianza uno.

Esta distribución se expresa habitualmente

Donde el subíndice k de, es le número de sumandos, se denomina grados de libertad de la distribución.

Se suele usar la denominada prueba ji-cuadrado como test de independencia y como test de bondad de ajuste.

distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Ésta es la base del popular test de la t de Student para la determinación de las diferencias entre dos medias muéstrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones.
La distribución t surge, en la mayoría de los estudios estadísticos prácticos, cuando la desviación típica de una población se desconoce y debe ser estimada a partir de los datos de una muestra.
TIPOS DE ESTIMACIÓN
ESTIMACIÓN PUNTUAL
Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos.
ESTIMACIÓN POR INTERVALOS.
Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:
Intervalo de confianza
El intervalo de confianza es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. Pero Aveces Puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circustancial
Variabilidad del Parámetro
Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ.
Error de la estimación
Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, más ocurrencias deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión. Se suele llamar E, según la fórmula E = θ2 - θ1.
Limite de Confianza
Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-α)•100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01 respectivamente.
Valor α
También llamado nivel de significación. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-α). Por ejemplo, en una estimación con un nivel de confianza del 95%, el valor α es (100-95)/100 = 0,05.
Valor crítico
Se representa por Zα/2. Es el valor de la abscisa en una determinada distribución que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza. Normalmente los valores críticos están tabulados o pueden calcularse en función de la distribución de la población.
Insesgabilidad:
, estimador de es una variable aleatoria y por lo tanto tiene una distribución de probabilidad con una cierta media y variancia. Se puede definir estimador insesgado diciendo: Si se utiliza un estadístico muestral para estimar el parámetro de la población , se dice que es un estimador insesgado de , si la esperanza matemática de coincide con el parámetro que desea estimar.
En símbolos: es insesgado
PROPIEDADES DE LOS BUENOS ESTIMADORES
Conviene hacer una distinción entre estimador y estimación. Un estimador es la regla o procedimiento, expresado en general por medio de una fórmula, que se utiliza para deducir la estimación. Por ejemplo,



Es el estimador de la media poblacional.

Para que sea fiable, los estimadores tienen que ser:

Estimador insesgado

Ésta es una propiedad deseable para un buen estimador. El término insesgado se refiere al hecho de que una media de muestra es un estimador no sesgado de una media de población porque la distribución de muestreo de las medias de muestra tomadas de la misma población es igual a la media de la población misma.



Estimador eficiente

La eficiencia se refiere al tamaño del error estándar de la estadística. Si comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de decidir cuál de ellas es un estimador más eficiente, escogeríamos la estadística que tuviera el menor error estándar de la distribución de muestreo. Supongamos se escogemos una muestra de un tamaño determinado y debemos de decidir si utilizamos o no la media de la muestra para estimar la media de la población. Si calculamos el error estándar de la media de la muestra y nos da un valor de 1.05 y luego calculamos el error estándar de la mediana de la muestra y tenemos que es de 1.4, diríamos que la media de la muestra es un estimador más eficiente de la media de la población ya que su error estándar es menor que el de la mediana.

Estimador consistente

Una estimador es consistente si, al aumentar el tamaño de la muestra, se tiene casi la certeza de que el valor del estimador se aproxima bastante al valor del parámetro de la población.

Estimador Suficiente

Un estimador es suficiente si extrae de la muestra toda la información de interés en relación con el parámetro.

Unknown dijo...

Estimacion de parametro de la poblacion:

distribucion normal:
es la mas utilizada en las aplicaciones estadísticas.
Su propio nombre indica su extendida utilización, justificada por las frecuencia o normalidad con la que las ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.

Distribucion chi cuadrado:
es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria.

Distribucion t de student:

es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño.