Buscar este blog

lunes, 14 de marzo de 2011

Números Aleatorios

Definicion.
Los números aleatorios son aquellos que pueden ser generados a partir de fuentes de aleatoriedad, las cuales, generalmente, son de naturaleza física (dados, ruletas, mecanismos electrónicos o mecánicos), y son gobernados por las leyes del azar; éstos exhiben verdadera aleatoriedad en la realización de experimentos. Por su parte, los números pseudo-aleatorios son aquellas que tienen un comportamiento similar a la naturaleza aleatoria, pero están ceñidos a un patrón, generalmente de naturaleza matemática, que hace que su comportamiento sea determinantico.

Historia De Los Números Aleatorios
Aproximadamente por le año 3500 a.C., juegos de azar con objetos de hueso, que podrian ser considerados como los precursores de los dados, fueron ampliamente desarrollados en Egipto y otros lugares. En el siglo XVII, un noble francés, Antoine Gombauld (1607-1684), puso en tela de juicio el fundamento matemático del éxito y fracaso en las mesas de juego. Formuló esta pregunta al matemático francés Balies Pascal (1623-1662): ¿Cuáles son las posibilidades de que me salgan dos seises por lo menos una vez en veinticuatro lanzamientos de un para de dados?, Pascal resolvió el problema, pues la teoría de la probabilidad empezaban a interesarle tanto como a Gombauld. Ambos compartieron sus ideas con el famoso matemático Pierre de Fernat (1601-1665), y las cartas escritas por los tres constituyen la primera revista académica dedicada a la probabilidad. Algunos de los problemas que ellos resolvieron habían permanecido si solución durante unos 300 años. Sin embargo, ciertas probabilidades numéricas para ciertas combinaciones de dados ya habían sido calculadas por Giordamo Cardano (1501-1576) y por Galileo Galileo (1564-1642)
Mas tarde, Jacob Benoulli (1654-1705), Abraham de Moivre (1667-1754), el reverendo Thomas Bayes (1702-1761) y Joseph Lagrange (1736-1813) inventaron formulas y técnicas de probabilidad. En el siglo XIX, Pierre Simón, marqués de Laplace (1749-1827), unifico esas primeras ideas y formuló la primera teoría general de la probabilidad, la cual fue aplicada inicialmente con buenos resultados a los juegos de azar; con el tiempo también se aplicó en la búsqueda de soluciones analíticas a problemas de naturaleza no deterministica. La teoría de la probabilidad ha sido constantemente desarrollada desde el siglo XVII y ampliamente aplicada en diversos campos de estudio. Hoy es una herramienta importante en la mayoría de las áreas de ingeniería,  ciencias y administración, y se constituye en la base para el estudio de las leyes de azar.
En cuanto a los números aleatorios, podemos afirmar que la historia formal de éstos  comenzó en la década de los cuarenta con el nacimiento del método llamado simulación de Montearlo, y Von Neumann, Metrópolis, Ulam y Lehmer pueden ser nombrados entre los pioneros en este campo. John Von Neumann aparentemente conjeturó el potencial de los computadores para tratar problemas estocásticos en 1945. Durante los cuarenta, la simulación de procesos estocásticos permaneció restringida al proyecto secreto del Departamento de Defensa de Estados Unidos. La publicación de The Monte Carlo Method por Metrópolis y Stanislaw M. Ulam en 1949 denota el inicio de la historia oficial del método. Dos años más tarde, D.H.Lehmer propuso el generador lineal de congruencia, el cual, con pequeñas modificaciones propuestas por Thomson y Rotenberg, ha llegado a convertirse en el método para la generación de números aleatorios mas ampliamente usado en la actualidad. Aunque originalmente el método de montecarlo fue implementado por John Von Neumann y Stanislaw Ulam, utilizando ruletas y dados en los problemas de difusión de los neutrones, en realidad su auge y creciente uso se debe a que hoy se emplean números aleatorios generados por computador.
Antes del advenimiento de las computadoras, los números aleatorios eran generados por dispositivos físicos. En 1939, Kendall y Babington-Smith publicaron 100000 dígitos aleatorios obtenidos con un disco giratorio iluminado con una lámpara relámpago. En 1955, la Rand Corporation publicó un millón de dígitos producidos controlando una fuente de pulsos de frecuencia aleatoria; estos se encuentran disponibles en cintas magnéticas de la Rand.



Generacion De NUmeros Aleatorios
Una vez construido un modelo, debemos experimentar sobre él y para poder ejecutarlo necesitamos dar valores a las variables de tipo exógeno. De esta forma podremos obtener valores de salida y pasaremos a realizar un análisis de los mismos. Algunas de las variables de entrada son de tipo aleatorio por lo que se tendrán que generar valores que simulen dichas entradas. Para generar variables aleatorias que sigan determinadas funciones de probabilidad necesitamos partir de series de números que cumplan ciertas características de aleatoriedad. La generación de dichos números es lo que se va a abordar en este tema.

Método de congruencias aditivas.
Es un método rápido, puesto que no necesita realizar multiplicación. Se precisa una secuencia de números x1, x2. . . , xn. El generador produce una extensión de la secuencia xn+1, xn+2, . . . de la forma siguiente:

xi = (xi−1 + xi−n) mod m

Por definición a = b mod m si a−b es divisible por m (resto 0). Por ejemplo, en módulo 4, los números 2, 6, 10, 14 son equivalentes porque (10 − 2), (10 − 6) . . . son todos divisibles por 4. Hay que tener en cuenta que, cuando utilizamos módulo m, los valores que resultarán estarán comprendidos entre 0 y m-1.

Generadores de congruencias lineales
Una gran mayoría de los generadores utilizados actualmente utilizan esta técnica introducida por Lehmer en 1951. Una secuencia de números enteros Z1,Z2, . . . está definida por la fórmula recursiva:

Zi = (aZi−1 + c) mod m

donde el módulo m, el multiplicador a, el incremento c y la semilla o valor de comienzo
Z0 son enteros no negativos


Método de cuadrados medios: Fue  propuesto en la década de los 40 del siglo XX por Von Neumann y Metrópolis. Requiere un número entero detonador (llamado semilla) con D dígitos, el cual es elevado al cuadrado. Los pasos para generar números mediante cuadrados medios son:

1.    Seleccionar una semilla (X0).
2.    Se eleva al cuadrado la semilla.
3.    Se extrae  la cantidad de dígitos del centro que se deseen, y este será X1.
4.    Dividir X1 entre 10000 y el resultado es el número aleatorio buscado.
5.    Repetir desde el paso 2 siendo la semilla X1 hasta obtener la cantidad de número aleatorios deseados.
 
 

Referencia
Mancilla herrera Alfonso Manuel; numero aleatorios, Historia, teorías y aplicaciones, edición uninorte.
Sánchez Algarra, Pedro: Metodos estadísticos aplicados

Prueba De Anderson Darling

La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución especifica. Esta prueba es una modificación de la prueba de Kolmogorov- Smirnov donde se le da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov .
En estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre si los datos de una muestra provienen de una distribución específica. La fórmula para el estadístico determina si los datos (observar que los datos se deben ordenar) vienen de una distribución con función acumulativa  F .

Donde:
n es el número de datos
f(x): es la función de distribución de probabilidad teórica
FS(X): es la función de distribución empírica.
Para definir la regla de rechazo para esta prueba es necesario, también, obtener el estadístico ajustado para luego compararlo con los valores críticos de la tabla de Anderson- Darling

Una vez obtenido el estadístico ajustado, la regla de rechazo se realiza análogamente a la utilizada en la prueba de K-S.

El estadístico de la prueba se puede entonces comparar contra las distribuciones del estadístico de prueba (dependiendo que F se utiliza) para determinar el P- valor.




Referencia
Marqués dos Santos, María José; Estadística Básica: un enfoque no parametrico, Universidad Nacional Autonoma de México, Facultad de Estudios Superiores Zaragoza.







 

Mapa De Distribuciones: Continua y Discretas

Distribucion Discreta



Distribucion  Continua







sábado, 12 de marzo de 2011

PRUEBA DE BONDAD Y AJUSTE: Mediante CHI Cuadrado


Hace referencia  a las  variables que se han medido a nivel nominal. Es decir, que sus valores representan categorías o grupos en una variable. Puede ser el caso de cuántas personas están a favor o en contra de una decisión. En este caso tenemos dos categorías o grupos: los que van por el sí y los que van por el no. Puede tratarse de otra variable como nivel
de satisfacción respecto al sabor de la comida. En este caso las personas contestan según tres categorías 

1. Si satisfecho 
2.No satisfecho 
3. Indeciso. 

Otras variable semejantes son el género o sexo de la persona, el partido político de preferencia, etc. Una pregunta que puede surgir ante estas variables es, si las frecuencias o número de casos observados en cada categoría de la variable, a partir de una muestra, difieren de manera significativa respecto a una población esperada de respuestas o frecuencias.

Ejemplo:

Digamos que 900 estudiantes expresan su voluntad por celebrar el aniversario de la institución organizando uno de dos
Eventos: una acto solemne en el templo universitario o una actividad deportiva en el estadio de fútbol. Una vez hecha la
Encuesta se tiene que 495 alumnos prefieren la actividad deportiva y 405 se inclinan por el acto solemne. ¿Existe una diferencia significativa entre los estudiantes en su preferencia por la actividad deportiva? La prueba estadística para determinar la significativita de la diferencia en las frecuencias observadas es la prueba llamada Chi Cuadrada. Para el caso que nos ocupa, se supone que si no hay diferencia en la preferencia de los alumnos de una manera perfecta, tendríamos 450 alumnos eligiendo el acto solemne y otros 450 eligiendo las actividades deportivas. Esa es la frecuencia de respuestas esperadas en el caso de una igualdad absoluta. Pero tenemos frecuencias observadas un poco diferentes en un caso son 495 y en el otro 405, lo que deseamos saber es si esa diferencia observada es significativa.
Lo que se hace al aplicar la fórmula de chi cuadrada es restar al número de frecuencias observadas, el número de frecuencias esperadas; elevar esta diferencia al cuadrado, lo que hace que todos los valores asuman un valor positivo, y luego se divide el cuadrado obtenido entre el las frecuencias esperadas. Esto se hace de manera independiente para cada una de las categorías. Una vez terminado este paso, se suman los resultados obtenidos en cada categoría y ese valor resultante de la suma es el valor Chi cuadrada observado, el cual deberá ser comparado con el valor Chi cuadrada crítico según el nivel alpha de significatividad escogido y los grados de libertad correspondientes. En el caso de nuestro ejemplo se trata de dos categorías, lo que conduce a un grado de libertad. A continuación el proceso ara calcular el valor Chi cuadrada.

1. A favor del acto solemne:

Frecuencias observadas = 405
Frecuencias esperadas = 450

(frecuencias observadas – frecuencias esperadas )2
( 405 – 450)/ 450 = (-45)2  /450 = 2025/450= 4.5


2. A favor del acto deportivo:

Frecuencias observadas = 495
Frecuencias esperadas = 450

(frecuencias observadas – frecuencias esperadas )2
( 495 – 450)/ 450 = (45)2  /450 = 2025/450= 4.5


3. Se suman los valores obtenidos en cada grupo para obtener el valor de chi cuadrada.

4.5 + 4.5 = 9.00

4. Se compara este valor con el valor correspondiente a un grado de libertan en la tabla de Chi cuadrado y se encuentra que el valor crítico de χ2 para un grado de libertad a un nivel  alpha = .05 a dos colas es = 3.8941 Siendo que el valor Chi cuadrada (χ 2) obtenido es mayor que el valor crítico, se desacredita la hipótesis nula que afirma que no existe diferencia significativa entre las frecuencias observadas y se concluye que la diferencia es significativa. Esto
quiere decir que en menos de 5 casos de cada cien, una diferencia como la del valor igual o mayor al observado de Chi cuadrado en este caso (χ 2  =9), puede ser atribuida a la selección de la muestra (azar).


VÍDEO APLICADO A CHI CUADRADO
http://www.youtube.com/watch?v=sk2KqSINdr8


Tabla de CHI cuadrado.


La ji cuadrada se utiliza cuando:
            
1.    Cuando los datos puntualizan a las escalas nominal u ordinal.
2. Se utiliza solo la frecuencia.
3.  Poblaciones pequeñas.
4.  Cuando se desconocen los parámetros media, moda, etc.
5. Cuando se quiere contrastar o comparar hipótesis
6.  Investigaciones de tipo social - muestras pequeñas no representativas >5.
7. Cuando se requiere de establecer el nivel de confianza o significatividad en las diferencias   
8. Cuando la muestra es seleccionada no probabilísticamente.
9.  X2 permite establecer diferencias entre f y se utiliza solo en escala nominal.
                   Población > a 5 y < a 20.

Pasos.
1.  Arreglar las categorías y las frecuencias observadas.
2.  Calcular los valores teóricos esperados para el modelo experimental o tipo de distribución muestral: normal, binomial y de Poisson.
3.  Calcular las diferencias de las frecuencias observadas en el experimento con respecto a las frecuencias esperadas.
4.  Elevar al cuadrado las diferencias y dividirlas entre los valores esperados de cada categoría.
5.  Efectuar la sumatoria de los valores calculados.
6.  Calcular los grados de libertad (gl) en función de número de categorías [K]: gl = K - 1.
7.  Comparar el estadístico X2 con los valores de la distribución de ji cuadrada en la tabla.
8.  Decidir si se acepta o rechaza la hipótesis X2c ³ X2t se rechaza Ho.
 
Ejemplo:

Un investigador quiere comparar si hay diferencias en la cantidad de cigarros fumados por causa del estrés en personas que trabajan.
Elección de la prueba. 


·   Hipótesis alterna (Ha). Habrá diferencia significativa entre la cantidad de cigarros fumados por causa del estrés en personas que trabajan.

 · Hipótesis nula (Ho). No Habrá diferencia significativa entre la cantidad de cigarros fumados por causa del estrés en personas que trabajan.


Nivel de significación.

Para todo valor de probabilidad igual o menor que 0.05, se acepta Ha y se rechaza Ho.
Zona de rechazo.
Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha.
.

Aplicación de la prueba estadística.

El cálculo de la frecuencia esperada se efectúa en virtud de que para una hipótesis nula, a todas las casillas corresponde un valor igual, por lo tanto





fo = 18
fe = 6










gl = 3 + 1 = 2
a = 0.05


El valor calculado de X2 se compara con los valores críticos de la tabla de valores críticos de X2. Se puede observar que para una probabilidad de 0.05 corresponde la cifra de 5.99; por lo tanto, el estadístico ji cuadrada de 4.3 tiene una probabilidad mayor que 0.05.


Decisión.
En virtud de que la probabilidad obtenida al calcular el valor de X2 está dentro de la región de rechazo, se acepta Ho y se rechaza Ha. X2c ³ X2t se rechaza Ho

Entonces tenemos que:
4.3 < 5.99 se acepta Ho \ No hay diferencias significativas entre el consumo de cigarros por causa del estrés.


Interpretación.
El consumo de cigarros por causa del estrés se puede considerar como efecto del azar.



Prueba de Smirnov - Kolmogorov (S-K)

En esta prueba también se está interesado en el grado de concordancia entre la distribución de frecuencia muestral y la distribución de frecuencia teórica, bajo la hipótesis nula de que la distribución de la muestra es f0(x,q) e interesa probar que no existe diferencia significativa. La prueba trabaja con la función de distribución ( distribución de frecuencia acumulativa). Esta prueba pertenece al campo de la Estadística No Paramétrica.
Sea F0(x) la función de distribución teórica para la variable aleatoria X, y representa la probabilidad de que la variable aleatoria X tome un valor menor o igual a x (también se interpreta como la proporción esperada de observaciones que tengan un valor menor o igual a x). Es decir:
Sea Sn (x) la función de distribución empírica, calculada con base en los valores observados de la muestra n observaciones. Sn (x) representa la proporción de valores observados que son menores o iguales a x, y está definida como:
Sn (x) = P ( X £ x/ dados los resultados muestrales) = m/n
donde m es el número de valores observados que son menores o iguales a x.
En la prueba de Smirnov-Kolmogorov se está interesado en la mayor desviación entre la función de distribución teórica y la empírica, es decir entre F0 (x) y Sn(x), para todo el rango de valores de x. Bajo la hipótesis nula se espera que estas desviaciones sean pequeñas y estén dentro de los límites de errores aleatorios. Por lo tanto, en la prueba S-K se calcula la mayor desviación existente entre F0 (x) y Sn(x), denotada por Dmax(x) y está dada por:
Dmax(x) = Max | FX (x) - Sn (x) |
La distribución de Dmax(x) es conocida y depende del número de observaciones n. Se acepta la hipótesis nula de que no existe diferencia significativa entre las distribuciones teóricas y empíricas si el valor de Dmax(x) es menor o igual que el valor crítico Dmaxp(a,n). 
Esta prueba se puede realizar para valores agrupados en intervalos de clase y también para valores sin agrupar.

El procedimiento general para realizar esta prueba para valores agrupados en intervalos de clase es el siguiente:

1) Especificar la distribución nula es f0(x,q), y estimar sus parámetros si es necesario.
2) Organizar la muestra en una distribución de frecuencia, en intervalos de clase.
3) Con base en la distribución observada de frecuencia, se calcula la distribución acumulativa Sn(Xi) = mi/n, siendo Xi el límite superior del intervalo de clase, y mi el número de valores de la muestra menores o iguales que Xi. Sn(Xi) corresponde simplemente a la frecuencia relativa acumulada hasta el intervalo i.
4) Se calcula la función de distribución teórica F 0 Xi).
5) Para cada intervalo de clase se calcula la diferencia entre F0 (Xi ) y Sn (Xi), y se busca la máxima Dmax = Max | FX (Xi) - Sn (Xi), i = 1, 2, …, k.
6) Se busca en la tabla el valor crítico Dmaxp(a,n) con el nivel de significancia a. Si el valor observado Dmax es menor o igual que el valor crítico, entonces se acepta la hipótesis nula de que no existen diferencias significativas entre la distribución teórica y la distribución dada por los resultados muestrales, es decir, que los valores generados siguen la distribución que se había supuesto.
Cuando la muestra es pequeña y/o los valores no se van a organizar en intervalos de clase el procedimiento es similar, sólo que el paso 2 se cambia por “ordenar los valores de la muestra” en forma ascendente, de menor a mayor”, y en los pasos 3 y 4 se calculan las funciones de distribución teórica y empírica para cada valor de la muestra.

Ejemplo1. Considere de nuevo el ejemplo de la prueba de habilidad aplicada a un grupo de 80empleados. Mediante la prueba de Smirnov Kolomogorov. Con un nivel de significancia del 5%, pruebe la hipótesis de que los puntajes obtenidos siguen una distribución normal.

Solución. De la tabla construida para realizar la prueba chi cuadrado tomaremos la información pertinente y la complementaremos con la información faltante, relativa al cálculo de Sn(Xi). Los cálculos se muestran a continuación.
El valor crítico para n = 80 valores y un nivel de significancia del 5% es Dmaxp(0.05,80) = 1.36/ = 0.152. Como la diferencia máxima observada fue de 0.0236 no hay razón para dudar que los puntajes se puedan aproximar mediante una distribución normal.

Ejemplo2: Prueba de Smirnov - Kolmogorov - Valores agrupados. En la tabla siguiente se presentan los cálculos para realizar la prueba S-K para la muestra de 100 números aleatorios generados mediante un generador congruencial multiplicativo con a = 899, C = 0 y M = 32768, usados para la prueba chi cuadrado.
La diferencia máxima observada es Dmax(x) = 0.09 y el valor crítico para un nivel de significancia del 1% es de 1.63/ = .163. Como Dmax(x) < D(0.01,100) no podemos rechazar la hipótesis nula y debemos concluir que la muestra tomada del generador de números aleatorios proviene de una distribución uniforme (0,1).

Ejemplo3. Prueba de Smirnov - Kolmogorov - Valores individuales. Para realizar la prueba de S-K no se requiere que las observaciones estén distribuidas en intervalos de clase, sino que puede realizarse sin agrupar los valores en intervalos de clase, principalmente cuando el tamaño de la muestra es pequeño. En este caso es necesario ordenar los valores en forma ascendente, de menor a mayor, y calcular, para cada valor observado las distribuciones teóricas F0(Xi) y empíricas Sn(Xi) en la forma como se explicó anteriormente. En la tabla siguiente se presenta la prueba para los primeros 20 números aleatorios generados mediante el generador congruencial multiplicativo mencionado anteriormente. La diferencia máxima observada es 0.123 y la máxima permitida es 0.294 para 20 valores y un nivel de significancia del 5%, lo cual lleva a la conclusión de que no existe evidencia de que las observaciones no se distribuyan uniformemente en el intervalo (0,1).. Recordemos que F0(Xi) = Xi para la distribución uniforme (0,1)
(Prueba de Smirnov - Kolmogorov - Valores individuales)

Propiedades de la prueba de Smirnov Kolmogorov
• La prueba de Smirnov - Kolmogorov puede aplicarse para tamaños de muestra pequeños, lo que no sucede con la chi cuadrado.
• Además, la prueba S-K es más poderosa que la Ji cuadrado, es decir, cuando se rechaza la hipótesis nula, se tiene una mayor confiabilidad en dicho resultado.
• La prueba S-K debe usarse cuando la variable de análisis es continua. Sin embargo, si la prueba se usa cuando la distribución de la población no es continua, el error que ocurre en la probabilidad resultante está en la dirección segura. Es decir, cuando se rechaza la hipótesis nula, tenemos verdadera confianza en la decisión.

VÍDEO DE APLICACON A CHI CUADRADO

http://www.youtube.com/watch?v=UMaPrqEE3Xg

Prueba De Hipotesis

Una hipótesis Estadística es un proposición sobre los parámetros de una población o sobre la distribución de probabilidad de una variable aleatoria. Se puede definir además como técnica estadística que se sigue para decidir si rechazamos o no una hipótesis estadística en base a la información de u8na muestra.
El propósito de la prueba o de hipótesis es ayudar  al investigador a tomar  decisiones referentes  a una población considerando la información de una muestra de dicha población.


Al realizar pruebas de hipótesis, se parte de un valor supuesto (hipotético) en parámetro poblacional. Después de recolectar una muestra aleatoria, se compara la estadística muestral, así como la media (x), con el parámetro hipotético, se compara con una supuesta media poblacional . Después se acepta o se rechaza el valor hipotético, según proceda. Se rechaza el valor hipotético sólo si el resultado muestral resulta muy poco probable cuando la hipótesis es cierta.

Etapas Para La Prueba De Hipótesis.
Etapa 1.- Planear la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0) es el valor hipotético del parámetro que se compra con el resultado muestral resulta muy poco probable cuando la hipótesis es cierta.
Etapa 2.- Especificar el nivel de significancia que se va a utilizar. El nivel de significancia del 5%, entonces se rechaza la hipótesis nula solamente si el resultado muestral es tan diferente del valor hipotético que una diferencia de esa magnitud o mayor, pudiera ocurrir aleatoria mente con una probabilidad de 1.05 o menos.
Etapa 3.- Elegir la estadística de prueba. La estadística de prueba puede ser la estadística muestral (el estimador no segado del parámetro que se prueba) o una versión transformada de esa estadística muestral. Por ejemplo, para probar el valor hipotético de una media poblacional, se toma la media de una muestra aleatoria de esa distribución normal, entonces es común que se transforme la media en un valor z el cual, a su vez, sirve como estadística de prueba.
Etapa 4.- Establecer el valor o valores críticos de la estadística de prueba. Habiendo especificado la hipótesis nula, el nivel de significancia y la estadística de prueba que se van a utilizar, se produce a establecer el o los valores críticos de estadística de prueba. Puede haber uno o más de esos valores, dependiendo de si se va a realizar una prueba de uno o dos extremos.
Etapa 5.- Determinar el valor real de la estadística de prueba. Por ejemplo, al probar un valor hipotético de la media poblacional, se toma una muestra aleatoria y se determina el valor de la media muestral. Si el valor crítico que se establece es un valor de z, entonces se transforma la media muestral en un valor de z.
Etapa 6.- Tomar la decisión. Se compara el valor observado de la estadística muestral con el valor (o valores) críticos de la estadística de prueba. Después se acepta o se rechaza la hipótesis nula. Si se rechaza ésta, se acepta la alternativa; a su vez, esta decisión tendrá efecto sobre otras decisiones de los administradores operativos, como por ejemplo, mantener o no un estándar de desempeño o cuál de dos estrategias de mercadotecnia utilizar.
La distribución apropiada de la prueba estadística se divide en dos regiones: una región de rechazo y una de no rechazo. Si la prueba estadística cae en esta última región no se puede rechazar la hipótesis nula y se llega a la conclusión de que el proceso funciona correctamente.
Al tomar la decisión con respecto a la hipótesis nula, se debe determinar el valor crítico en la distribución estadística que divide la región del rechazo (en la cual la hipótesis nula no se puede rechazar) de la región de rechazo. A hora bien el valor crítico depende del tamaño de la región de rechazo.


PASOS DE LA PRUEBA DE HIPÓTESIS
1.  Expresar la hipótesis nula
2.  Expresar la hipótesis alternativa
3.  Especificar el nivel de significancia
4.  Determinar el tamaño de la muestra
5.  Establecer los valores críticos que establecen las regiones de rechazo de las de no   rechazo.
6.  Determinar la prueba estadística.
7.  Coleccionar los datos y calcular el valor de la muestra de la prueba estadística apropiada.
8. Determinar si la prueba estadística ha sido en la zona de rechazo a una de no rechazo.
9. Determinar la decisión estadística.
10 Expresar la decisión estadística en términos del problema.


Errores de tipo I y de tipo II.
Si rechazamos una hipótesis cuando debiera ser aceptada, diremos que se ha cometido un error de tipo I. Por otra parte, si aceptamos una hipótesis que debiera ser rechazada, diremos que se cometió un error de tipo II. En ambos casos, se ha producido un juicio erróneo.
Para que las reglas de decisión (o no contraste de hipótesis) sean buenos, deben diseñarse de modo que minimicen los errores de la decisión; y no es una cuestión sencilla, porque para cualquier tamaño de la muestra, un intento de disminuir un tipo de error suele ir acompañado de un crecimiento del otro tipo. En la práctica, un tipo de error puede ser más grave que el otro, y debe alcanzarse un compromiso que disminuya el error más grave.
La única forma de disminuir ambos a la vez es aumentar el tamaño de la muestra que no siempre es posible.

Niveles de Significación.
Al contrastar una cierta hipótesis, la máxima probabilidad con la que estamos dispuesto a correr el riesgo de cometerán error de tipo I, se llama nivel de significación.
Esta probabilidad, denota a menudo por eso, suele especificar antes de tomar la muestra, de manera que los resultados obtenidos no influyan en nuestra elección.
En la práctica, es frecuente un nivel de significación de 0,05 ó 0,01, si bien se une otros valores. Si por ejemplo se escoge el nivel de significación 0,05 (ó 5%) al diseñar una regla de decisión, entonces hay unas cinco (05) oportunidades entre 100 de rechazar la hipótesis cuando debiera haberse aceptado; Es decir, tenemos un 95% de confianza de que hemos adoptado la decisión correcta. En tal caso decimos que la hipótesis ha sido rechazada al nivel de significación 0,05, lo cual quiere decir que tal hipótesis tiene una probabilidad 0,05 de ser falsa.

Prueba de Uno y Dos Extremos.
Cuando estudiamos ambos valores estadísticos es decir, ambos lados de la media lo llamamos prueba de uno y dos extremos o contraste de una y dos colas.
Con frecuencia no obstante, estaremos interesados tan sólo en valores extremos a un lado de la media (o sea, en uno de los extremos de la distribución), tal como sucede cuando se contrasta la hipótesis de que un proceso es mejor que otro (lo cual no es lo mismo que contrastar si un proceso es mejor o peor que el otro) tales contrastes se llaman unilaterales, o de un extremo. En tales situaciones, la región crítica es una región situada a un lado de la distribución, con área igual al nivel de significación.

Curva Característica Operativa Y Curva De Potencia
Podemos limitar un error de tipo I eligiendo adecuadamente el nivel de significancia. Es posible evitar el riesgo de cometer el error tipo II simplemente no aceptando nunca la hipótesis, pero en muchas aplicaciones prácticas esto es inviable. En tales casos, se suele recurrir a curvas características de operación o curvas de potencia que son gráficos que muestran las probabilidades de error de tipo II bajo diversas hipótesis. Proporcionan indicaciones de hasta qué punto un test dado nos permitirá evitar un error de tipo II; es decir, nos indicarán la potencia de un test a la hora de prevenir decisiones erróneas. Son útiles en el diseño de experimentos por que sugieren entre otras cosas el tamaño de muestra a manejar.


Ejemplo prueba de Hipotesis
Determine si la región de rechazo es de la cola derecha, de la  cola izquierda o de dos  colas.

   H0 : = 15,    H1 :  15, =.05
   H0 : p 0.7,  H1 : p > 0.7, =.02

Solución
La forma de la región de rechazo está determinada por la hipótesis alterna.

a.              H1 :  15 significa que la región está en ambas colas.


b.            H1 : p > 7 significa que la región está en la cola derecha.






REFERENCIA
Quintana Carlos, Elementos de Inferencia Estadística, editorial Universidad de Puerto Rico.