Contenido
4.1 Lista de estimadores a obtener de la simulación
4.1.1 Instrumentos de medición
4.1.2 Medios de registro de datos
4.2. Identificación del estimador determinante (estimador líder) del tamaño de la
simulación
4.3 Características estadísticas del estimador líder
4.3.1 Establecimiento de la precisión
4.3.2 Cálculo del número mínimo de observaciones necesarias
Método Estadístico
4.3.3 Intervalos de confianza
4.4. Muestras definitivas
4.4.1 Estadísticas descriptivas
4.4.2 Muestras pequeñas
4.4.3 Muestras grandes: Prueba de Karl-Pearson para ajuste de una distribución de
probabilidades hipotética, discreta o continúa con (hoja de cálculo o con paquete de
estadístico)
4.4.4 Otras Pruebas (Anderson-Darling), Prueba G
El estadístico de Anderson-Darling
¿Qué es el estadístico de Anderson-Darling?
Prueba G o prueba del logaritmo de la razón de Verosimilitudes
Formula
Función de verosimilitud para distribuciones continúas
4.1 Lista de estimadores a obtener de la simulación
Definiremos algunas propiedades de los estimadores.
1) Parámetro. Verdadero valor de una característica de interés, denominado por θ,
que raramente es conocido.
2) Estimativa. Valor numérico obtenido por el estimador, denominado de θˆ en
una muestra.
3) Vi ‘es y no vi ‘es. Un estimador es no in-sesgado si: E(θˆ) = θ, donde el
vi ‘es se es dado por:
Vies (θˆ) = E(θ ˆ θ) = E(θˆ) − θ
Cuadrado medio del error (ECM). Es dado por:
ECM (θˆ) = E(θˆ − θ)2 = V (θˆ) + (vies
1) Un estimador es consistente si: plim (θˆ) = θ ; y lim −→ ∞ECM (θˆ) = 0
2) Las leyes de los grandes números explican por qué el promedio o media de una
muestra al azar de una población de gran tamaño tendera´ a estar cerca de
la media de la población completa.
4.1.1 Instrumentos de medición
El análisis de la literatura existente arroja un resultado de 17 instrumentos de medida de
las actitudes y la ansiedad hacia la estadística. Exceptuando dos instrumentos
elaborados a partir de escalas bipolares, a la manera del diferencial semántico de
Osgood (Birenbaum y Eylath, 1994; Green, 1993), todos los instrumentos revisados son
escalas tipo Likert. En lo que sigue vamos a describir brevemente estos cuestionarios,
poniendo un mayor énfasis en aquellos que han sido usados más frecuentemente.
4.1.2 Medios de registro de datos
La elección del método depende de la estrategia de recopilación de datos, el tipo de
variable, la precisión necesaria, el punto de recopilación y la formación del encuestador.
Los vínculos entre una variable, su origen y los métodos prácticos para su recopilación.
Pueden ayudar a escoger métodos apropiados. Los principales métodos de recopilación
de datos son:
• Registros: los registros y licencias son particularmente valiosos para los censos
completos, pero se limitan a variables que cambian lentamente, como el número
de embarcaciones pesqueras y sus características.
• Cuestionarios: formularios que los encuestados devuelven cumplimentados. Un
método poco costoso que resulta útil cuando los índices de alfabetización son
altos y los encuestados colaboran.
• Entrevistas: formularios que se cumplimentan a lo largo de una entrevista con el
encuestado. Más caros que los cuestionarios, pero mejores para preguntas más
complejas, y cuando se dan unos índices de alfabetización bajos o se encuentra
menos colaboración.
• Observaciones directas: la realización de mediciones directas es el método más
preciso para todas las variables, como las capturas, pero a menudo resulta caro.
Muchos métodos, como los programas de observación, se limitan a la pesca
industrial.
• Presentación de informes: la principal alternativa a la realización de mediciones
directas consiste en pedir a los pescadores y a terceros que presenten informes
de sus actividades. La preparación de informes presupone la alfabetización y
requiere espíritu de colaboración, pero ello puede reforzarse mediante una
obligación legal y mediciones directas.
Las técnicas de recogida de la información no son un fin en si mismo, sino que dependen
de:
a El tipo de investigación que se esté haciendo.
b El tipo de análisis de datos que vamos a utilizar posteriormente.
c El problema que queramos estudiar. d- Los objetivos que pretendamos alcanzar con la
investigación.
Algunas técnicas se pueden utilizar en distintos diseños, por ejemplo la entrevista se
puede utilizar en: investigación acción, en estudios de caso, en investigación etnográfica,
etc.
4.2. Identificación del estimador determinante (estimador líder) del
tamaño de la simulación.
Por definición, el valor de una variable cambia conforme avanza la simulación, aunque
se le debe dar un valor inicial. Cabe recordar que el valor de un parámetro permanece
constante; sin embargo, puede cambiar conforme se estudian diferentes alternativas en
otras simulaciones.
Determinación de condiciones iniciales La determinación de condiciones iniciales para
las variables es una decisión táctica importante en la simulación.
Lo anterior se debe a que el modelo se sesga por una serie de valores iniciales hasta
que el modelo llega a un estado estable.
Para manejar este problema, los analistas han seguido varios planteamientos como
1) Descartar los datos generados durante las primeras partes de la ejecución,
2) Seleccionar las condiciones iniciales que reducen la duración del periodo de
calentamiento o
3) Seleccionar las condiciones iniciales que eliminan el sesgo. Sin embargo, para
emplear cualquiera de estas alternativas, el analista debe tener una idea del
margen de datos de salida esperado. Por lo tanto, en cierto sentido, el analista
sesga los resultados. Por otro lado, una de las únicas características de la
simulación es que permite la crítica en el diseño y análisis de la simulación; por lo
que si el analista tiene cierta información que alberga un problema, se debe incluir.
Determinación de duración de la ejecución La duración de la ejecución de simulación
(duración de la ejecución o tiempo de ejecución) depende del propósito de la simulación.
Quizás el planteamiento más común sea continuar la simulación hasta lograr un
equilibrio. En el ejemplo del mercado de pescado, significaría que las ventas simuladas
de pescado corresponden a sus frecuencias relativas históricas. Otro planteamiento es
ejecutar la simulación durante un periodo establecido como 1 mes, 1 año o una década
y ver si las condiciones al final del periodo son razonables. Un tercer planteamiento es
establecer la duración de la ejecución de modo que se obtenga una muestra
suficientemente grande para efectos de pruebas de hipótesis estadística. Esta alternativa
se considera en la siguiente sección.
Desde luego que las conclusiones que se pueden obtener de una simulación dependen
del grado en que el modelo refleja el sistema real, aunque también depende del diseño
de la simulación en un sentido estadístico.
De hecho, muchos analistas consideran la simulación como una forma de prueba de
hipótesis donde cada ejecución de simulación ofrece uno o más datos de muestra que
son susceptibles al análisis formal a través de los métodos estadísticos inferenciales. Los
procedimientos estadísticos que normalmente se usan en la evaluación de resultados de
simulación incluyen el análisis de varianza, análisis de regresión y pruebas t.
En la mayoría de las situaciones, el análisis tiene más información disponible con la cual
comparar los resultados de simulación: datos operativos antiguos del sistema real, datos
operativos del desempeño de sistemas semejantes y la percepción del analista de la
operación del sistema real. Sin embargo, se debe admitir que la información obtenida de
estas fuentes probablemente no sea suficiente para validar las conclusiones derivadas
de la simulación. Por lo tanto, la única prueba real de una simulación es qué tan bien se
desempeña el sistema real después de haber implantado los resultados del estudio.
Un requerimiento lógico para un estimador es que su precisión mejore al aumentar el
tamaño muestral. Es decir, que esperaremos obtener mejores estimaciones cuanto
mayor sea el número de individuos.
Si se cumple dicho requerimiento, diremos que un estimador es consistente. Desde un
punto de vista más riguroso diremos que un estimador es consistente si converge en
probabilidad al verdadero valor del parámetro que queremos estimar.
Ejemplo:
Consideremos el caso de la estimación de la media de una población Normal (μ) y
consideraremos dos estimadores:
Estimador 1: La primera observación de la muestra (para cualquier tamaño
muestral).
Estimador 2: La media aritmética de las observaciones.
Para observar el comportamiento de ambos estimadores utilizaremos el siguiente
programa que genera automáticamente diez muestras de diferentes tamaños (n = 2; 10
; 50; 500) procedentes de una distribución Normal de parámetros (μ = 0; σ = 1). Se
tratará, por tanto, de un estudio de simulación (generamos muestras procedentes de una
determinada distribución) para comparar el comportamiento de ambos estimadores.
Recuerda que el verdadero valor del parámetro a estimar (μ) es cero y que corresponde
a la línea central en negro:
1) Comparad los valores del estimador 1 (primera observación) para los diferentes
tamaños muestrales (n = 2; 10; 50; 500).
2) Haced lo mismo con el estimador 2: media aritmética.
3) Obtened nuevas simulaciones y repetid el estudio anterior.
4) ¿Mejora el resultado de algún estimador al aumentar el tamaño de la muestra?
Es evidente que el estimador correspondiente a la primera observación no mejora al
aumentar el tamaño de la muestra. Mientras que la media aritmética converge hacia el
verdadero valor del parámetro (μ = 0) al aumentar el tamaño de la muestra.
En resumen: la primera observación no es un estimador consistente de μ, mientras que
la media aritmética sí que lo es.
4.3 Características estadísticas del estimador líder
Hay una serie de características deseables en los estimadores para que éstos
constituyan una buena aproximación a los respectivos parámetros. Se trata de rasgos
que podrían entenderse como criterios de calidad de los estimadores.
Carencia de sesgo. Se dice que un estimador es insesgado si el valor esperado de su
distribución de probabilidad es igual al parámetro. Es decir, si es igual a Ө la media de
los valores Ê calculados en cada una de las muestras aleatorias posibles del mismo
tamaño. Si el estadístico Ê es utilizado como estimador del parámetro Ө, ese estimador
carece de sesgo cuando
E(Ê) = Ө
Por ejemplo, la media [D] es un estimador insesgado de µ, puesto que se cumple, tal
y como vimos en el capítulo anterior al estudiar la distribución muestral del estadístico
media, que
E( [D]) = µ
En el caso de la varianza, suelen manejarse habitualmente dos estimadores:
[D] o bien,
[D]
[D]. Para cada uno de ellos, el valor esperado resulta ser:
El segundo de los estimadores posee la característica de ser un estimador insesgado de
σ2, razón por la que suele emplearse con más frecuencia que el primero a la hora de
estimar el parámetro varianza poblacional.
Cuando E(Ê) ≠ Ө, decimos que el estimador sesgado tiene un sesgo positivo si E(Ê) >
Ө, o que tiene un sesgo negativo si E(Ê) < Ө. Un estimador sesgado tenderá a ofrecer
sistemáticamente valores que se alejan en un sentido u otro del parámetro, aunque la
muestra sea elegida aleatoriamente.
Consistencia. Un estimador Ê es consistente si, además de carecer de sesgo, se
aproxima cada vez más al valor del parámetro a medida que aumenta el tamaño de la
muestra. Si el tamaño n se hace indefinidamente grande, los valores de Ê se concentran
cada vez más en torno al valor del parámetro, hasta que con un tamaño
muestral infinito obtenemos una varianza del estimador nula. Por tanto, un estimador es
consistente si cuando n tiende a infinito se cumple
E(Ê) = Ө; var(Ê) = 0
La media es un estimador consistente del parámetro µ, puesto que se verifican las
condiciones anteriores. Es decir.
[D]
También se comprueba que los dos estimadores de la varianza, presentados en el
apartado anterior, resultan ser estimadores consistentes de σ2.
Eficiencia. La eficiencia de un estimador está vinculada a su varianza muestral. Así, para
un mismo parámetro Ө, se dice que el estimador Ê1 es más eficiente que el estimador Ê2
si se cumple
var(Ê1) < var(Ê2)
Por tanto, si un estadístico es más eficiente que otro, significa que varía menos de unas
muestras a otras. Se demuestra que la media es un estimador del parámetro µ más
eficiente que la mediana. Del mismo modo, la varianza S n-12 es un estimador de σ2 más
eficiente que Sn2.
Suficiencia. Un estimador es suficiente cuando en su cálculo se emplea toda la
información de la muestra. Por ejemplo, al calcular el estimador [D] del correspondiente
parámetro poblacional, utilizamos la fórmula:
[D]
para cuyo cálculo se tienen en cuenta todas las puntuaciones Xi. Otro tanto ocurre con
los estimadores Sn-12 y Sn2 de la varianza. Todos ellos pueden ser considerados
estimadores suficientes de los respectivos parámetros.
4.3.1 Establecimiento de la precisión
Sea H un intervalo cualquiera definido sobre la recta real. Definiremos ahora una variable ficticia,
XH , de la siguiente forma:
De manera que cada observación de Xt Ileva asociada una observación -con valor o ó 1- de la
variable XNr . La función de densidad teórica -desconocida- de Xt asigna una probabilidad pH al
intervalo H. Esto significa que:
Producir T replicaciones del vector y, implica disponer de una muestra de T “observaciones" de
la variable real X. Esta muestra lleva asociada, a su vez, una muestra de tamaño T de la variable
Xy .Esta variable sigue una distribución binaria de parámetro pH , así que la suma de las T
observaciones de XH , ZH = XH^ +. ,.+ X y T , sigue una distribución binomial b(pH ,^. Es oportuno
aquí hacer una adaptación al presente contexto del concepto de estimación precisa de Finster{
1987) Definición 1. ,ZH /T es una estimación precisa de pN con nivel de imprecisión A y confianza
1-a (can 0< cx < 1), si
EI conjunta de precisión [-A, A] es el conjunto de errores de simulación aceptables. En lo que
sigue a continuación se intentará determinar cuál es el número de replicaciones mínimo para
obtener una estimación de pH can nivel de imprecisión fijo A y confianza 1-a. EI teorema de
Moivre (ver por ejemplo Fz. de Trocóniz 1993) prueba que la sucesión b(pH ,1), b(pH ,2),. ..,b(pH
, 7^, es asintóticamente normal N{T pH ,T p^ [1- pH ]) de manera que si T pH > 1 S se suele
tomar como válida la siguiente aproximación a la distribución de ZH :
entonces, para la frecuencia binomial, ZH IT, se tiene :
Si t^ es el cuantil aJ2 correspondiente a la cola derecha de la distribución N(0,1),
4.3.2 Cálculo del número mínimo de observaciones necesarias
El tamaño de la muestra o cálculo de número de observaciones es un proceso vital en la
etapa de cronometraje, dado que de este depende en gran medida el nivel de confianza
del estudio de tiempos. Este proceso tiene como objetivo determinar el valor del promedio
representativo para cada elemento.
Los métodos más utilizados para determinar el número de observaciones son:
• Método estadístico
• Método tradicional
• Método Estadístico
MÉTODO ESTADÍSTICO
El método estadístico requiere que se efectúen cierto número de observaciones
preliminares (n'), para luego poder aplicar la siguiente fórmula:
NIVEL DE CONFIANZA DEL 95,45% Y UN MÁRGEN DE ERROR DE ± 5%
Siendo:
n = Tamaño de la muestra que deseamos calcular (número de
observaciones) n' = Número de observaciones del estudio preliminar Σ
= Suma de los valores x = Valor de las observaciones.
40 = Constante para un nivel de confianza de 94,45%
Ejemplo
Se realizan 5 observaciones preliminares, los valores de los respectivos tiempos
transcurridos en centésimas de minuto son: 8, 7, 8, 8, 7. Ahora pasaremos a calcular los
cuadrados que nos pide la fórmula:
8 64
7 49
8 64
8 64
7 49
Σx = 38 Σx² = 290
8
7
8
8
7
N' = 5
Sustituyendo estos valores en la fórmula anterior tendremos el valor de n:
Dado que el número de observaciones preliminares (5) es inferior al requerido (7), debe
aumentarse el tamaño de las observaciones preliminares, luego recalcular n. Puede ser
que en recálculo se determine que la cantidad de 7 observaciones sean suficientes.
Este método consiste en seguir el siguiente procedimiento sistemático:
1) Realizar una muestra tomando 10 lecturas sí los ciclos son <= 2 minutos y
5 lecturas sí los ciclos son > 2 minutos, esto debido a que hay más
confiabilidad en tiempos más grandes, que en tiempos muy pequeños
donde la probabilidad de error puede aumentar.
2) Calcular el rango o intervalo de los tiempos de ciclo, es decir, restar del
tiempo mayor el tiempo menor de la muestra:
R (Rango) = Xmax - Xmin
1) Calcular la media aritmética o promedio:
Siendo:
Σx = Sumatoria de los tiempos de
muestra n = Número de ciclos tomados
Hallar el cociente entre rango y la media:
2) Buscar ese cociente en la siguiente tabla, en la columna (R/X), se ubica el valor
correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el
número de observaciones a realizar para obtener un nivel de confianza del 95% y
un nivel de precisión de ± 5%.
3) Bus car ese cociente en la siguiente tabla, en la columna (R/X), se ubica el valor
correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el
número de observaciones a realizar para obtener un nivel de confianza del 95% y
un nivel de precisión de ± 5%.
Ejemplo
Tomando como base los tiempos contemplados en el ejemplo del método estadístico,
abordaremos el cálculo del número de observaciones según el método tradicional.
En primer lugar como el ciclo es inferior a los 2 minutos, se realizan 5 muestras
adicionales (6, 8, 8, 7, 8) para cumplir con las 10 muestras para ciclos <= 2 minutos. Las
observaciones son las siguientes:
8
7
8
8
7
6
8
8
7
8
Σx = 75
8
7
8
8
7
Se calcula el rango:
R (Rango) = 8 - 6 = 2
Ahora se calcula la media aritmética:
Ahora calculamos el cociente entre el rango y la media:
Ahora buscamos ese cociente en la tabla y buscamos su intersección con la columna de
10 observaciones:
Tenemos entonces que el número de observaciones a realizar para tener un nivel de
Confianza del 95% según el método tradicional es: 11
Al adicionar los 5 tiempos y utilizar el método estadístico tenemos un número de
observaciones igual a: 12.8 aproximadamente 13.
Por lo cual podemos concluir que ambos métodos arrojan resultados muy parecidos y
que la elección del método se deja a criterio del especialista.
4.3.3 Intervalos de confianza
Un intervalo de confianza es un rango de valores, derivado de los estadísticos de la
muestra, que posiblemente incluya el valor de un parámetro de población desconocido.
Debido a su naturaleza aleatoria, es poco probable que dos muestras de una población
en particular generen intervalos de confianza idénticos. Sin embargo, si usted repitiera
muchas veces su muestra, un determinado porcentaje de los intervalos de confianza
resultantes incluiría el parámetro de población desconocido.
En este caso, la línea negra horizontal representa el valor fijo de la media desconocida
de la población, µ. Los intervalos de confianza azules verticales que se sobreponen a la
línea horizontal contienen el valor de la media de la población. El intervalo de confianza
rojo que está completamente por debajo de la línea horizontal no lo contiene. Un intervalo
de confianza de 95% indica que 19 de 20 muestras (95%) de la misma población
generarán intervalos de confianza que contendrán el parámetro de población.
Utilice el intervalo de confianza para evaluar la estimación del parámetro de población.
Por ejemplo, un fabricante desea saber si la longitud media de los lápices que produce
es diferente de la longitud objetivo. El fabricante toma una muestra aleatoria de lápices y
determina que la longitud media de la muestra es 52 milímetros y el intervalo de confianza
de 95% es (50,54). Por lo tanto, usted puede estar 95% seguro de que la longitud media
de todos los lápices se encuentra entre 50 y 54 milímetros.
El intervalo de confianza se determina calculando una estimación de punto y luego
determinando su margen de error.
Estimación de punto
Este valor individual estima un parámetro de población usando los datos de su muestra.
Margen de error
Cuando usted utiliza estadísticos para estimar un valor, es importante recordar que sin
importar lo bien que esté diseñado su estudio, su estimación está sujeta a error de
muestreo aleatorio.
El margen de error cuantifica este error e indica la precisión de su estimación.
Usted probablemente ya entiende el margen de error, porque está relacionado con los
resultados de las encuestas. Por ejemplo, una encuesta política podría indicar que el
nivel de popularidad de un candidato es de 55% con un margen de error de 5%. Esto
significa que el nivel de popularidad real es +/- 5% y, por lo tanto, se ubica entre 50% y
60%.
Para un intervalo de confianza bilateral, el margen de error es la distancia desde el
estadístico estimado hasta el valor de cada intervalo de confianza. Cuando un intervalo
de confianza es simétrico, el margen de error es la mitad del ancho del intervalo de
confianza. Por ejemplo, la longitud media estimada de un árbol de levas es 600 mm y el
intervalo de confianza oscila entre 599 y 601. El margen de error es 1.
Mientras mayor sea el margen de error, más ancho será el intervalo y menos seguro
podrá estar usted del valor de la estimación de punto.
4.4 Muestras Definitivas
4.4.1 Estadísticas Descriptivas
La estadística descriptiva es la rama de las Matemáticas que recolecta, presenta y
caracteriza un conjunto de datos (por ejemplo, edad de una población, altura de los
estudiantes de una escuela, temperatura en los meses de verano, etc.) con el fin de
describir apropiadamente las diversas características de ese conjunto. Al conjunto de los
distintos valores numéricos que adopta un carácter cuantitativo se llama variable
estadística. Las variables pueden ser de dos tipos:
• Variables cualitativas o categóricas: no se pueden medir numéricamente (por ejemplo:
nacionalidad, color de la piel, sexo).
• Variables cuantitativas: tienen valor numérico (edad, precio de un producto, ingresos
anuales).
4.4.2 Muestra pequeñas: prueba de kolmogorov-Smirnov para ajuste
de una distribución de probabilidades continua hipotética (en hoja de
cálculo o con paquete estadístico)
Desarrollada en la década de los treinta del siglo XX, esta prueba permite —al igual que
la prueba Chi-cuadrada— determinar la distribución de probabilidad de una serie de
datos. Una limitante de la prueba de Kolmogorov-Smirnov estriba en que solamente se
puede aplicar al análisis de variables continuas. El procedimiento general de la prueba
es:
1. Obtener al menos 30 datos de la variable aleatoria a analizar.
2. Calcular la media y la varianza de los datos.
3. Crear un histograma de m= vn intervalos, y obtener la frecuencia observada en
cada intervalo 0¡.
4. Calcular la probabilidad observada en cada intervalo PO¡ =0¡ / n , esto es, dividir
la frecuencia observada O. entre el número total de datos, n.
5. Acumular las probabilidades PO.para obtener la probabilidad observada hasta el
i-ésimo intervalo, POAr
6. Establecer de manera explícita la hipótesis nula, para esto se propone una
distribución de probabilidad que se ajuste a la forma del histograma.
7. Calcular la probabilidad esperada acumulada para cada intervalo, PEA¡, a partir
de la función de probabilidad propuesta.
8. Calcular el estadístico de prueba.
c = máx |PEA¡ - PÚA, \ i = 1,2,3,..., k,..., m
9. Definir el nivel de significancia de la prueba a, y determinar el valor crítico de la
prueba, Da n (consulte la tabla de valores críticos de la prueba de Kolmogorov-
Smirnoven la sección de apéndices).
10. Comparar el estadístico de prueba con el valor crítico. Si el estadístico de prueba
es menor que el valor crítico no se puede rechazar la hipótesis nula.
4.4.3 Muestras grandes: prueba de Karl- Pearson para ajuste de una
distribución de probabilidades hipotética, discreta o continúa (en hoja
de cálculo o con paquete estadístico)
El estudio de Monte Carlo para determinar la validez del empleo de la prueba del error
estándar de ajuste como criterio de selección en el análisis de frecuencias. Dicho
estadístico se comparó con los estadísticos de prueba de Kolmogorov-Smirnov, Cramer-
Von Mises y Anderson-Darling. Las distribuciones elegidas para el propósito de comparar
estos estadísticos fueron la gamma, Weibull, Gumbel, log-normal y loglogística. Los
resultados obtenidos recomiendan el uso de muestras con tamaño de por lo menos de
más de n=50 para tener un buen desempeño de las pruebas de Anderson-Darling y error
estándar de ajuste. El empleo de las pruebas de KolmogorovSmirnov y Cramer-Von
Mises o pruebas Karl-Pearson es del todo recomendable en hidrología, ya que para
obtener un desempeño aceptable se necesitan muestras más grandes de las que
normalmente se tienen en esta disciplina.
El análisis de frecuencias de eventos hidrológicos extremos para estimar la probabilidad
de ocurrencia de dichos eventos. A menudo, el periodo de retorno del evento de diseño
de una obra hidráulica excede el periodo de las observaciones y deben hacerse
extrapolaciones a partir de los valores registrados. Una forma de extrapolar los datos
históricos consiste en emplear el método gráfico, que requiere de un analista
experimentado y presenta la desventaja de la subjetividad. Una técnica más objetiva es
encontrar la distribución de probabilidad teórica que se ajuste mejor a los datos medidos
y usar esta función para la extrapolación.
Algunas de las distribuciones de probabilidad usadas en hidrología son normal,
lognormal, gamma, Gumbel, Weibull, Pearson tipo III y log-Pearson tipo III (Aksoy, 2000;
Aparicio-Mijares, 2005). Un problema importante en el análisis de frecuencias es la
selección de una distribución de probabilidad apropiada para los datos observados. Este
problema no es exclusivo de la hidrología, también se observa en otras áreas, como la
confiabilidad y ciencias actuariales. Quesenberry y Kent (1982) desarrollaron un criterio
de selección de distribuciones basado en estadísticos invariantes bajo transformaciones
de escala.
Demostraron la efectividad de su criterio a partir de un estudio de Monte Carlo para
distinguir entre las distribuciones exponencial, gamma, Weibull y log-normal.
Generalmente, la selección de modelos se basa en pruebas de bondad de ajuste, que
incluyen métodos gráficos y estadísticos, siendo preferibles los métodos estadísticos por
su objetividad (Shin, Jung, Jeong, & Heo, 2011). Entre los métodos estadísticos con
mayor aplicación en la hidrología se encuentran las pruebas de chi-cuadrado (c 2 ) y del
error estándar de ajuste (EEA) (GananciasMartínez, 2009). Otros métodos usados a
menudo son los de función de distribución empírica (FDE), que incluyen las pruebas de
Kolmogorov-Smirnov (KS), Cramer-Von Mises (CVM) y AndersonDarling (AD) (p. ej.,
Laio, 2004; Suhaila & Jemain, 2007; Dan'azumi, Shamsudin, & Aris, 2010; Shin et al.,
2011; Atroosh & Moustafa, 2012). Sin embargo, las pruebas estadísticas de bondad de
ajuste tienen poco poder para rechazar distribuciones equivocadas (Mitosek,
Strupczewski, & Singh, 2002), por lo que en muchos casos, más de una distribución
puede ser aceptada por una prueba específica (Laio, Baldasarre, & Montanari, 2009). En
este caso, el concepto de criterio de selección de modelos representa una alternativa a
las pruebas de bondad de ajuste. Pueden definirse diversos criterios de selección en
función de los estadísticos de bondad de ajuste antes mencionados. Otros criterios de
selección se basan en la función de verosimilitud, como el criterio de información de
Akaike (CIA) y el criterio de información Bayesiano (CIB) (Laio et al., 2009). Balasooriya,
Low y Wong (2005) evaluaron la efectividad de los criterios de Akaike, y de Quesenberry
y Kent. Encontraron que si bien ambos criterios tuvieron un buen desempeño, el segundo
fue ligeramente mejor; sin embargo, la dificultad computacional de este criterio hace
preferible el empleo del CIA. Los criterios de selección de modelos probabilísticos han
recibido poca atención en la literatura hidrológica. Mitosek et al. (2002) consideraron las
distribuciones Weibull, gamma, Gumbel y log-normal como modelos alternativos para la
distribución de caudales pico anuales, y evaluaron estas distribuciones usando tres
índices: la desviación absoluta media, la media cuadrática y la función de verosimilitud
normalizada. Tras realizar un estudio de Monte Carlo, concluyeron que la función de
verosimilitud normalizada representaba el mejor criterio de selección. El Adlouni, Bobée
y Ouarda (2008) utilizaron técnicas gráficas para seleccionar la clase de distribuciones
que proporciona el mejor ajuste a un conjunto de datos. Utilizaron el criterio de
clasificación de Werner y Upper (2002), quienes dividieron las distribuciones en:
a) estables; b) con cola tipo Parteo; c) regularmente variantes; d) sub-exponenciales; e)
con momentos exponenciales inexistentes. Estos autores propusieron el empleo de
métodos gráficos para determinar la clase de la distribución y después utilizar criterios
como el CIA, CIB o AD para seleccionar la distribución de mejor ajuste. Por su parte, Laio
et al. (2009) hicieron un análisis del desempeño de tres criterios de selección de modelos:
CIA, CIB y AD, aplicados para identificar el mejor modelo probabilístico de un ajuste de
datos hidrológicos extremos. El análisis numérico para comparar los desempeños de
diferentes criterios de selección de modelos probabilísticos. Los criterios considerados
fueron las pruebas de error estándar de ajuste (EEA), Cramer-Von Mises (CVM),
Kolmogorov-Smirnov (KS), Anderson-Darling (AD) y Karl-Pearsoon (KP). El análisis se
llevó a cabo por medio de una serie de experimentos de Monte Carlo, que constaron de
los siguientes pasos:
a) se eligieron las siguientes distribuciones de probabilidad madre: Gumbel, Weibull,
gamma, log-normal y log-logística, las funciones de densidad de probabilidad (fdp) de las
primeras cuatro distribuciones se pueden consultar en el texto de Haan (1994), la de la
distribución log-logística, en Dey y Kundu (2009); b) se generaron 80 000 muestras
aleatorias de tamaño n de las distribuciones madre, los tamaños de muestra
considerados fueron n = 30, 50, 80 y 100; c) las distribuciones de interés se ajustaron a
los datos generados, los parámetros se estimaron por el método de máxima
verosimilitud; d) para cada una de las distribuciones se calcularon los estadísticos de AD,
CVM, KS y EEA; e) para cada uno de los criterios se seleccionó la distribución para la
cual se obtuvo el valor más pequeño, si la distribución seleccionada era igual a la
distribución madre, se consideró que el criterio tuvo éxito. Estas simulaciones muestran
que los criterios de selección ayudan a escoger la mejor distribución para un análisis de
frecuencias. Se encontró que de los criterios empleados, el mejor fue AD, seguido por el
EEA. También se observó que es difícil discriminar entre dos distribuciones parecidas.
También se encontró que el porcentaje de selección correcta (PSC) de los criterios de
selección depende del tamaño de la muestra n y de la distribución que siguen los datos
generados. En general, el criterio de AD resulta con mejores estimaciones para T = 100,
aun cuando no escoge la distribución correcta. También se observó que tiende a producir
estimaciones más pequeñas que los demás criterios considerados, y que en la mayoría
de los casos subestima el valor xT. Para T = 10 no hay grandes diferencias entre los
criterios. A partir de los resultados obtenidos, se recomiendan muestras con tamaño de
por lo menos n = 50 para tener un buen desempeño de las pruebas de AD y EEA. El
empleo de las pruebas de KS y CVM no se recomienda a menos que se tengan muestras
grandes.
4.4.4 Otras Pruebas (Anderson-Darling), Prueba G
El estadístico de Anderson-Darling
¿Qué es el estadístico de Anderson-Darling?
El estadístico Anderson-Darling mide qué tan bien siguen los datos una distribución
específica. Para un conjunto de datos y distribución en particular, mientras mejor se
ajuste la distribución a los datos, menor será este estadístico. Por ejemplo, usted puede
utilizar el estadístico de Anderson-Darling para determinar si los datos satisfacen el
supuesto de normalidad para una prueba t.
Las hipótesis para la prueba de Anderson-Darling son:
• H0: Los datos siguen una distribución especificada
• H1: Los datos no siguen una distribución especificada
Utilice el valor p correspondiente (si está disponible) para probar si los datos provienen
de la distribución elegida. Si el valor p es menor que un nivel de significancia elegido (por
lo general 0.05 o 0.10), entonces rechace la hipótesis nula de que los datos provienen
de esa distribución. Minitab no siempre muestra un valor p para la prueba de Anderson-
Darling, porque este no existe matemáticamente para ciertos casos.
También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste de
varias distribuciones con el fin de determinar cuál es la mejor. Sin embargo, para concluir
que una distribución es la mejor, el estadístico de Anderson-Darling debe ser
sustancialmente menor que los demás.
La prueba de Anderson-Darling es usada para probar si una muestra viene de una
distribución especifica. Esta prueba es una modificación de la prueba de Kolmogorov-
Smirnov donde se le da más peso a las colas de la distribución que la prueba de
Kolmogorov-Smirnov.
En estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre si los
datos de una muestra provienen de una distribución específica. La fórmula para el
estadístico determina si los datos (observar que los datos se deben ordenar) vienen de
una distribución con función acumulativa F.
Donde:
n es el número de datos f(x): es la función de
distribución de probabilidad teórica
FS(X): es la función de distribución empírica.
Para definir la regla de rechazo para esta prueba es necesario, también, obtener el
estadístico ajustado para luego compararlo con los valores críticos de la tabla de
Anderson- Darling.
Prueba G o prueba del logaritmo de la razón de Verosimilitudes
En estadística, la función de verosimilitud (o, simplemente, verosimilitud) es una función
de los parámetros de un modelo estadístico que permite realizar inferencias acerca de
su valor a partir de un conjunto de observaciones.
No debe confundirse con el término probabilidad: ésta permite, a partir de una serie de
parámetros conocidos, realizar predicciones acerca de los valores que toma una variable
aleatoria.
Formula
En cierto sentido, la verosimilitud es una versión inversa de la probabilidad condicional.
Conocido un parámetro B, la probabilidad condicional de A es P(A|B), pero si se conoce
A, pueden realizarse inferencias sobre el valor de B gracias al teorema de Bayes, según
el cual
La función de verosimilitud, L( b |A), definida como
desempeña el mismo papel bajo un enfoque no bayesiano. De hecho, lo relevante no es
el valor en sí de L( b |A) sino la razón de verosimilitudes.
Esta permite comparar cuanto más verosímil es el parámetro que el a la hora de explicar
el evento A. De ahí que en ocasiones se entienda que la función de verosimilitud, más
que una función en sí, sea la clase de funciones
Donde: α es una constante de proporcionalidad.
La función de verosimilitud, abundando en los razonamientos anteriores, abre la vía para
dos técnicas muy habituales en inferencia estadística: las de la máxima verosimilitud y la
del test de la razón de verosimilitudes.
Función de verosimilitud para distribuciones continuas
En los casos anteriores, los eventos considerados tenían una probabilidad p
estrictamente mayor que cero. Pero cuando la noción de verosimilitud se extiende a
variables aleatorias con una función de densidad f sobre, por ejemplo, el eje real, la
probabilidad de un evento cualquiera es nula.