0% encontró este documento útil (0 votos)
70 vistas52 páginas

Estadistica Descriptiva

Este documento presenta conceptos fundamentales de la estadística descriptiva, incluyendo definiciones de caracteres, modalidades, matriz de datos y tipos de datos. Explica que los caracteres pueden ser cualitativos o cuantitativos y que las modalidades deben ser mutuamente excluyentes y exhaustivas. También describe cómo los datos se pueden presentar sin agrupar o agrupados en intervalos para variables cuantitativas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
70 vistas52 páginas

Estadistica Descriptiva

Este documento presenta conceptos fundamentales de la estadística descriptiva, incluyendo definiciones de caracteres, modalidades, matriz de datos y tipos de datos. Explica que los caracteres pueden ser cualitativos o cuantitativos y que las modalidades deben ser mutuamente excluyentes y exhaustivas. También describe cómo los datos se pueden presentar sin agrupar o agrupados en intervalos para variables cuantitativas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Estadística Descriptiva

1. Introducción: Breve introducción sobre ¿qué es? la Estadística Descriptiva.


2. Conceptos Fundamentales: Definición de algunos conceptos propios de la terminología de
la Estadística Descriptiva
a. Caracteres.
b. Modalidades.
c. Matriz de Datos.
d. Clases de Datos.
e. Agrupamiento en Intervalos.
3. Distribución Unidimensional: En este apartado, consideraremos los datos correspondientes
a un sólo carácter, al cual llamaremos Variable Estadística. Haremos un estudio completo
de esta Variable Estadística
a. Representación Gráfica: Dependerá del tipo de datos que la constituya:
i. Carácter Cualitativo.
ii. Datos Sin Agrupar Correspondientes a un Carácter Cuantitativo.
iii. Datos Agrupados en Intervalos Correspondientes a un Carácter Cuantitativo.
b. Medidas de Centralización: Son una serie de valores que tratan de representar o
resumir a una distribución de frecuencias dada, sirviendo para realizar
comparaciones entre distintas distribuciones de frecuencias.
i. Media Aritmética.
ii. Mediana.
iii. Moda.
iv. Cuantiles.
c. Medidas de Dispersión: Tienen como propósito estudiar lo concentrada que está la
distribución entorno a algún promedio.
i. Recorrido.
ii. Varianza.
iii. Desviación Típica.
iv. Coeficiente de Variación de Pearson.
d. Medidas de Asimetría: Miden la simetría de la distribución.
i. Coeficiente de Asimetría de Pearson.
ii. Coeficiente de Asimetría de Fisher.

Probabilidad
1. Introducción: Breve recorrido por la historia de la probabilidad desde sus comienzos hasta
su definición axiomática. También un comentario a la idea que hoy se tiene de la
probabilidad.
2. Espacio Muestral: Conjunto de todos los resultados posibles diferentes de un determinado
experimento aleatorio.
3. Concepto de Probabilidad: Cómo se asigna a cada suceso A su correspondiente
probabilidad P(A).
a. Concepto Frecuentista.
b. Concepto Clásico.
c. Concepto Subjetivo.
d. Definición formal de Probabilidad.
4. Propiedades Elementales: Toda probabilidad cumple una serie de propiedades, las cuales se
obtienen como consecuencia de los axionmas que debe cumplir.
5. Asignación de Probabilidad: Por las propiedades demostradas en el apartado anterior, es
suficiente conocer la probabilidad de los sucesos elementales, ya que, entonces, se podrá
determinar la de cualquier otro suceso.
6. Modelo Uniforme: Caso particular que se corresponde con una situación en la que los
sucesos elementales del espacio muestral puedan ser considerados como equiprobables.
También se estudia el análisis combinatorio.
7. Probabilidad Condicionada
8. Teoremas Fundamentales
a. Teorema de la Probabilidad Total.
b. Teorema de Bayes.

Ejemplos
1. Colinesterasa
2. N° de Hijos
3. Radiación y Cirugía

Introducción
Habitualmente el propósito de la Estadística Aplicada es el de sacar conclusiones de una población
en estudio, examinando solamente una parte de ella denominada muestra.

Este proceso, denominado Inferencia Estadística, suele venir precedido de otro, denominado
Estadística Descriptiva, en el que los datos son ordenados, resumidos y clasificados con objeto de
tener una visión más precisa y conjunta de las observaciones, intentando descubrir de esta manera
posibles relaciones entre los datos, viendo cuales toman valores parecidos, cuales difieren
grandemente del resto, destacando hechos de posible interés, etc.

También están entre los objetivos de la Estadística Descriptiva el presentarlos de tal modo que
permitan sugerir o aventurar cuestiones a analizar en mayor profundidad, así como estudiar si
pueden mantenerse algunas suposiciones necesarias en determinadas inferencias como la de
simetría,, normalidad, homocedasticidad, etc.

El propósito de este libro es el de dar conceptos y explicar técnicas que permitan realizar ambos
procesos, a los cuales de forma conjunto se les suele denominar Análisis de Datos.

Conceptos Fundamentales
Comenzaremos definiendo algunos conceptos propios de la terminología de la Estadística
Descriptiva.

a. Caracteres

Cada uno de los individuos de la población en estudio posee uno o varios caracteres. Así
por ejemplo, si la población en consideración es la de los estudiantes de una determinada
universidad, éstos poseén una serie de caracteres, o si se quiere características, que
permiten describirlo. Los caracteres en este ejemplo pueden ser "facultad en la que está
matriculado", "curso que sigue", "sexo", "edad", etc. Precisamente la observación de uno o
más de esos caracteres en los individuos de la muestra es lo que dará origen a los datos.

Los caracteres pueden ser de dos clases: cuantitativos, cuando son tales que su observación
en un individuo determinado proporciona un valor numérico como medida asociada, como
ocurre por ejemplo con los caracteres "edad" o "curso que sigue", y cualitativos, cuando su
observación en los individuos no suministra un número, sino la pertenencia a una clase
determinada, como por ejemplo el "sexo", o la "facultad en la que está matriculado".

b. Modalidades de los caracteres

Consideremos un carácter cualquiera, como por ejemplo el "gusto". Este carácter, al ser
observado en un individuo (una sustancia), puede presentar cuatro posibilidades, es decir,
es posible percibir cuatro sensaciones diferentes: dulce, amargo, salado y ácido. Pués bien,
a las posibilidades, tipos o clases que pueden presentar los caracteres las denominaremos
modalidades.

Las modalidades de un carácter deben ser a la vez incompatibles y exhaustivas. Es decir,


las diversas modalidades de un carácter deben cubrir todas las posilidades que éste puede
presentar y además deben ser disjuntas un individiio no puede presentar a la vez má,s de
una de ellas y además debe presentar alguna de ellas).

Así, al estudiar algún carácter, como por ejemplo la raza, el investigador deberá considerar
todas las posibles modalidades del carácter (todas las posibles razas), con objeto de poder
clasificar a todos los individuos que observe.

c. La matriz de datos

Habitualmente, la información primaria sobre los individuos, es decir, la forma más


elemental en la que se expresan los datos es la de una matriz, en la que aparecen en la
primera columna los individiios identificados de alguna manera y en las siguientes
columnas las observaciones de los diferentes caracteres en estudio para cada uno de los
individuos, tal y como aparece en la tabla 2.1. Dicha matriz recibe el nombre de matriz de
datos.

carácter 1 carácter 2 . . . carácter p


individuo 1 * * ... *
individuo 2 * * ... *
... ... ... ... ...
individuo n * * ... *
Matriz de Datos

Así, los datos correspondientes a una investigación llevada a cabo para el estudio de una
posible contaminación radioactiva en un determinado lugar produjeron como resultado la
matriz de datos, en donde se recogen las observaciones de los caracteres "edad", "sexo",
"cáncer", "caída anormal del cabello" y "profesión" en los 100 individuos seleccionados en
la muestra.

edad sexo cáncer caida cabello profesión


individuo 1 32 masculino no no agricultor
individuo 2 29 femenino no no maestra
... ... ... ... ... ...
individuo 100 61 masculino si si agricultor
Estudio de Contaminación Radioactiva

En algunas ocasiones se reserva el nombre de matriz de datos a la obtenida de la anterior


eliminando la primera columna.

d. Clases de datos

Es habitual denominar a los caracteres variables estadísticas o simplemente variables,


calificándolas de cualitativas o cuantitativas según sea el correspondiente carácter, y hablar
de los valores de la variable al referirnos a sus modalidades, aunque de hecho solamente
tendremos verdaderos valores numéricos cuando analicemos variables cuantitativas.

En ocasiones, con objeto de facilitar la toma de los datos, el investigador los agrupa en
intervalos. Así por ejemplo, resulta más sencillo averiguar cuantos individuos hay en una
muestra con una estatura, por ejemplo, entre 1'70 y 1'80 que medirlos a todos, en especial
si tenemos marcas en la pared cada 10 cm.

Observemos, no obstante, que siempre se producirá una pérdida de información al agrupar


los datos en intervalos y dado que hoy en día la utilización del ordenador suele ser de uso
corriente, un agrupamiento en intervalos es en general desaconsejable.

No obstante, por razones docentes admitiremos esta posibilidad, ya que precisamente el


agrupamiento en intervalos traerá complicaciones adicionales en el cálculode algunas
medidas representativas de los datos.

Consideraremos, por tanto, tres tipos posibles de datos:

I. Datos correspondientes a un carácter cualitativo


II. Datos sin agrupar correspondientes a un carácter cuantitativo
III. Datos agrupados en intervalos correspondientes a un carácter cuantitativo
e. Agrupamiento en intervalos

Si tenemos la opción de poder agrupar los datos en intervalos, lo primero que debemos
plantearnos (independientemente de lo que más arriba comentábamos) es la cuestión de
cuantos y cuales intervalos elegir.

Previamente daremos algunas definiciones. Si los intervalos o clases, como a veces se


denominan, son:

[x 0 , x 1) , [x 1 , x 2) , ... , [x j-1 , x j) , ... , [x k-1 , x k]

llamaremos amplitud del intervalo j-ésimo a xj - xj-1, j=1,...,k, hablando de intervalos de


amplitud constante o variable según tengan o no todos la misma amplitud.

Llamaremos extremos de la clase j-ésima a xj-1 y a xj, y por último, llamaremos centro o
marca de clase correspondiente al intervalo j-ésimo al punto medio del intervalo, es decir,
a cj= (xj + xj-1)/2.

A lo largo de la página consideraremos que el dato xj pertenece al intervalo j+1, j=1, ..., k-
1 , siendo el x k del k-ésimo. Hacemos notar también que el primer y último intervalo
generalmente tienen, respectivamente, el extremo inferior y superior indeterminados con
objeto de incluir observaciones poco frecuentes.

Respecto a la cuestión que nos planteábamos al comienzo de este apartado, podemos


considerar como regla general la de construir, siempre que sea posible, intervalos de
amplitud constante, sugiriendo sobre el número k de intervalos a considerar el propuesto
por Sturges

k = 1 + 3'322 log 10 n

siendo n el número total de datos.

Una vez determinado el número k de intervalos a considerar, y si es posible tomarlos de


igual amplitud, esta será:

en donde x(n) es el dato mayor y x(1) el menor.

Ejemplo 1: "Niveles de Colinesterasa"

Se midieron los niveles de colinesterasa en un recuento de eritrocitos en μmol/min/ml de 34


agricultores expuestos a insecticidas agrícolas, obteniéndose los siguientes datos:

Individuo Nivel Individuo Nivel Individuo Nivel


1 10,6 13 12,2 25 11,8
2 12,5 14 10,8 26 12,7
3 11,1 15 16,5 27 11,4
4 9,2 16 15,0 28 9,3
5 11,5 17 10,3 29 8,6
6 9,9 18 12,4 30 8,5
7 11,9 19 9,1 31 10,1
8 11,6 20 7,8 32 12,4
9 14,9 21 11,3 33 11,1
10 12,5 22 12,3 34 10,2
11 12,5 23 9,7
12 12,3 24 12,0
Niveles de Colinesterasa

Aplicando la fórmula de Sturges obtenemos:

k = 1 + 3'322 log10 34 = 1 + 3'322 · 1'53148 = 6'08757


es decir, una sugerencia de 6 intervalos. Como el mayor valor es x(34) = 16'5 y el menor x(1)
= 7'8, la longitud sugerida es

Parece, por tanto, razonable tomar como amplitud 1'5, obteniendo como intervalos en los
que clasificar los datos

[7'5 - 9) , [9 - 10'5) , [10'5 - 12) , [12 - 13'5) , [13'5 - 15) , [15 - 16'5]

Distribuciones Unidimensionales de Frecuencia


En este apartado consideraremos que tenemos datos correspondientes a un solo carácter, el cual,
como antes dijimos llamaremos variable estadística y representaremos por X.

Llamaremos frecuencia total al número de datos n. Llamaremos frecuencia absoluta ni de la


modalidad Mi (valor xi o intervalo Ii) de la variable X al número de datos que presentan la
modalidad Mi (valor xi o valor del intervalo Ii). Si existen k modalidades posibles, se verificará

ni = n1 + n2 + ... + nk = n

Llamaremos frecuencia relativa fi de la modalidad Mi (valor xi o intervalo Ii) de la variable X al


cociente fi = ni/n, verificándose:

fi = f1 + f2 + ... + fk = 1

Llamaremos frecuencia absoluta acumulada Ni hasta la modalidad Mi (valor xi o intervalo Ii) a la


suma

Ni=n1 + ... + ni= nj

Claramente es Nk= nj=n

Llamaremos frecuencia relativa acumulada Fi hasta la modalidad Mi (valor xi o intervalo Ii) al


cociente Fi=Ni/N, o lo que es lo mismo, a
Fi=f1 + ... + fi= fj

siendo Fk= fj=1

Distribuciones unidimensionales de frecuencias

La tabla formada por las distintas modalidades (valores o intervalos) del carácter X y por las
frecuencias absolutas (relativas, absolutas acumuladas o relativas acumuladas) recibe el nombre de
distribución de frecuencias absolutas (relativas, absolutas acumuladas o relativas acumuladas
respectivamente).

Tenemos, por tanto, para cada tipo de datos, cuatro distribuciones de frecuencias, obteniéndose a
partir de una cualquiera de ellas las tres restantes, supuesto que se conoce la frecuencia total.

Las cuatro distribuciones de frecuencias se expresan en tablas como siguientes dependiendo del
tipo de datos que sean:

1. Carácter cualitativo:

Mi ni fi Ni Fi
Cualidad1 n1 f1 N1 F1
Cualidad2 n2 f2 N2 F2
... ... ... ... ...
Cualidadi ni fi Ni Fi
... ... ... ... ...
Cualidadk nk fk Nk=n Fk=1
n 1
Carácter Cualitativo

2. Carácter cuantitativo sin agrupar:

Xi ni fi Ni Fi
x1 n1 f1 N1 F1
x2 n2 f2 N2 F2
... ... ... ... ...
xi ni fi Ni Fi
... ... ... ... ...
xk nk fk Nk=n Fk=1
n 1
Carácter Cuantitativo sin Agrupar

3. Carácter cuantitativo agrupado en intervalos:

Ii ni fi Ni Fi
I1 n1 f1 N1 F1
I2 n2 f2 N2 F2
... ... ... ... ...
Ii ni fi Ni Fi
... ... ... ... ...
Ik nk fk Nk=n Fk=1
n 1
Carácter Cuantitativo Agrupado en Intervalos
Ejemplo: "Tratamiento de Radiación y Cirugía"

En un estudio sobre las razones por las que no fue completado un tratamiento de radiación seguido
de cirugía en pacientes de cáncer de cabeza y cuello se obtuvieron los datos dados por la siguiente
distribució de frecuencias absolutas,

Causas ni
Rehusaron Cirugía 26
Rehusaron Radiación 3
Empeoraron por una
10
enfermedad ajena al cáncer
Otras causas 1
40
Datos

Las cuatro distribuciones de frecuencia serán:

Causas ni fi Ni Fi
Rehusaron Cirugía 26 0'650 26 0'650
Rehusaron Radiación 3 0'075 29 0'725
Empeoraron por una
10 0'250 39 0'975
enfermedad ajena al cáncer
Otras causas 1 0'025 40 1
40 1
Distribución de Frecuencias
Ejemplo: "N° de Hijos"

Tras encuestar a 25 familias sobre el número de hijos que tenían, se obtuvieron los siguientes
datos,

4
Nº de hijos(Xi) 0 1 2 3

Nº de familias(ni) 5 6 8 4 2 25
Datos

Las cuatro distribuciones de frecuencia serán:

Xi ni fi Ni Fi
0 5 0'20 5 0'20
1 6 0'24 11 0'44
2 8 0'32 19 0'76
3 4 0'16 23 0'92
4 2 0'08 25 1
25 1
Distribución de Frecuencias
Ejemplo:

Los datos del de los Niveles de Colinesterasa, agrupados en los intervalos allí obtenidos,
proporcionan las cuatro siguientes distribuciones de frecuencias

Ii ni fi Ni Fi
7'5-9 3 0'088 3 0'088
9-10'5 8 0'236 11 0'324
10'5-12 10 0'294 21 0'618
12-13'5 10 0'294 31 0'912
13'5-15 1 0'029 32 0'941
15-16'5 2 0'059 34 1
34 1
Distribución de Fecuencias
Representación Gráfica de las Distribuciones
Unidimensionales de Frecuencias

La representación gráfica de una distribución de frecuencias depende del tipo de datos que la
constituya.

a. Datos correspondientes a un carácter cualitativo

La representación gráfica de este tipo de datos está basada en la proporcionalidad de las


áreas a las frecuencias absolutas o relativas. Veremos dos tipos de representaciones:

1. Diagrama de sectores:

Está representación gráfica consiste en dividir un círculo en tantos sectores


circulares como modalidades presente el carácter cualitativo, asignando un ángulo
central a cada sector circular proporcional a la frecuencia absoluta ni, consiguiendo
de esta manera un sector con área proporcional también a ni.

Ejemplo:

Así, los ángulos que corresponden a las cuatro modalidades de la tabla


adjunta serán:

Número de casos Ángulo(grados)


Rehusaron cirugía 26 234°
Rehusaron radiación 3 27°
Empeoraron por
una enfermedad 10 90°
ajena al cáncer
Otras causas 1 9°

Y su representación en un diagrama de sectores será:


2. Diagrama de rectángulos:

Esta representación gráfica consiste en construir tantos rectángulos como


modalidades presente el carácter cualitativo en estudio, todos ellos con base de
igual amplitud. La altura se toma igual a la frecuencia absolua o relativa (según la
distribución de frecuencias que estemos representando), consiguiendo de esta
manera rectángulos con áreas proporcionales a las frecuencias que se quieren
representar.

Ejemplo:

La representación gráfica de la distribución de frecuencias absolutas del


ejemplo anterior será de la forma:

b. Datos sin agrupar correspondientes a un carácter cuantitativo

Estudiaremos dos tipos de representaciones gráficas, correspondientes a distribuciones de


frecuencias (absolutas o relativas) no acumuladas y acumuladas.
1. Diagrama de barras:

Consiste en levantar, para cada valor de la variable, una barra cuya altura sea su
frecuencia absoluta o relativa, dependiendo de la distribución de frecuencias que
estemos representando.

Ejemplo:

Así, la representación gráfica de la distribución de frecuencias del ejemplo


del nº de hijos será:

2. Diagrama de frecuencias acumuladas:

Esta representación gráfica se corresponde con la de una función constante entre


cada dos valores de la variable a representar, e igual en cada tramo a la frecuencia
relativa acumulada (o absoluta acumulada si se trata de representar una distribución
de frecuencias absolutas) hasta el menor de los dos valores de la variable que
construyen el tramo en el que es constante.

Ejemplo:

También para el ejemplo del Número de Hijos, se tendrá un diagrama de


frecuencias acumuladas como el del siguiente gráfico:
c. Datos agrupados en intervalos correspondientes a un carácter cuantitativo

Al igual que antes, existen también dos tipos de representaciones gráficas dependiendo de
si la distribución de frecuencias en estudio es de datos acumulados o de datos sin acumular.

1. Histograma:

Al ser esta representación una representación por áreas, hay que distinguir si los
intervalos en los que aparecen agrupados los datos son de igualamplitud o no.

Si la amplitud de los intervalos es constante, dicha amplitud puede tomarse como


unidad y al ser

Frecuencia (área) = amplitud del intervalo · altura

la altura correspondiente a cada intervalo puede tomarse igual a la frecuencia.

Si los intervalos tienen diferente amplitud, se toma alguna de ellas como unidad
(generalmente la menor) y se levantan alturas para cada intervalo de forma que la
ecuación anterior se cumpla.

Ejemplo:

En el ejemplo de los Niveles de Colinesterasa, al tener los intervalos igual


amplitud, la representación gráfica será:
Ejemplo:

Si tuviéramos una distribución de frecuencias como la siguiente,


correspondiente a puntuaciones obtenidas en un test psicológico y en la
que los intervalos son de diferente amplitud

Ii ni fi
0-20 8 8/70
20-30 9 9/70
30-40 12 12/70
40-45 10 10/70
45-50 9 9/70
50-60 10 10/70
60-80 8 8/70
80-100 4 4/70
?ni= 70 ?fi=1

Tomando la amplitud 5 como unidad, deberemos levantar para el primer intervalo


una altura de 2/70 para que el área sea la freceuncia relativa 8/70. Procediendo de la
misma manera con el resto de los intervalos obtendríamos como representación
gráfica la figura siguiente:
Obsérvese que la suma de todas las áreas debe ser 1, tanto si los intervalos de la
distribución de frecuencias relativas son o no de igual amplitud.

2. Polígono de frecuencias acumuladas:

Se utiliza para representar distribuciones de frecuencias (relativas o absolutas)


acumuladas. Consiste en representar la gráfica de una función que una por
segmentos las alturas correspondientes a los extremos superiores de cada intervalo,
tengan o no todos igual amplitud, siendo dicha altura igual a la frecuencia
acumulada, dando una altura cero al extremo inferior del primer intervalo y siendo
constante a partir del extremo superior del último.

Ejemplo:

Así, para el ejemplo de los Niveles de Colinesterasa, el polígono de


frecuencias relativas acumuladas tendrá una representación gráfica de la
forma:
Medidas de Tendencia Central
En esta sección definiremos una serie de medidas o valores que tratan de representar o resumir a
una distribución de frecuencias dada, sirviendo la cual además para realizar comparaciones entre
distintas distribuciones de frecuencias. Estas medidas reciben el nombre de promedios, medidas de
posición o medidas de tendencia central.

a. Media aritmética

Llamando xl, ..., xk a los datos distintos de un carácter en estudio, o las marcas de clase de
los intervalos en los que se han agrupado dichos datos, y ni,..., nk a las correspondientes
frecuencias absolutas de dichos valores o marcas de clase, llamaremos media aritmética de
la distribución de frecuencias a

en donde n es la frecuencia total.

Ejemplo 1:

La media aritmética de las veinticinco familias encuestadas será:

es decir, las familias encuestadas tienen un número medio de hijos de 1'68.

Ejemplo 2:

Se midieron los niveles de colinesterasa en un recuento de eritrocitos en


μmol/min/ml de 34 agricultores expuestos a insecticidas agrícolas,
obteniéndose los siguientes datos:

Individuo Nivel Individuo Nivel Individuo Nivel


1 10,6 13 12,2 25 11,8
2 12,5 14 10,8 26 12,7
3 11,1 15 16,5 27 11,4
4 9,2 16 15,0 28 9,3
5 11,5 17 10,3 29 8,6
6 9,9 18 12,4 30 8,5
7 11,9 19 9,1 31 10,1
8 11,6 20 7,8 32 12,4
9 14,9 21 11,3 33 11,1
10 12,5 22 12,3 34 10,2
11 12,5 23 9,7
12 12,3 24 12,0

La distribución de frecuencias las marcas de clase será:

Intervalo Ii 7'5-9 9-10'5 10'5-12 12-13'5 13'5-15 15-16'5


Marca de Clase xi 8'25 9'75 11'25 12'75 14'25 15'75
Frecuencia ni 3 8 10 10 1 2 ?ni=25

la cual proporciona una media aritmética de

b. Mediana

La mediana es otra medida de posición, la cual se define como aquel valor de la variable tal
que, supuestos ordenados los valores de ésta en orden creciente, la mitad son menores o
iguales y la otra mitad mayores o iguales

Así, si en la siguiente distribución de frecuencias,

xi ni Ni
0 3 3
1 2 5
2 2 7
7

ordenamos los valores en orden creciente,

0 0 0 1 1 2 2

el 1 será el valor que cumple la definición de mediana.

Lógicamente, en cuanto el valor de la frecuencia total sea ligeramente mayor, este


procedimiento resulta inviable. Por esta razón, daremos a continuación una fórmula que
permita calcularla. No obstante, será necesario distinguir los casos en los que los datos
vengan agrupados de aquellos en los que vengan sin agrupar.

o Datos sin agrupar:

Las gráficas siguientes, correspondientes a un diagrama de frecuencias absolutas


acumuladas, recogen las dos situaciones que se pueden presentar:

Si la situación es como la de la figura de la derecha, es decir, si

Si la situación que se presenta es como la de la figura de la izquierda, entonces la


mediana queda indeterminada, aunque en este caso se toma como mediana la media
aritmética de los dos valores entre los que se produce la indeterminación; así pues,
si

Nj-1 = n/2 < Nj

entonces la mediana es

Ejemplo 1:

La distribución de frecuencias acumuladas del ejemplo del número de hijos era


Nº de hijos(xi) 0 1 2 3 4
Frecuencias Acumuladas(Ni) 5 11 19 23 25

y como es n/2=12'5 y en consecuencia

11 < 12'5 < 19

la mediana será Me= 2.

o Datos Agrupados

Las gráficas siguientes, correspondientes a polígonos de frecuencias absolutas


acumuladas, nos plantea de nuevo dos situaciones diferentes a considerar:

El más sencillo, el de la derecha, en el que existe una frecuencia absoluta


acumulada Nj tal que n/2 = Nj, la mediana es Me = xj.

Si la situación es como la que se representa en la figura de la izquierda, en la que

Nj-l < n/2 < Nj

entonces, la mediana, está en el intervalo [xj-1, xj), es decir entre xj-1 y xj, tomándose
en ese caso, por razonamientos de proporcionalidad, como mediana el valor

siendo cj la amplitud del intervalo [xj-1, xj).

Ejemplo:

La distribución de frecuencias del ejemplo de los niveles de colinesterasa es:


Intervalo Ii 7'5-9 9-10'5 10'5-12 12-13'5 13'5-15 15-16'5
Frecuencia ni 3 8 10 10 1 2
Frecuencia Acumulada Ni 3 11 21 31 32 34

Al ser n/2 = 17 y estar

11 < 17 < 21

la mediana estará en el intervalo [10'5 , 12), y aplicando la fórmula anterior, será

c. Moda

La moda se define como aquel valor de la variable al que corresponde máxima frecuencia
(absoluta o relativa). Para calcularla, también será necesario distinguir si los datos están o
no agrupados.

o Datos sin agrupar:

Para datos sin agrupar, la determinación del valor o valores (ya que puede haber
más de uno) modales es muy sencilla. Basta observar a que valor le corresponde
una mayor ni. Ese será la moda.

Así en el ejemplo del número de hijos, la simple inspección de la tabla siguiente


proporciona como valor para la moda el Md = 2.

4
Nº de hijos(xi) 0 1 2 3

Nº de familias(ni) 5 6 8 4 2 ?ni=25

o Datos agrupados:

Si los datos se presentan agrupados en intervalos es necesario, a su vez, distinguir si


éstos tienen o no igual amplitud.
Si tienen amplitud constante c, una vez identificado el intervalo modal [xj-1, xj), es
decir el intervalo al que corresponde mayor frecuencia absoluta nj = max{nl, ..., nk},
la moda se define, también por razones geométricas, como

Ejemplo:

Este ejemplo presenta un caso de distribución bimodal, ya que tanto el intervalo


[10'5 - 12) como el [12 - 13'5) tienen frecuencia absoluta máxima. Deberíamos
aplicar, por tanto, para cada uno de los dos intervalos la fórmula anterior,
determinando así las dos modas de la distribución. No obstante, este ejemplo
presenta además la peculiaridad adicional de ser ambos intervalos modales
contiguos. En esta situación se considera la distribución unimodal, eligiendo como
moda el extremo común, Md = 12.

Si los intervalos tuvieran distinta amplitud cj, primeros debemos normalizar las
frecuencias absolutas nj, determinando los cocientes

y luego aplicar la regla definida para el caso de intervalos de amplitud constante a


los lj. Es decir, primero calcular el lj = max{l1,...., lk} para determinar el intervalo
modal [xj-1, xj) y luego aplicar la fórmula

siendo cj la amplitud del intervalo modal [xj-1, xj).

Ejemplo:

Las frecuencias normalizadas correspondientes al ejemplo de intervalos con distinta


amplitud serán,

Ii ni li
0-20 8 0'4
20-30 9 0'9
30-40 12 1'2
40-45 10 2
45-50 9 1'8
50-60 10 1
60-80 8 0'4
80-100 4 0'2

con lo que el intervalo modal es el [40 - 45) y la moda

A diferencia de lo que ocurre con la media o con la mediana, sí es posible


determinar la moda en el caso de datos cualitativos. Así, en el ejemplo del
tratamiento de radiación seguido de cirugía puede afirmarse que la causa modal
por la que no fue completado el tratamiento es Md = rehusaron cirugía.

d. Cuantiles

Los cuantiles o cuantilas son las últimas medidas de posición que veremos. De hecho
algunos autores las incluyen dentro de las medidas de dispersión al ser medidas de posición
no centrales.

El cuantil pr/k r= 1,2,..., k - 1 se define como aquel valor de la variable que divide la
distribución de frecuencias, previamente ordenada de forma creciente, en dos partes,
estando el (100·r/k)% de ésta formado por valores menores que pr/k.

Si k = 4 los (tres) cuantiles reciben el nombre de cuartíles. Si k = 10 los (nueve) cuantiles


reciben, en este caso, el nombre de decíles. Por último, si k = 100 los (noventa y nueve)
cuantiles reciben el nombre de centiles.

Obsérvese que siempre que r y k mantengan la misma proporción (r/k) obtendremos el


mismo valor. Es decir, por ejemplo, el primer cuartil es igual al vigésimo quinto centil.

En este sentido, la mediana Me es el segundo cuartil, o el quinto decil, etc.

Para el cálculo de los cuantiles de nuevo hay que considerar si los datos vienen o no
agrupados en intervalos.

o Datos sin agrupar:

Si los datos vienen sin agrupar y es

Nj-1 < < Nj

el r-ésimo cuantil de orden k será pr/k= xj, valor al que corresponde la frecuencia
absoluta acumulada Nj.

Si la situación fuera de la forma


Nj-1 = < Nj

tomaríamos, en esta situación indeterminada,

o Datos agrupados:

Si los datos se presentan agrupados y, para algún j, fuera

< Nj

el résimo cuantil de orden k sería pr/k= xj.

Por último, si fuera

Nj-1 < < Nj

el intervalo a considerar sería el [xj-1, xj), al que corresponde frecuencia absoluta ni


y absoluta acumulada Ni, siendo entonces el cuantil el dado por la expresión,

en donde cj es la amplitud del intervalo [xj-1, xj).

Si el intervalo a considerar fuera el [x0 , x1), se tomaría en la expresión anterior Nj-1


= 0.

Ejemplo:

Vamos a determinar la tercera cuartila del ejemplo del número de hijos.

Nº de hijos(xi) 0 1 2 3 4
Nº de familias(ni) 5 6 8 4 2 ?ni=25
Nº de familias(ni) 5 11 19 23 25

Como es
y 11 < 18'75 < 19, será p3/4=2.

Ejemplo:

Vamos a determinar la séptima decila del ejemplo de los niveles de colinesterasa.

Intervalo Ii 7'5-9 9-10'5 10'5-12 12-13'5 13'5-15 15-16'5


Frecuencia ni 3 8 10 10 1 2
Frecuencia Acumulada Ni 3 11 21 31 32 34

Como es:

21 < 23'8 < 31, el intervalo a considerar será el [12 , 13'5), siendo

Medidas de dispersión
Las medidas de posición estudiadas en la sección anterior servían para resumir la distribución de
frecuencias en un solo valor. Las medidas de dispersión, a las cuales dedicaremos esta sección,
tienen como propósito estudiar lo concentrada que está la distribución en torno a algún promedio.

Estudiaremos las cuatro medidas de dispersión más utilizadas: recorrido, varianza, desviación
típica y coeficiente de variación de Pearson, estando definidas las tres primeras medidas en
unidades concretas y estándolo la cuarta en unidades abstractas.

a. Recorrido

Si x max es el dato mayor o la última marca de clase, si es que los datos vienen agrupados en
intervalos, y x min el dato menor o primera marca de clase, llamaremos recorrido a

R = x max - x min

Así, en el ejemplo de los niveles de colinesterasa el recorrido es

R = 15'75 - 8'25 = 7'5


y en el ejemplo del número de hijos será R = 4 - 0 = 4.

La principal ventaja del recorrido es la de proporcionar una medida de la dispersión de los


datos fácil y rápida de calcular.

b. Varianza

Denotando por x1,...,xk los datos o las marcas de clase, llamaremos varianza a

siendo a la media de la distribución.

Así en el ejemplo del número de hijos la varianza es

s2 = 4'24 - (1'68)2 = 1'4176.

y en ejemplo de los niveles de colinesterasa

s2 = 133'97 - (11'426)2 = 3'42.

Al valor

se le denomina cuasivarzanza.

c. Desviación Típica

La varianza tiene un problema, y es que está expresada en unidades al cuadrado. Esto


puede producir una falsa imagen de la dispersión de la distribución. En su lugar suele
utilizarse su raíz cuadrada, denominada desviación típica. Así, la desviación típica de la
distribución de frecuencias del ejemplo de los niveles de colinesterasa es s = 1'1906 y la
del ejemplo del número de hijos s = 1'85.

d. Coeficiente de Variación de Pearson

La desviación típica sirve para medir de forma eficaz la dispersión de un conjunto de datos
entorno a su media. Desgraciadamente esta medida puede resultar engañosa cuando
tratamos de comparar la dispersión de dos conjuntos de datos. Así, si por ejemplo tenemos
dos grupos de mujeres de 11 y 25 años con medias y desviaciones típicas dadas por la tabla
siguiente:

Peso Medio Desviación Típica


11 años 40 Kgr. 2 Kgr.
25 años 50 Kgr. 2 Kgr.
puede parecernos, al observar en ambos grupos una desviación típica igual, que ambos
grupos de datos tienen la misma dispersión. No obstante, como parece lógico, no es lo
mismo una variación de dos kilos en un grupo de elefantes que en uno de conejos. El
coeficiente de Variación de Pearson elimina esa posible confusión al ser una medida de la
variación de los datos pero en relación con su media. Se defide como

siendo s y a respectivamente la desviación típica y la media de la distribución en estudio y


en donde el factor 100 tiene como único objetivo el evitar operar con valores decimales.

De la defición de Vp se deduce fácilmente que aquella distribución a la que corresponda


mayor coeficiente tendrá mayor dispersión.

En el ejemplo anterior, al grupo de mujeres de 11 años le corresponde un coeficiente de


variación de Pearson igual a

y al grupo de las mujeres de 25 años

lo que indica una mayor dispersión en el grupo de mujeres de 11 años.

Para el ejemplo del número de hijos Vp toma el valor

y en el de los niveles de colinesterasa

Medidas de Asimetría
Diremos que una distribución es simétrica cuando su mediana, su moda y su media aritmética
coincidan. Claramente las distribuciones de los ejemplos de los niveles de colinesterasa y del n° de
hijos no son por tanto, simétricas.

Diremos que una distribución es asimétrica a la derecha si las frecuencias (absolutas o relativas)
descienden más lentamente por la derecha que por la izquierda.
Si las frecuencias descienden más lentamente por la izquierda que por la derecha diremos que la
distribución es asimétrica a la izquierda.

Existen varias medidas de la asimetría de una distribución de frecuencias. Aquí estudiaremos dos
de ellas.

a. Coeficiente de Asimetría de Pearson

Se define como:

siendo cero cuando la distribución es simétrica, positivo cuando existe asimetría a la


derecha y negativo cuando existe asimetría a la izquierda.

En el ejemplo del número de hijos Ap es igual a

indicando una ligera asimetría a la izquierda en la distribución de frecuencias


correspondiente.

De la misma manera, para el ejemplo de los niveles de colinesterasa también se observa


una ligera asimetría a la izquierda, al ser

De la definición se observa que este coeficiente solo se podrá utilizar cuando la


distribución sea unimodal. La otra medida de asimetría que veremos no presenta este
inconveniente.

b. Coeficiente de Asimetría de Fisher

Se define como

siendo xi los valores de la variable o las marcas de clase y S= , llamada a veces


cuasidesviación típica.

La interpretación del coeficiente de Fisher es la misma que la del coeficiente de Pearson: si


la distribución es simétrica vale cero, siendo positivo o negativo cuando exista asimetría a
la derecha o izquierda respectivamente.
Introducción
1. Historia.

En la sociedad francesa de 1650 el juego era un entretenimiento corriente, sin demasiadas


restricciones legales. En este entretenimiento están las raíces de la teoría de la probabilidad
, pues cada vez se introducido juegos mas complicados que dejaron de sentir la necesidad
de un método para calcularla probabilidad de ganar en cada juego.

La probabilidad se obtiene dividiendo el número de casos favorables entre el número de los


casos posibles, por tanto la probabilidad de obtener oros al extraer al azar una carta de una
baraja es 10/40 = 1/4 y se admitían que al repetir la fracción 400 veces, devolviendo la
carta a la baraja tras cada extracción, sería muy poco usual que la frecuencia relativa de los
oros obtenidos estuviesen alejadas de 1/4.

Un jugador apasionado, el caballero De Méré, encontró un desacuerdo entre las frecuencias


relativas de la veces que ganaba - valores observados realmente - y el valor de la
correspondiente probabilidad de ganar que el mismo había calculado.

Consultó esta discrepancia en París con el famoso matemático y filósofo Pascal, quien se
interesó por los problemas que le proponía De Méré y comenzó una correspondencia
epistolar sobre cuestiones probabilísticas con otros matemáticos amigos, sobre todo con
Fermat. Esta correspondencia puede considerarse el origen de la teoría de probabilidades.

Pronto Pascal y Fermat probaron el desacuerdo de De Méré se debía a que era erróneo el
calculo de probabilidad que había hecho, ya que De Méré se había equivocado al
considerar como equiprobables casos que no le eran, y sólo cuando los casos posibles son
equiprobables tiene sentido aplicar la definición dada de probabilidad.

El desarrollo de la teoría de probabilidades tiene otro punto de referencia en 1713, en que


se publica la obra "Ars conjectandi" (El arte de la Conjetura) de J. Bernoulli, donde estudia
la distribución binominal y su célebre teoría que da para esta distribución la expresión
matemática de la propiedad de estabilidad de las frecuencias relativas.

Otro hito es la segunda edición de la obra "The Doctrine of Chances" (La doctrina de las
probabilidades) aparecidas en 1738 y debida al hugonote francés De Moivre, que por
motivos religiosos huyó de Francia refugiándose en Inglaterra, donde vivió de la resolución
de problemas de juegos de azar. En la obra señalada aparecen las primeras indicaciones
sobre las distribución normal de probabilidades.

En 1812 Laplace publica su famosa "Theoríe Analytique des probabilités", que contiene
una exposición completa y sistemática de la teoría matemática de los juegos de azar,
además de una gran cantidad de aplicaciones de la teoría de la probabilidad a muchas
cuestiones científicas y prácticas.

Tras la obra de Laplace se extendieron las aplicaciones de su obra otras ramas de la Ciencia
durante el siglo XIX, y así, Gauss y Laplace independientemente aplicaron la teoría de la
probabilidad al análisis de los errores de medida en las observaciones físicas y
astronómicas, Maxwell, Boltzmann y Gibbs aplicaron la probabilidad en su obra
"Mecánica Estadística", que ha sido fundamental en distintas partes de la Física moderna.
Ya durante nuestro siglo las aplicaciones de la teoría de la probabilidad se han extendido
por los más variados campos, como genética, economía, psicología...

También, y pese al éxito de las aplicaciones, se oyeron voces críticas a la definición clásica
de probabilidad, que exigía "a priori" saber, o suponer, que todos los casos posibles eran
igualmente favorables. Además en ciertos casos era imposible aplicar la definición clásica
de probabilidad, como puede suceder al intentar calcular la probabilidad de que una
chincheta caiga con la punta hacia arriba, o de que un hombre de 30 años muera el próximo
año.

Si bien la matemática cambió profundamente de forma entre las dos guerras mundiales,
también es cierto que buena parte de la matemática que siguió a la Segunda Guerra
Mundial consistía en el comienzo de algo radicalmente nuevo que anunciaba una nueva
era. La teoría de conjuntos y la teoría de la medida han ido invadiendo a lo largo del siglo
XX una parte cada vez más extensa de la matemática, pero pocas de sus ramas se han visto
afectadas tan profundamente por esta tendencia como la teoría de probabilidades, a la que
Borel había dedicado ya en 1909 sus "Eléments de la théorie des probabilités".

El primer año del nuevo siglo se anunciaba ya propicio para las aplicaciones de la teoría de
probabilidades tanto a la fisica como a la genética, puesto que en 1901 publicaba Glbbs su
obra Elementary Principles in Statistical Mechanics, y el mismo año fue fundada la revista
Biometrika por Karl Pearson (1857-1936). Francis Galton (1822-1911) fue muy precoz y
un estadístico nato que estudió los fenómenos de regresión; en 1900 Pearson en la
universidad de Londres popularizó el criterio de la «chi-cuadrado». Uno de los títulos de
Poincaré había sido el de "profesor de cálculo de probabilidades", lo que indicaba un
interés creciente por el tema.

En Rusia se inició el estudio de las cadenas de sucesos eslabonados, especialmente en


1906-1907, por obra de Andrei Andreyevich Markov (o Markoff, 1856-1922), discípulo de
Tchebycheff y coeditor de las Oeuvres (2 vols., 1899-1904) de su maestro. En la teoría
cinética de los gases y en muchos fenómenos sociales y biológicos, la probabilidad de un
suceso depende frecuentemente de los resultados anteriores, y especialmente desde
mediados de este siglo las cadenas de Markov de probabilidades eslabonadas se han
estudiado muy detalladamente. En su búsqueda de una fundamentación matemática para la
teoría de probabilidades en expansión, los estadísticos encontraron a mano las herramientas
necesarias, y hoy no es posible ya dar una exposición rigurosa de la teoría de
probabilidades sin utilizar los conceptos de función medible y de las teorías de integración
modernas.

En Rusia mismo, por ejemplo, Andrel Nicolaevich Kolmogoroff hizo importantes


progresos en la teoría de procesos de Markov (1931) y dio solución a una parte del sexto
problema de Hilbert, en el que se pedía una fundamentación axiomático de la teoría de
probabilidades, utilizando la medida de Lebesgue.

El análisis clásico se había ocupado principalmente de funciones continuas, mientras que


los problemas de probabilidades generalmente se refieren a casos discretos. La teoría de la
medida y las sucesivas extensiones del concepto de integral se adaptaban perfectamente a
conseguir una asociación más estrecha entre el análisis y la teoría de probabilidades,
especialmente a partir de mediados del siglo, cuando Laurent Schwartz (1915- ), de la
universidad de París, generalizó el concepto de diferenciación mediante su teoría de
distribuciones (1950-1951).

2. Probabilidad.
La Teoría de la Probabilidad constituye la base o fundamento de la Estadística, ya que las
ingerencias que hagamos sobre la población o poblaciones en estudio se moverán dentro de
unos márgenes de error controlado, el cual será medido en términos de probabilidad.

Dado que la Estadística se utiliza con mucha frecuencia hoy en día, inclusive ya en el
lenguaje cotidiano, es conveniente saber entender con toda precisión qué es lo que se nos
dice, por ejemplo, en los medios de comunicación cuando se hace referencia a la
probabilidad de algún suceso.

Así, es corriente oír decir que la probabilidad de que un recién nacido sea varón es
aproximadamente del 50 %, que es muy poco probable que llueva en Torremolinos en la
segunda quincena del mes de julio, o inclusive, hasta podemos leer en la prensa (El País, 12
de noviembre de 1991) cosas tales como que en una evaluación internacional sobre
matemáticas y ciencias, desarrollada por la National Assessment of Educational Progress
de Estados Unidos, entre escolares españoles de 13 años, los chicos muestran un mejor
rendimiento en matemáticas que las chicas, haciendo esta afirmación con un margen de
error muy pequeño (del 5 %). Nos apresuramos a decir, claro está, que el informe no afirma
que los niños tengan una mayor aptitud o una mayor capacidad para las matemáticas, sino
que "probablemente" estos resultados son la consecuencia de unos determinados (y
erróneos) comportamientos sociales. En todo caso, el lector o lectora estará de acuerdo
conmigo en que es interesante tener muy claro qué significa el que la probabilidad de error
ante esa afirmación sea 0'05. Una respuesta completa deberá postergarse hasta el capítulo
7, en donde se describan con detalle las técnicas utilizadas en dicho informe, aunque el
concepto de probabilidad que allí se utilice será el que aquí se va a estudiar.

Así pues, es corriente hablar de la probabilidad de un suceso, entendiendo como tal un


número entre 0 y 1, de forma que si éste es cercano a 0 (a l), el suceso tiene poca (mucha)
probabilidad de ocurrir o haber ocurrido, aunque ya en el ejemplo anterior hablábamos, por
un lado, de una probabilidad científica de que el informe estuviera equivocado, y, por otro,
de unas " probables" causas a estos resultados.Vemos, pues, que conviene precisar en cada
caso de qué se está hablando, tratando de evitar afirmaciones tan comunes en los medios de
comunicación como la de "... mañana es posible que llueva pero no es probable...".

En este apartado trataremos de precisar que se entiende por la probabilidad de que algo
ocurra o haya ocurrido, estudiaremos también algunas de sus principales propiedades, y
daremos algunas reglas de cómo poder calcularla en determinadas situaciones.

Espacio Muestral
La Estadística, y por tanto el Cálculo de Probabilidades, se ocupan de los denominados fenómenos
o experimentos aleatorios.

El conjunto de todos los resultados posibles diferentes de un determinado experimento aleatorio se


denomina Espacio Muestral asociado a dicho experimento y se suele representar por Ω. A los
elementos de Ω se les denomina sucesos elementales.

Así por ejemplo, el espacio muestral asociado al experimento aleatorio consistente en el


lanzamiento de una moneda es Ω= {Cara, Cruz}; el espacio muestral asociado al lanzamiento de
un dado es Ω={1, 2, 3, 4, 5, 6}, siendo Cara y Cruz los sucesos elementales asociados al primer
experimento aleatorio y 1, 2, 3, 4, 5 y 6 los seis sucesos elementales del segundo experimento
aleatorio.

A pesar de la interpretación que tiene el espacio muestral, no es más que un conjunto abstracto de
puntos (los sucesos elementales), por lo que el lenguaje, los conceptos y propiedades de la teoría
de conjuntos constituyen un contexto natural en el que desarrollar el Cálculo de Probabilidades.

Sea A el conjunto de las partes de , es decir, el conjunto de todos los subconjuntos de Ω. En


principio, cualquier elemento de A, es decir, cualquier subconjunto del espacio muestral contendrá
una cierta incertidumbre, por lo que trataremos de asignarle un número entre 0 y 1 como medida
de su incertidumbre. En Cálculo de Probabilidades dichos subconjuntos reciben en el nombre de
sucesos, siendo la medida de la incertidumbre su probabilidad. La tripleta (Ω,A,P) recibe el
nombre de espacio probabilístico.

Por tanto, asociado a todo experimento aleatorio existen tres conjuntos: El espacio muestral , la
clase de los sucesos, es decir, el conjunto de los elementos con incertidumbre asociados a nuestro
experimento aleatorio A, y una función real, P:A [0, l], la cual asignará a cada suceso (elemento
de A) un número entre cero y uno como medida de su incertidumbre.

Advertimos no obstante, que la elección del espacio muestral asociado a un experimento aleatorio
no tiene por qué ser única, sino que dependerá de que sucesos elementales queramos considerar
como distintos y del problema de la asignación de la probabilidad sobre esos sucesos elementales.

Ejemplo: : "Urna"

Consideremos el experimento aleatorio consistente en extraer una bola al azar de una urna
compuesta por tres bolas rojas, dos blancas y una verde.

Podemos considerar como espacio muestral

Ω1= {ω1, ω2, ω3}

en donde sea ω1 = bola roja, ω2= bola blanca y ω3 = bola verde, aunque también podíamos haber
considerado como espacio muestral el conjunto

Ω1= {ω1, ω2, ω3, ω4, ω5, ω6}

en donde ωi = bola roja, i = 1,2,3, ωi = bola blanca, i= 4,5 y ω6= bola verde, haciendo las bolas
distinguibles.

Ambos pueden ser considerados espacios muéstrales del experimento descrito, eligiendo el que
más nos convenga, por ejemplo, a la hora de asignar la probabilidad a los sucesos elementales de
uno u otro espacio muestral.

Respecto a la clase de los sucesos A, es natural que ésta tenga una estructura tal que permita hablar
no solo de sucesos sino también de su unión, intersección, diferencia, complementario, etc.,
debiendo ser la clase A, en consecuencia, cerrada a dichas operaciones entre "conjuntos" (entre
sucesos). Esta es la situación del conjunto de las partes cuando es finito o inclusive numerable
(caso, por ejemplo, del espacio muestral asociado al experimento aleatorio consistente en lanzar
una moneda hasta que salga cara por primera vez). En otras ocasiones en las que sea un conjunto
continuo (por ejemplo, cuando estudiamos el tiempo que tarda un isótopo radioactiva en volverse
inestable), deberá ser A un conjunto estrictamente más pequeño que el conjunto de las partes de Ω.

En todo caso podemos pensar en A como en el conjunto que contiene todos los elementos de
interés, es decir, todos los sucesos a los que les corresponde una probabilidad.

Apuntemos además algunas peculiaridades del Cálculo de Probabilidades respecto a la teoría de


conjuntos. Aquí, el conjunto vacio 0 recibe el nombre de suceso imposible, definido como aquel
subconjunto de que no contiene ningún suceso elemental y que corresponde a la idea de aquel
suceso que no puede ocurrir.

De forma análoga, el espacio total recibe el nombre de suceso seguro al recoger dicha
denominación la idea que representa.

Llamaremos sucesos incompatibles a aquellos cuya intersección sea el suceso imposible.

Por último, digamos que la inclusión de sucesos, A B, se interpreta aquí como que siempre que se
cumpla el suceso A se cumple el B; por ejemplo, siempre que salga el 2 (suceso A) sale par
(suceso B).

Ejemplo: "Lanzamiento de un dado"

El espacio probabilístico asociado al experimento aleatorio consistente en el lanzamiento de un


dado, tendrá como espacio muestras Ω={1,2,3,4,5,6} y como espacio de sucesos el conjunto de las
partes por ser Ω finito, el cual contiene 26 elementos,

A = { Φ, {1}, {2}, {3}, {4}, {5}, {6}, {1,2}, {1,3}, {1,4}, {1,5}, {1,6}, {2,3}, {2,4}, {2,5}, {2,6},
{3,4}, {3,5}, {3,6}, {4,5}, {4,6}, {5,6}, {1,2,3}, {1,2,4}, {1,2,5}, {1,2,6}, {1,3,4}, {1,3,5},
{1,3,6}, {1,4,5}, {1,4,6}, {1,5,6}, {2,3,4}, {2,3,5}, {2,3,6}, {2,4,5}, {2,4,6}, {2,5,6}, {3,4,5},
{3,4,6}, {3,5,6}, {4,5,6}, {1,2,3,4}, {1,2,3,5}, {1,2,3,6}, {1,2,4,5}, {1,2,4,6}, {1.,2,5,6},
{1,3,4,5}, {1,3,4,6}, {1,3,5,6}, {1,4,5,6}, {2,3,4,5}, {2,3,4,6}, {2,3,5,6}, {2,4,5,6}, {3,4,5,6},
{1,2,3,4,5}, {1,2,3,4,6}, {1,2,3,5,6}, {1,2,4,5,6}, {1,3,4,5,6}, {2, 3, 4, 5, 6}, Ω }.

Obsérvese que este conjunto contiene los sucesos sobre los que habitualmente se tiene
incertidumbre, como por ejemplo que salga un número par, {2,4,6}, o un número mayor que
cuatro, {5,6}, o simplemente que salga un seis, {6}, y que como se ve es cerrado respecto de las
operaciones entre conjuntos.

El último elemento del espacio probabilístico es la probabilidad, que como antes dijimos está
definida sobre A, asignando a cada suceso un número entre 0 y 1. Este es el objetivo de la siguiente
sección.

Conceptos de Probabilidad
En la sección anterior vimos que a cada suceso A le corresponde su probabilidad P(A), pero, ¿este
número viene dado?, ¿es un número desconocido?, ¿lo tenemos que calcular nosotros?.
En los casos más sencillos bastará con asignar la probabilidad a los sucesos elementales de un
experimento aleatorio. La probabilidad de los demás sucesos se podrá calcular utilizando las
propiedades que más adelante veremos.

En los casos más complicados (que habitualmente se corresponderán con las situaciones reales)
asignaremos un modelo probabilístico al experimento en cuestión, como ideal que creemos
corresponde a la situación en estudio, ideal que veremos habrá que chequear inferencialmente.
Más adelante hablaremos de la asignación de probabilidades. Ahora analizamos brevemente los
conceptos que se han desarrollado a lo largo de la historia, con el propósito de formalizar las ideas
intuitivas que desde el origen del hombre siempre existieron sobre la probabilidad, aunque no
llegaran a formalizarse hasta comienzos del siglo XIX.

a. Concepto frecuentista

Es un hecho, empíricamente comprobado, que la frecuencia relativa de un suceso tiende a


estabilizarse cuando la frecuencia total aumenta.

Surge así el concepto frecuentista de la probabilidad de un suceso como un número ideal al


que converge su frecuencia relativa cuando la frecuencia total tiende a infinito.

Así, solemos afirmar que la probabilidad de que salga un seis al tirar un dado es 1/6 porque
al hacer un gran número de tiradas su frecuencia relativa es aproximadamente esa.

El problema radica en que al no poder repetir la experiencia infinitas veces, la probabilidad


de un suceso ha de ser aproximada por su frecuencia relativa para un n suficientemente
grande, y ¿cuán grande es un n grande?. 0, ¿qué hacer con aquellas experiencias que solo
se pueden repetir una vez?.

b. Concepto clásico

Está basado en el concepto de resultados igualmente verosímiles y motivado por el


denominado Principio de la Razón Insuficiente, el cual postula que si no existe un
fundamento para preferir una entre varias posibilidades, todas deben ser consideradas
equiprobables.

Así, en el lanzamiento de una moneda perfecta la probabilidad de cara debe ser igual que la
de cruz y, por tanto, ambas iguales a 1/2..

De la misma manera, la probabilidad de cada uno de los seis sucesos elementales asociados
al lanzamiento de un dado debe ser 1/6.

Laplace recogió esta idea y formuló la regla clásica del cociente entre casos favorables y
casos posibles, supuestos éstos igualmente verosímiles.

El problema aquí surge porque en definitiva igualmente verosímil es lo mismo que


igualmente probable, es decir, se justifica la premisa con el resultado. Además ¿qué ocurre
cuando estamos considerando un experimento donde no se da esa simetría?, o, ¿ qué hacer
cuando el número de resultados posibles es infinito?.

c. Concepto subjetivo

Se basa en la idea de que la probabilidad que una persona da a un suceso debe depender de
su juicio y experiencia personal, pudiendo dar dos personas distintas probabilidades
diferentes a un mismo suceso.
Estas ideas pueden formalizarse, y si las opiniones de una persona satisfacen ciertas
relaciones de consistencia, puede llegarse a definir una probabilidad para los sucesos.

El principal problema a que da lugar esta definición es, como antes dijimos, que dos
personas diferentes pueden dar probabilidades diferentes a un mismo suceso.

d. Definición formal de Probabilidad

Los anteriores conceptos de lo que debería ser la probabilidad de un suceso, llevaron a


Kolmogorov a dar una definición axiomática de probabilidad. Es decir, a introducir rigor
matemático en el concepto de probabilidad, de forma que se pudiera desarrollar una teoría
sólida sobre el concepto definido.

Así, llamaremos probabilidad a una aplicación

P:A [0, 1]

tal que

o Axioma 1: Para todo suceso A de A sea P(A) 0.


o Axioma 2: Sea P(Ω) = 1
o Axioma 3: Para toda colección de sucesos incompatibles, {Ai} con Ai Aj =
, debe ser:

Obsérvese que esta definición no dice cómo asignar las probabilidades ni siquiera a los
sucesos elementales. Solo dice que cualquier asignación que hagamos debe verificar estos
tres axiomas para que pueda llamarse Probabilidad.

Propiedades Elementales de la Probabilidad


Toda probabilidad cumple una serie de propiedades, las cuales se obtienen como consecuencia de
los axiomas que debe de cumplir. A continuación vamos a.demostrar las más importantes:

1. P( ) = 0.

En efecto: Si consideramos la sucesión infinita

es
por lo que, por el axioma 3, deberá ser:

es decir,

P(A)=P(A) + P(Ai)

de donde se deduce que P(Ai)= P( ), para todo i=2,...., no debe sumar nada, es decir,
debe ser

P( ) = 0.

2. Se cumple la aditividad finita para sucesos incompatibles. Es decir,

si Ai Aj= ,i j

En efecto: Basta considerar la sucesión

y aplicar de nuevo el axioma 3 y luego la propiedad anterior, quedando

es decir, la propiedad deseada.

3. La probabilidad del complementario de un suceso A es

P (A') = 1 - P(A)

En efecto: Aplicando primero el axioma 2 y luego la aditividad finita acabada de


demostrar, será

P (A U A') = P(Ω) = 1

y
P(A) + P(A') = 1

de donde se obtiene la propiedad propuesta.

4. Si dos sucesos son tales que A B, entonces P(A) <P(B).

En efecto: B se puede poner de la forma

B=A (B - A)

con lo que, por la aditividad finita de la probabilidad, será

P(B) = P(A) + P(B - A)

La propiedad enunciada se tendrá ahora como consecuencia de ser P(B - A) > 0 por el
axioma 1.

5. La probabilidad de todo suceso A es un número entre 0 y 1:

0 < P(A) < 1.

En efecto: De hecho, el que sea mayor que cero es una de las exigencias requeridas para
que sea probabilidad (axioma l).

El que sea menor que 1 se obtiene de la propiedad anterior observando que todo suceso A
está contenido en el suceso seguro, A Ω.

6. Si dos sucesos no son incompatibles, la probabilidad de su unión debe calcularse por


la siguiente regla:

P(A B) = P(A) + P(B) - P(A B).

En efecto: Los sucesos A y B se pueden escribir como unión de sucesos disjuntos de la


forma,

A = (A B) (A B') , B = (A B) (A' B)
con lo que, por la propiedad de aditividad finita antes demostrada, será

P(A) = P (A B) + P (A B') y P(B) = P (A B) + P (A' B)

es decir,

P (A B') = P(A) - P(A B) y P (A' B) = P(B) - P (A B).

Como, por otro lado, A U B se puede expresar como unión disjunta de la forma

A U B = (A B) U (A B') U (A' B)

su probabilidad será

P(A U B) = P (A B) + P (A B') + P (A' B)

y, sustituyendo los valores antes calculados para los dos últimos sumandos,

quedará

P(A U B) = P (A B) + P(A) - P (A B) + P(B) - P (A B)

o en definitiva,

P(A U B) = P(A) + P(B) - P (A B)

como queríamos demostrar.

Asignación de Probabilidad
Por las propiedades demostradas en la sección anterior, es suficiente conocer la probabilidad de los
sucesos elementales, ya que, entonces, se podrá determinar la de cualquier otro suceso.

Así, en el ejemplo del Lanzamiento de un Dado, si la probabilidad de obtener un 1 es, pl, la de un 3


, p2, y la de un 5, p3, la del suceso obtener un número impar, el cual corresponde a ω28 en el
conjunto de los sucesos, será, por la propiedad 2, p1 + p2 + p3 .

Es decir, el problema radica en asignar una probabilidad a los sucesos elementales: Asignar un
número entre 0 y 1 a cada uno de los sucesos elementales, de tal forma que su suma sea 1.

En principio, cualquier asignación que cumpla los tres axiomas mencionados en la definición de
probabilidad es válida. No obstante, el propósito del cálculo de probabilidades, como soporte de la
Estadística, es el de construir un esquema matemático que refleje de la forma más exacta posible el
fenómeno aleatorio real que estemos estudiando, por lo que la asignación de probabilidad que
elijamos debe ser lo más ajustada posible a la realidad que estamos observando.
Así, en el ejemplo del Lanzamiento de un Dado la asignación razonable será la de

P(1) = P(2) = P(3) = P(4) = P(5) = P(6) = .

En otras ocasiones, la observación del mismo fenómeno en otra población semejante a la que
estamos estudiando, o inclusive en la objeto de estudio en un tiempo anterior, permitirá obtener
una distribución de frecuencias a partir de la cual asignar una probabilidad.

Ejemplo:

Un estudio sobre el color de los ojos en niños recién nacidos de una población determinada
dio la siguiente distribución de frecuencias relativas:

Color fi
Azules 0'05
Verdes 0'02
Castaños 0'69
Negros 0'24

Supuesto que no consideremos la componente genética que esta característica tiene, no teniendo en
cuenta el color de ojos de los padres, podríamos considerar esta distribución de frecuencias como
una buena aproximación de la probabilidad y decir, por ejemplo, que la probabilidad que tiene un
recién nacido de esta población de tener los ojos claros es

P{ ojos claros } = P{Azules} + P{Verdes} = 0'05 + 0'02 = 0'07.

A veces es precisamente la asignación de la probabilidad la que determina el espacio muestral.


Así, en el ejemplo del experimento aleatorio consistente en extraer una bola al azar de una urna
compuesta por tres bolas rojas, dos blancas y una verde., si consideramos como espacio muestral:

Ω2 = {ω1, ω2, ω3, ω4, ω5, ω6}

en donde era ωi = bola roja, i = 1,2,3, ωi = bola blanca, i = 4,5 y ω6 = bola verde, los seis sucesos
elementales pueden ser considerados como equiprobables, siendo en ese caso, P(ωi) = 1/6,
mientras que si consideramos como espacio muestral

Ω1 = {ω1, ω2, ω3}

en donde era ω1 = bola roja, ω2 = bola blanca y ω3 = bola verde, los sucesos dejan ya de ser
equiprobables, por lo que, en una situación más compleja, la elección de un espacio muestral en
donde los sucesos elementales sean equiprobables puede ser más adecuada.

Aquí, por las propiedades estudiadas en la sección anterior, es equivalente utilizar Ω2 con sucesos
elementales equiprobables, que utilizar Ω1 con P(ω1) = 3/6, P(ω2) = 2/6 y P(ω3) = 1/6.

Sin embargo, la mayoría de los fenómenos aleatorios que se observan en la naturaleza admiten un
esquema tan sencillo, ni será necesario detallar esta asignación en los sucesos elementales en la
mayoría de las situaciones reales. Se podrá actuar en una forma más encapsulada, asignando de
forma global un modelo probabilístico a la característica que estemos estudiando, el cual recibe el
nombre de Distribución de Probabilidad. No obstante, en esa modelización global que hagamos de
la realidad, siempre será posible descender hasta la probabilidad que tiene asociada.

La asignación que hagamos, tanto en un nivel elemental como en forma de distribución modelo,
podrá ser contrastada con las observaciones que hagamos de nuestro experimento aleatorio, de
forma que podamos estar razonablemente seguros de nuestras conclusiones.

Dentro de las posibles asignaciones de probabilidad existe una que destaca, tanto por ser una de las
más utilizadas como por obtenerse de ella interesantes propiedades. Se trata del denominado
Modelo Uniforme.

Modelo Uniforme
En esta sección estudiaremos un caso particular muy importante, el cual se corresponde con una
situación en la que los sucesos elementales del espacio muestral puedan ser considerados como
equiprobables.

Ejemplo:

Consideremos el experimento aleatorio consistente en lanzar una moneda al aire. En el


espacio muestral asociado, Ω={Cara, Cruz}, ambos sucesos elementales pueden considerarse
como equiprobables.

Ejemplo:

Si seleccionamos al azar una carta de una baraja española, los cuarenta sucesos elementales
correspondientes a las cuarenta cartas, pueden ser considerados como equiprobables,
estando de nuevo ante un esquema de modelo uniforme.

Ejemplo:

Supongamos el experimento aleatorio consistente en dividir el intervalo [0,1] en tres trozos


eligiendo dos puntos x1, x2 [0, 1] al azar. De nuevo, al ser al azar la elección de los puntos,
estaremos ante un modelo uniforme.

Ejemplo:

Consideremos el experimento aleatorio consistente en lanzar al aire una moneda dos veces.
El espacio muestral que razonablemente vendrá asociado será, = {(C, C), (C, X), (X, X)},
siendo C y X, respectivamente, la cara y la cruz de la moneda.

En este espacio muestral los sucesos no son equiprobables, aunque puede conseguirse esta
simetría si consideramos como espacio muestral = {(C, C), (C, X), (X, C), (X, X)}.

En todos estos casos de modelos uniformes, en especial en los que el espacio muestral es finito,
Ω={ ω1, ω2,..., ωn} el cálculo de las probabilidades de los sucesos resulta sencillo, ya que al ser los
sucesos elementales incompatibles y equiprobables, será

1 = P(Ω) = P(ωl) + ... + P(ωn) = n ·P(ωi)


con lo que P(ωi) = 1/n, i=1,...,n. Por tanto, si un suceso A es unión de k sucesos elementales,
será

con lo que en definitiva, el cálculo de probabilidades de sucesos en un modelo uniforme, se limita


a contar el número de casos favorables a dicho suceso y el número de casos posibles.

No obstante, dicho cómputo no resulta siempre fácil por lo que es conveniente tener presente las
fórmulas de las variaciones, combinaciones y permutaciones, ya que éstas facilitarán el cálculo.

Si de un grupo de N elementos tomamos n importándonos el orden de los n elementos


seleccionados, tendremos variaciones y si no nos importa el orden, combinaciones. Además, si
admitimos la posibilidad de que entre estos n pueda haber elementos repetidos, hablaremos,
respectivamente, de variaciones y de combinaciones con repetición.

Por último, si solamente queremos contar el número posible de reordenaciones de un conjunto de


elementos, hablaremos de permutaciones con o sin repetición dependiendo de que admitamos o no
la posibilidad de que haya elementos repetidos.

Las fórmulas son:

 Variaciones de N elementos tomados de n en n

V N , n = N · (N - 1) · ... · (N - n +1)

 Variaciones con repetición de N elementos tomados de n en n

VR N , n = N n

 Combinaciones de N elementos tomados de n en n

 Combinaciones con repetición de N elementos tomados de n en n

 Permutaciones de N elementos

PN = N! = N · (N - 1) · ... · 2 · 1

 Permutaciones con repetición de N elementos, uno de los cuales se repite n1 veces, otro
n2 veces, ..., otro nr veces
Ejemplo:

Una enciclopedia en seis volúmenes es colocada en una estantería de forma aleatorio. La


probabilidad de que resulte colocada de forma correcta, supuesto que ésto signifique
empezar a contar por la izquierda, será

Probabilidad Condicionada - Sucesos


Independientes
a. Probabilidad condicionada

Mediante un espacio probabilístico damos una formulación matemática a un fenómeno


aleatorio que estemos observando. Parece por tanto razonable que si observamos algo que
aporte información a nuestro fenómeno aleatorio, ésta deba alterar el espacio probabilístico
de partida.

Por ejemplo, la extracción de una bola de una urna con tres bolas blancas y dos negras,
puede formalizarse con un espacio probabilístico en el que los sucesos elementales sean las
cinco bolas y donde la probabilidad sea uniforme sobre estos cinco sucesos elementales, es
decir, igual a 1/5.

Si extraemos una bola de la urna, es decir, si observamos el suceso A bola negra, y no la


devolvemos a la urna, es razonable que el espacio probabilístico cambie en el sentido no
solo de que ahora ya habrá únicamente cuatro sucesos elementales, sino que además la
función de probabilidad deberá cambiar en orden a recoger la información que la
observación del suceso A nos proporcionó.

Es decir, en el nuevo espacio probabilístico deberá hablarse de probabilidad condicionada


al suceso A, de forma que se recojan hechos tan evidentes como que ahora la probabilidad
(condicionada) de obtener negra se habrá reducido y habrá aumentado la de blanca.

Las propiedades vistas en el capítulo anterior para las distribuciones (le frecuencias
condicionadas llevan a la siguiente definición.

Definición:

Dado un espacio probabilístico (Ω,A,P) y un suceso B A tal que P(B) > 0,


llamaremos probabilidad condicionada del suceso A respecto al B a:

A partir de esta definición podemos deducir que


P( A B ) = P(A/B) · P(B)

y como los sucesos A y B pueden intercambiarse en la expresión anterior, será:

P(A B) = P(A/B)·P(B) = P(B/A)·P(A)

por lo que tenemos una expresión más para calcular la probabilidad condicionada

b. Independencia de sucesos

Existen situaciones en las que la información suministrada por el acaecimiento de un


suceso B no altera para nada el cálculo de la probabilidad de otro suceso A. Son aquellas
en las que el suceso A es independiente de B. Es decir, cuando

P(A/B) = P(A).

Como entonces, por la última expresión de la probabilidad condicionada, es

y, por tanto, se podría decir que también B lo es de A, hablaremos de sucesos


independientes cuando esta situación ocurra. La definición formal que se da a continuación
implica estas dos situaciones.

Definición:

Dos sucesos A y B de un mismo espacio probabilístico (Ω, A, P) se dicen


independientes cuando

P( A B ) = P(A) · P(B)

Teorema de la Probablilidad Total - Teorema de


Bayes
 Teorema de la Probabilidad Total

En el cálculo numérico de probabilidades tiene una gran aplicación practica el siguiente


resultado.
Teorema

Sea un espacio probabilístico (Ω, A, P) y {An} A una partición de sucesos de Ω . Es


decir,

An = Ω y Ai Aj = para todo i j.

Entonces, para todo suceso B A es

P(B) = P(B/An) · P(An).

Resultado que se puede parafrasear diciendo que la probabilidad de un suceso que se puede
dar de varias formas es igual a la suma de los productos de las probabilidades de éste en
cada una de esas formas, P(B/An), por las probabilidades de que se den estas formas, P(An).

Ejemplo

Una población está formada por tres grupos étnicos: A (un 30%), B (un 10%) y C (un
6O%). Además se sabe que el porcentaje de personas con ojos claros en cada una de
estas poblaciones es, respectivamente, del 20%, 40% y 5%. Por el teorema de la
probabilidad total, la probabilidad de que un individuo elegido al azar de esta
población tenga ojos claros es:

P(ojos claros) = P(A) ·P(ojos claros/A) + P(B) · P(ojos claros/B) + P(C) · P(0jos claros/C
) = 0'3 · 0'2 + 0'1 · 0'4 + 0'6 · 0'05 = 0'13.

 Teorema de Bayes

El siguiente teorema es un resultado con una gran carga filosófica detrás, el cual mide el
cambio que se va produciendo en las probabilidades de los sucesos a medida que vamos
haciendo observaciones. Paradógicamente a su importancia, su demostración no es más que
la aplicación de la definición de probabilidad condicionada seguida de la aplicación del
teorema de la probabilidad total.

Teorema

Sea un espacio probabilístico (Ω, A, P) y {An} A una partición de sucesos de Ω y B

A un suceso con probabilidad positiva. Entonces, para todo suceso Ai es

Este teorema tiene una interpretación intuitiva muy interesante. Si las cosas que pueden
ocurrir las tenemos clasificadas en los sucesos Ai de los cuales conocemos sus
probabilidaes P(Ai), denominadas a priori, y se observa un suceso B, la fórmula de Bayes
nos da las probabilidades a posteriori de los sucesos A<SUB<I< sub>, ajustadas o
modificadas por B.
Ejemplo

Supongamos que tenemos una urna delante de nosotros de la cual solo conocemos que
o es la urna A1 con 3 bolas blancas y 1 negra, o es la urna A2 con 3 bolas negras y 1
blanca.

Con objeto de obtener más información acerca de cual urna tenemos delante, realizamos un
experimento consistente en extraer una bola de la urna desconocida. Si suponemos que la
bola extraida resultó blanca 1B y a priori ninguna de las dos urnas es más verosímil que la
otra, P(A1) = P(A2) = 1/2, entonces la fórmula de Bayes nos dice que las probabilidades a
posteriori de cada urna son

P(A1/1B) =3/4 y P(A2/1B) =1/4

habiendo alterado de esta forma nuestra creencia sobre la urna que tenemos delante: Antes
creíamos que eran equiprobables y ahora creemos que es tres veces más probable que la
urna desconocida sea la A1.

Pero, ¿qué ocurrirá si extraemos otra bola?. Lógicamente, en la fórmula de Bayes


deberemos tomar ahora como probabilidades a priori las calculadas, 3/4 y 1/4, pues éstas
son nuestras creencias sobre la composición de la urna, antes de volver a realizar el
experimento.

Si suponemos que la bola no fue reemplazada (se deja para el lector el caso de
reemplazamiento), y sale una bola negra 2N, la fórmula de Bayes nos devolverí a la
incertidumbre inicial, ya que sería

P(A1/2N) =1/2 y P(A2/2N) =1/2

Si hubiera salido blanca, la fórmula de Bayes, al igual que la lógica, también sería
concluyente,

P(A1/2B) =1 y P(A2/2B) =0

La utilización de la fórmula de Bayes, es decir, la utilización de distribuciones de


probabilidad a posteriori como modelos en la estimación de parámetros, al recoger ésta
tanto la información muestral, P(B/Ai), como la información a priori sobre ellos, P(Ai),
constituye una filosofía inferencial en gran desarrollo en los últimos años, la cual, no
obstante, tiene el inconveniente (o según ellos la ventaja) de depender de la información a
priori, la cual en muchas ocasiones es subjetiva y por tanto, pudiendo ser diferente de un
investigador a otro.

Ejemplo 1
"Niveles de Colinesterasa"

Se midieron los niveles de colinesterasa en un recuento de eritrocitos en μmol/min/ml de 34


agricultores expuestos a insecticidas agrícolas, obteniéndose los siguientes datos:
Individuo Nivel Individuo Nivel Individuo Nivel
1 10,6 13 12,2 25 11,8
2 12,5 14 10,8 26 12,7
3 11,1 15 16,5 27 11,4
4 9,2 16 15,0 28 9,3
5 11,5 17 10,3 29 8,6
6 9,9 18 12,4 30 8,5
7 11,9 19 9,1 31 10,1
8 11,6 20 7,8 32 12,4
9 14,9 21 11,3 33 11,1
10 12,5 22 12,3 34 10,2
11 12,5 23 9,7
12 12,3 24 12,0
Niveles de Colinesterasa

Aplicando la fórmula de Sturges para el cálculo del numero de intervalos en que se dividen las
observaciones obtenemos:

k = 1 + 3'322 log10 34 = 1 + 3'322 · 1'53148 = 6'08757

es decir, una sugerencia de 6 intervalos. Como el mayor valor es x(34) = 16'5 y el menor x(1) = 7'8,
la longitud sugerida es

Parece, por tanto, razonable tomar como amplitud 1'5, obteniendo como intervalos en los que
clasificar los datos

[7'5 - 9) , [9 - 10'5) , [10'5 - 12) , [12 - 13'5) , [13'5 - 15) , [15 - 16'5]

Los datos agrupados en los intervalos obtenidos, proporcionan las cuatro siguientes distribuciones
de frecuencias:

Ii ni fi Ni Fi
7'5-9 3 0'088 3 0'088
9-10'5 8 0'236 11 0'324
10'5-12 10 0'294 21 0'618
12-13'5 10 0'294 31 0'912
13'5-15 1 0'029 32 0'941
15-16'5 2 0'059 34 1
34 1
Distribución de Frecuencias

Al tener los intervalos igual amplitud, la representación gráfica de su histograma será:

Y el polígono de frecuencias relativas acumuladas tendrá una representación gráfica de


la forma:

La distribución de frecuencias las marcas de clase será:

Intervalo Ii 7'5-9 9-10'5 10'5-12 12-13'5 13'5-15 15-16'5


Marca de Clase xi 8'25 9'75 11'25 12'75 14'25 15'75
Frecuencia ni 3 8 10 10 1 2 Σni=25

la cual proporciona una media aritmética de

Para el cálculo de la Mediana necesitamos la tabla de Frecuencias absolutas


acumuladas:

Intervalo Ii 7'5-9 9-10'5 10'5-12 12-13'5 13'5-15 15-16'5


Frecuencia ni 3 8 10 10 1 2
Frecuencia Acumulada Ni 3 11 21 31 32 34

Al ser n/2 = 17 y estar

11 < 17 < 21

la mediana estará en el intervalo [10'5 , 12), y aplicando la fórmula obtenemos:

Vamos a determinar la séptima decila, para ello volvemos a necesitar las Frecuencias
Acumuladas:

Intervalo Ii 7'5-9 9-10'5 10'5-12 12-13'5 13'5-15 15-16'5


Frecuencia ni 3 8 10 10 1 2
Frecuencia Acumulada Ni 3 11 21 31 32 34

Como es:

21 < 23'8 < 31, el intervalo a considerar será el [12 , 13'5), siendo

El Recorrido es:
R = 15'75 - 8'25 = 7'5
La varianza en este ejemplo será:

s2 = 133'97 - (11'426)2 = 3'42.

La desviación típica de la distribución de frecuencias es s = 1'1906

y el coeficiente de Variación de Pearson es:

Decimos que una distribución es simétrica cuando su mediana, su moda y su media


aritmética coincidan. Claramente la distribución de este ejemplo no es, por tanto,
simétrica.

De la misma manera, se observa una ligera asimetría a la izquierda, al ser el coeficiente


de Asimetría de Pearson:

Ejemplo 2
"Número de Hijos"

Tras encuestar a 25 familias sobre el número de hijos que tenían, se obtuvieron los siguientes
datos,

4
Nº de hijos(Xi) 0 1 2 3

Nº de familias(ni) 5 6 8 4 2 25
Tabla de Datos

Las cuatro distribuciones de frecuencia serán:

Xi ni fi Ni Fi
0 5 0'20 5 0'20
1 6 0'24 11 0'44
2 8 0'32 19 0'76
3 4 0'16 23 0'92
4 2 0'08 25 1
25 1
Distribución de Frecuencias

Así, el diagrama de barras de la distribución de frecuencias será:

Y el Diagrama de Frecuencias Acumuladas será:

La Media Aritmética de las veinticinco familias encuestadas será:

es decir, las familias encuestadas tienen un número medio de hijos de 1'68.

Para el cálculo de la Mediananos hace falta la distribución de frecuencias acumuladas que era

Nº de hijos(xi) 0 1 2 3 4
Frecuencias Acumuladas(Ni) 5 11 19 23 25
y como es n/2=12'5 y en consecuencia

11 < 12'5 < 19

la Mediana será Me= 2.

Para el cálculo de la Moda la simple inspección de la tabla siguiente proporciona como valor Md =
2.

4
Nº de hijos(xi) 0 1 2 3

Nº de familias(ni) 5 6 8 4 2 Σni=25

Vamos a determinar la tercera cuartila de este ejemplo.

4
Nº de hijos(xi) 0 1 2 3

Nº de familias(ni) 5 6 8 4 2 Σni=25

Como es

y 11 < 18'75 < 19, será p3/4=2

El Recorrido será R = 4 - 0 = 4.

La Varianza es:

s2 = 4'24 - (1'68)2 = 1'4176.

Y la Desviación Típica s = 1'85.

Para este ejemplo el Coeficiente de Variación de Pearson, Vp, toma el valor:

En cuanto a la simetría, el Coeficiente de Variación de Pearson, Ap,es igual a:

Con lo que la distribución es ligeramente asimétrica a la izquierda.

Ejemplo 3
"Radiación y Cirugía"

En un estudio sobre las razones por las que no fue completado un tratamiento de radiación seguido
de cirugía en pacientes de cáncer de cabeza y cuello se obtuvieron los datos dados por la siguiente
distribució de frecuencias absolutas,

Causas ni
Rehusaron Cirugía 26
Rehusaron Radiación 3
Empeoraron por una
10
enfermedad ajena al cáncer
Otras causas 1
40
Datos

Las cuatro distribuciones de frecuencia serán:

Causas ni fi Ni Fi
Rehusaron Cirugía 26 0'650 26 0'650
Rehusaron Radiación 3 0'075 29 0'725
Empeoraron por una
10 0'250 39 0'975
enfermedad ajena al cáncer
Otras causas 1 0'025 40 1
40 1
Distribución de Frecuencias

Para representar estos datos en un Diagrama de Sectores, necesitamas calcular los


ángulos que corresponden a cada una de las cuatro modalidades:

Número de casos Ángulo(grados)


Rehusaron cirugía 26 234°
Rehusaron radiación 3 27°
Empeoraron por
una enfermedad 10 90°
ajena al cáncer
Otras causas 1 9°

Y su representación en un diagrama de sectores será:


La representación gráfica de la distribución de frecuencias absolutas en un Diagrama de
Rectángulos:

http://thales.cica.es/rd/Recursos/rd99/ed99-0278-01/ejemplo3.html

También podría gustarte