Centro Universitario Rhema
Educación para tu Futuro
Materia: Estadística I
Fecha de Entrega: 14 de Abril del 2023
Unidad 1. Introducción
1.1. Generalidades
1.2. Poblaciones
Unidad 2. Estadística Descriptiva
2.1. Tabulación De Datos
2.1.1. Escala Para Datos De Tipo Nominal
2.1.2. Escala Para Datos De Tipo Ordinal
2.1.3. Escalas Numéricas
2.1.4. Escalas De Intervalos
2.1.5. Escalas De Razón
2.1.6. Uso De Computadoras En Estadística
2.1.7. Principales Elementos De Las Tablas
2.1.8. Tablas Simples
2.1.9. Tablas De Frecuencias
2.1.10. Tablas De Doble Entrada
2.1.11. Tablas De Contingencia
2.2. Distribuciones De Frecuencia
2.2.1. Distribución De Frecuencias Para Variables Cuantitativas
2.2.2. Cuadros Estadísticos
2.2.3. Frecuencias Absolutas Y Relativas
2.3. Presentación Grafica De Datos
2.3.1. Histogramas Y Polígonos De Frecuencia
2.3.2. Pasos A Seguir Para La Elaboración De Un Diagrama De
Frecuencias (O Polígono De Frecuencias) Y Un Histograma
2.3.3. Graficas Para Distribuciones De Frecuencias No Agrupadas
2.3.4. Graficas Para Distribuciones De Frecuencias Agrupadas En
. Clases O Eventos
2.4. Medidas De Tendencia Central
2.4.1. Medidas De Posición
2.5. Medidas De Dispersión
2.6. Teorema De Tchebysheff Y Regla Empírica
2.6.1. Teorema De Tchebysheff O (Chebyshev)
2.6.2. La Regla Empírica
Unidad 3. Análisis Combinatorio
3.1. Principios Fundamentales
3.1.1. Principio De Multiplicación
3.1.2. Principio De Adición
3.2. Ordenaciones, Permutaciones Y Combinaciones
3.2.1. Ordenaciones
3.2.2. Permutaciones
3.2.3. Combinaciones
Unidad 4. Teoría De La Probabilidad
4.1. Probabilidad Subjetiva Y Probabilidad Frecuencial
4.2. Espacio Muestral Y Eventos
4.2.1. Probabilidad Simple (Marginal)
4.2.2. Probabilidad Conjunta
4.3. Regla De La Adición Y Multiplicación
4.4. Probabilidad Condicional
4.4.1. Regla De La Multiplicación
4.5. Tablas De Probabilidad Conjunta
4.5.1. Probabilidad Marginal
4.6. Teorema De Bayes
Unidad 5. Distribuciones De Probabilidad
5.1. Variables Aleatorias, Discretas Y Continuas
5.2. Distribuciones De Probabilidad De Variable Discreta
5.3. Distribución Binomial Y Distribución De Poisson
5.4. Distribuciones De Probabilidad De Variable Continua
5.5. Distribución Normal Y Distribución Exponencial
5.6. Ley De Los Grandes Números
Unidad 6. Numero Índice
6.1. Tipos De Numero Índice
6.1.1. Índice De Cantidad
6.1.2. Índice De Valor
6.1.3. Índice Agregado O Índice Simple
6.1.4. Índice Compuesto
6.2. Índices Ponderados
6.3. Índices De Precios Al Consumidor
Alumno: Jeshvan Andres Flores Meza
Profesora: Jackie Castillo
Unidad 1. Introducción
1.1. Generalidades De La Estadística
La estadística, de acuerdo con Monroy (2008), es la rama de la ciencia matemática que
se encarga de organizar, resumir y analizar datos y, partiendo de ese análisis, realiza
inferencias (deducciones) de una población a partir de la información contenida en una
muestra.
Los métodos estadísticos tradicionalmente se utilizan para propósitos descriptivos, para
organizar y resumir datos numéricos. La estadística descriptiva, por ejemplo, trata de la
tabulación de datos, su presentación en forma gráfica o ilustrativa y el cálculo de
medidas descriptivas. (Ruíz M. 2004).
Datos históricos revelan que, en el antiguo Egipto, los faraones lograron recopilar,
hacia el año 3050 antes de Cristo, datos relativos a la población y la riqueza del país.
De acuerdo al historiador griego Heródoto, dicho registro de riqueza y población se hizo
con el objetivo de preparar la construcción de las pirámides.
D. Bernoulli (1700 – 1782) proporciona la primera solución al problema de estimar una
cantidad desconocida a partir de un conjunto de mediciones de su valor que, por el
error experimental, presentan variabilidad.
A partir de 1950 se puede decir que es el inicio de la época moderna de la estadística.
La estadística para su mejor estudio se divide en tres ramas las cuales son: estadística
descriptiva, teoría de la probabilidad y estadística inferencial.
Estadística Descriptiva: se encarga solamente de describir y analizar un conjunto
determinado de datos, sin obtener conclusiones; para lo cual se auxilia de tablas,
gráficos y cuadros para el manejo de datos ordenados o individuales tanto cuantitativos
como cualitativos. Su finalidad es obtener información, analizarla, elaborarla y
simplificarla lo necesario para que pueda ser interpretada cómoda y rápidamente y, por
tanto, pueda utilizarse eficazmente para el fin que se desee.
Probabilidad: se utiliza en el análisis de situaciones en las que interviene el azar como
los juegos de dados, cartas, tiro de monedas y casi todos los deportes.
Estadística Inferencial: es aquella que nos permite realizar inferencias o deducciones
sobre el comportamiento o características de una población a partir de una muestra de
los elementos que integran a dicha población.
Conceptos Básicos
Variable: Se define como variable a aquella característica que puede ser medida, y
que, al ser medida durante el transcurso de un evento determinado, puede adoptar
diferentes valores o uno solo.
Variable Aleatoria: En un evento aleatorio, los valores de los sucesos que en él ocurren
y al que se le otorga un número real, se conoce como variable aleatoria, y estas
pueden clasificarse como variables aleatorias discretas y variables aleatorias continuas,
dependiendo de los valores que tome en cada caso.
Variable Aleatoria Discreta: Son aquellos valores finitos o infinitos que puede tomar una
variable aleatoria y a cuyos valores se les conoce como datos cuantitativos discretos y
son respuestas numéricas que resultan de un proceso de conteo, ejemplo:
1. El número de alumnos en el curso de estadística.
2. El número de vehículos que se encuentran en el estacionamiento de la
universidad.
3. El número de árboles en el jardín de la universidad.
Variable aleatoria continua: Es aquella que se encuentra dentro de un intervalo
comprendido entre dos valores cualesquiera; ésta puede asumir infinito número de
valores y éstos se pueden medir, ejemplo:
1. La estatura de un alumno de un grupo escolar.
2. El peso en gramos de una moneda.
3. La edad de un hijo de familia.
1.2. Poblaciones Y Muestras
Población: Es el número total de elementos contenidos en el conjunto universo, sobre
el cual se realizan las observaciones para conocer sus características.
Muestra: Es un subconjunto o porción representativa de una población, que se estudia
para realizar inferencias sobre ella, a partir de la muestra.
Población Muestra
La característica medible de la
población, como la media o La característica medible de la muestra se
la desviación estándar, se conoce llama estadística.
como parámetro.
Los datos de población son un todo y La muestra es un subconjunto de la población
completo. que se obtiene utilizando el muestreo.
Una encuesta realizada a toda una Una encuesta realizada con una muestra de la
población es más precisa, sin margen población arroja resultados precisos, solo
de error, excepto la inexactitud después de factorizar aún más el margen de
humana en las respuestas. Sin error y el intervalo de confianza.
embargo, esto no siempre es posible.
La estadística es el componente descriptivo de
El parámetro de la población es un
la muestra, el cual se encuentra mediante el
elemento numérico o medible que
uso de la media muestral o la proporción
define el sistema del conjunto.
muestral.
Unidad 2. Estadística Descriptiva
La estadística descriptiva incluye aquellas técnicas que nos permiten el resumen y la
descripción de datos. La preparación de tablas, la elaboración de gráficos y las técnicas
para el cálculo de los diferentes parámetros de las poblaciones, forman parte de las
técnicas de la estadística descriptiva.
2.1. Tabulación De Datos
El conjunto de operaciones que permiten presentarlos agrupados y, a su vez, en forma
de gráficos o tablas.
Por tanto, es un proceso mediante el que agrupamos los datos y los mostramos
mediante gráficos o tablas para entenderlos mejor.
La tabulación es un paso esencial en el análisis descriptivo previo a otros como la
inferencia. De esta forma, una vez los obtenemos, debemos prepararlos para su
posterior uso, y eso lo hacemos agrupándolos mediante la tabulación.
El proceso de tabulación de datos dependerá del tipo de variable que utilicemos. Es
decir, si es cualitativa, cuantitativa, discreta o continua. En el ejemplo veremos una
aplicación práctica.
Variable Cualitativa
Las variables cualitativas expresan categorías, por ejemplo, titulación cursada. La
tabulación de datos de este tipo es, quizá, la más sencilla.
La tabla tendría, por un lado, el dato numérico. Por otro lado, se incluirían las
frecuencias absolutas (recuento de cada valor) y las frecuencias relativas (cada
absoluta dividida entre el total). Se añaden dos columnas más con las frecuencias
absolutas y relativas acumuladas.
Variable Cuantitativa Discreta
Estamos ante variables que se pueden sumar, por tanto, se pueden calcular
promedios, desviaciones típicas y otros estadísticos descriptivos de posición,
dispersión o forma. Lo que proponemos es utilizar las mismas columnas que en el caso
anterior.
Variable Cuantitativa Continua
Son variables que pueden tomar infinitos valores. En este caso, la tabulación se realiza
agrupando por intervalos. Estos deben ser los suficientes para no perder demasiada
información, pero no demasiados. Se pueden utilizar fórmulas para calcular el número
adecuado de ellos.
2.1.1. Escala Para Datos De Tipo Nominal
Son aquellos que no tienen un orden o dimensión preferente o particular. En un estudio
de preferencias sobre los colores de automóviles que prefiere un determinado grupo de
consumidores, se podrá decir que algunos prefieren el color rojo, otros el azul o el
verde, pero no se puede decir que el magenta vaya “después” que el morado o que el
azul sea “más grande” (o más chico, para el caso) que el verde. Para trabajar
adecuadamente con escalas de tipo nominal, cada uno de los individuos, objetos o
mediciones debe pertenecer a una y solamente a una de las categorías o
clasificaciones que se tienen y el conjunto de esas categorías debe ser exhaustivo, es
decir, tiene que contener a todos los casos posibles.
2.1.2. Escala Para Datos De Tipo Ordinal
En esta escala, las variables sí tienen un orden natural (de allí su nombre) y cada uno
de los datos pueden localizarse dentro de alguna de las categorías disponibles. El
estudiante habrá tenido oportunidad de evaluar a algún maestro; las preguntas implican
frecuentemente categorías como “siempre, frecuentemente, algunas veces, nunca”. Es
fácil percatarse que “siempre” es más frecuente que “algunas veces” y “algunas veces”
es más frecuente que “nunca”. Es decir, en las escalas de tipo ordinal se puede
establecer una graduación u orden natural para las categorías. No se puede, sin
embargo, establecer comparaciones cuantitativas entre las categorías.
No podemos decir, por ejemplo, que “frecuentemente” es el doble que “algunas veces”
o que “nunca” es tres puntos más malos que “frecuentemente”. Para trabajar
adecuadamente con escalas de tipo ordinal, debemos recordar que las categorías son
mutuamente excluyentes (cada dato puede pertenecer o una y sólo a una de las
categorías) y deben ser exhaustivas (es decir, cubrir todas las posibles respuestas).
2.1.3. Escalas Numéricas
Estas escalas, dependiendo del manejo de se le dé a las variables pueden ser
discretas o continuas. Las escalas discretas son aquellas que solo pueden aceptar
determinados valores dentro de un rango. El número de hijos que tiene una pareja es,
por ejemplo, un dato discreto. Una pareja puede tener 1, 2, 3 hijos, etc., pero no tiene
sentido decir que tienen 2.3657 hijos. Una persona puede tomar 1, 2, 3, 4, etc., baños
por semana, pero tampoco tiene sentido decir que toma 4.31 baños por semana.
Las escalas continuas son aquellas que pueden aceptar cualquier valor dentro de un
rango y, frecuentemente el número de decimales que se toman dependen más de la
precisión del instrumento de medición que del valor del dato en sí. Podemos decir, por
ejemplo, que el peso de una persona es de 67 Kg.; pero si medimos con más precisión,
tal vez informamos que el peso es en realidad de 67.453 Kg. Y, si nuestra báscula es
muy precisa podemos anotar un mayor número de decimales.
El objetivo del investigador condiciona fuertemente el tipo de escala que se utilizará
para registrar los datos. Tomando el dato de la estatura, éste puede tener un valor
puramente categórico. En algunos deportes, por ejemplo, el básquetbol, de
determinada estatura para arriba los candidatos a jugador se admiten en el equipo y de
esa estatura para abajo no se admiten. La variable estatura tiene solo dos valores
“aceptado” y “no aceptado” y es una variable nominal. Esta misma variable, para otro
estudio, puede trabajarse con una escala de tipo ordinal: “bajos de estatura”, “de
mediana estatura” y “altos”. Si tomamos la misma variable y la registramos por su valor
en centímetros, la estaremos trabajando como una variable numérica.
Dependiendo de las intenciones del investigador, se le puede registrar como variable
discreta o continua (variable discreta si a una persona se le registra, por ejemplo, como
de 173 cm., o como de 174 cm., y si mide unos milímetros más o menos se redondeará
al centímetro más cercano; variable continua si el investigador registra la estatura
reportada por el instrumento de medición hasta el límite de precisión de éste. Por
ejemplo. 173.345 cm.) Las escalas de tipo numérico pueden tener una de dos
características, Escalas de intervalo y Escalas de razón.
2.1.4. Escalas De Intervalo
Son aquellas en las que el cero es convencional o arbitrario y pueden existir cantidades
negativas. Un ejemplo de este tipo de escalas es la de los grados Celsius o centígrados
que se usan para medir la temperatura. En ella el cero es el punto de congelación del
agua y, sin embargo, existen temperaturas más frías que se miden mediante números
negativos. En estas escalas podemos hacer comparaciones por medio de diferencias o
de sumas.
Podemos decir, por ejemplo, que hoy la temperatura del agua de una alberca está
cuatro grados más fría que ayer; pero no se pueden hacer comparaciones por medio
de multiplicaciones, divisiones o porcentajes, porque este tipo de comparaciones
implica divisiones y éstas no tienen sentido en las escalas de intervalo. Si hoy la
temperatura ambiente es, por ejemplo, de diez grados, no tiene sentido decir que hace
el doble de frío que ayer, pues ayer estaba a veinte grados.
2.1.5. Escalas De Razón
Son aquellas en las que el cero absoluto sí existe. Tal es el caso de los grados Kelvin,
para medir temperaturas o muchas medidas que utilizamos en nuestra vida cotidiana.
La estatura de las personas medida en centímetros, por ejemplo, está medida en una
escala de razón pues sí existe el cero absoluto (nadie tiene estatura negativa). En el
caso de las estaturas si se puede decir que alguien mide el doble (o la mitad) que otra
persona cualquiera.
La mayor parte de las herramientas que se aprenden en este curso son válidas para
escalas numéricas; algunas lo son para escalas ordinales y unas pocas (muchas de las
que se ven en el tema de estadística no paramétrica) sirven para todo tipo de escalas.
2.1.6. Uso De Computadora En Estadística
Algunas de las técnicas que se ven en este curso (por ejemplo, las técnicas de
regresión y correlación) y muchas que se ven en cursos más avanzados de estadística,
requieren un conjunto de operaciones matemáticas que, con frecuencia no son
demasiado difíciles desde el punto de vista conceptual, pero sí son considerablemente
engorrosas por el volumen de cálculos que conllevan. Por ello las computadoras, con
su gran capacidad para el manejo de grandes volúmenes de información son un
poderoso auxiliar. Existen herramientas de uso general como el Excel o el Lotus que
incluyen algunas funciones estadísticas y son útiles para muchas aplicaciones.
Si se desea, sin embargo, estudiar con mayor profundidad el uso de técnicas más
avanzadas, es importante contar con herramientas específicamente diseñadas para el
trabajo estadístico.
Existen diversos paquetes de software en el mercado que están diseñados
específicamente para ello. Entre otros se encuentran el SPSS y el SAS.
Recomendamos al estudiante que ensaye el manejo de estas herramientas.
2.1.7. Principales Elementos De Las Tablas
A continuación, se presenta una tabla sencilla, tomada de un ejemplo hipotético. En ella
se examinan sus principales elementos y se expresan algunos conceptos generales
sobre ellos.
Título: Todas las tablas deben tener un título para que el lector sepa el asunto al que se
refiere.
Encabezado: Se refiere a las categorías de datos que se manejan dentro de la propia
tabla.
Cuerpo: En él se encuentran los datos propiamente dichos.
Fuente de Información: Si los datos que se encuentran en la tabla no fueron obtenidos
por el autor del documento en el que se encuentra la misma, es importante indicar de
qué parte se obtuvo la información que allí se encuentra.
Independientemente de los principales elementos que puede tener una tabla, existen
diversas maneras de presentar la información en ellas. No existe una clasificación
absoluta de la presentación de las diferentes tablas, dado que, siendo una obra
humana, se pueden inventar diversas maneras de presentar información estadística.
No obstante, lo anterior, se puede intentar una clasificación que nos permita entender
las principales presentaciones.
2.1.8. Tablas Simples
Relaciona una columna de categorías con una o más columnas de datos, sin más
elaboración. A continuación, se presenta un ejemplo de una tabla simple. Maestros de
las distintas coordinaciones que han proporcionado su correo electrónico
Administración Básica 23
Administración Avanzada 18
Matemáticas 34
Informática 24
Derecho 28
Economía 14
2.1.9. Tablas De Frecuencia
Es un arreglo rectangular de información en el que las columnas representan diversos
conceptos, dependiendo de las intenciones de la persona que la elabora, pero que
tiene, siempre, en una de las columnas, información sobre el número de veces
(frecuencia) que se presenta cierto fenómeno.
La siguiente tabla es un ejemplo de esta naturaleza. En ella, la primera columna
representa las categorías o clases, la segunda las frecuencias llamadas absolutas y la
tercera las frecuencias relativas. Esta última columna recibe esa denominación, porque
los datos están expresados en relación con el total de la segunda columna.
Las frecuencias relativas pueden expresarse en porcentaje, tal como en nuestro
ejemplo, o en absoluto (es decir, sin multiplicar los valores por 100).
Algunos autores llaman al primer caso “Frecuencia porcentual” en lugar de frecuencia
relativa.
2.1.10. Tablas De Doble Entrada
En algunos casos, se quiere presentar la información con un mayor detalle. Para ello se
usan las tablas de doble entrada. Se llaman así, porque la información se clasifica por
medio de dos criterios en lugar de utilizar solamente uno. A continuación, se presenta
un ejemplo de tabla de doble entrada.
Podemos observar que esta tabla, en la columna de totales presenta una información
idéntica a la segunda columna de la tabla anterior. Sin embargo, en el cuerpo de la
tabla se desglosa una información más detallada, pues nos ofrece datos sobre los
modelos de bicicletas, mismos que la tabla anterior no teníamos.
2.1.11. Tablas De Contingencia
Un problema frecuente es el de definir la independencia de dos métodos para clasificar
eventos. Supongamos que una empresa que envasa leche desea clasificar los defectos
encontrados en la producción tanto por tipo de defecto como por turno en el turno
(matutino, vespertino o nocturno) en el que se produjo el defecto. Lo que se desea
estudiar es si es cierto que se presenta el caso (la contingencia y de allí el nombre) de
que exista una relación entre ambas clasificaciones. ¿Cómo se comporta la proporción
de cada tipo de defecto de un turno a otro?
En el ejemplo de la empresa que quiere hacer este tipo de trabajo se encontró un total
de 312 defectos en cuatro categorías distintas: volumen, empaque, impresión y sellado.
La información encontrada se resume en la siguiente tabla.
De la información de la tabla antecedente, podemos darnos cuenta de que el mayor
porcentaje de errores se comete en el turno nocturno y que el área en la que la mayor
proporción de defectos se da es la de impresión. Como vemos, la clasificación cruzada
de una tabla de contingencia puede llevarnos a obtener conclusiones interesantes.
2.2. Distribuciones De Frecuencia
2.2.1. Distribución De Frecuencias Para Variables Cuantitativas
El manejo de la información requiere de la ordenación de datos de tal forma que
permita la obtención de una forma más fácil la obtención de conclusiones acerca de la
muestra. Una primera ordenación se realiza mediante el manejo de tablas, en las que
se ordenan los datos de acuerdo a ciertas características de los datos.
El manejo de datos discretos permite la manipulación de tablas, sobre todo cuando el
número de datos no es muy reducido. A continuación, describiremos la manipulación
de datos mediante el manejo de datos discretos y continuos.
Las variables a ser manejadas en el estudio, en el caso de valores discretos, se puede
representar mediante una tabla en la que se representa los variables mediante
variables con nombre como (xi) y el número de veces en que un dato se representara
mediante frecuencias, frecuencias absolutas, frecuencias relativas.
La representación de esta tabla mediante frecuencias se le conoce como tabla
estadística cuya función es la determinar la frecuencia de cada clase las cuales
aparecen a un lado de cada clase.
La representación generalmente se da como sigue:
Un ejemplo de clasificación de datos. Se presenta una tabla que muestra las
calificaciones obtenidas en un examen de matemáticas, y a su lado se presenta el
número de alumnos que obtuvieron esas calificaciones.
En el caso de las variables continuas se debe de dividir los intervalos en los que debe
de distribuirse la información, en este caso existen varios criterios sobre los que
debemos de plantear la distribución. Uno de ellos, de los más comunes, consiste en
determinar la cantidad de parámetros.
Dentro de las frecuencias que aparecen en las tablas, las más comunes, son
frecuencia absoluta, la frecuencia absoluta acumulada y la frecuencia relativa.
La frecuencia absoluta f(xi) se determina como el número de veces que se repite un
dato xi.
La frecuencia absoluta acumulada F i: Para un determinado valor se considera como la
frecuencia de cada dato xi más la suma de los valores anteriores a dicha suma.
donde ni son el número de datos acumulados de las clases
anteriores
La frecuencia relativa hi: es el cociente hi =fi/N, en algunas ocasiones se representa
como ni/N, donde N es el número total de datos, corresponde a la suma de todas las
frecuencias individuales de cada clase, y n i o fi los datos en cada clase. Las frecuencias
relativas representan el porciento de veces en que ocurre un dato. Como veremos en
teoría de probabilidades, el concepto de frecuencia relativa nos conduce a un concepto
de probabilidad.
La frecuencia relativa acumulada H i: es la suma de los valores acumulados de la
frecuencia relativa
la suma de las frecuencias relativas que se han acumulado, incluyendo la clase sobre
la que se está calculando la frecuencia relativa.
2.2.2. Cuadros Estadísticos
Los gráficos muestran visualmente y de forma rápida la distribución de los datos y sus
principales características, constituyen un importante complemento en la presentación
de la información.
Podemos emplear distintos gráficos estadísticos según el tipo de variable que
representan, por el tipo de información que ofrece, o por el énfasis que quiera poner el
informador en los datos. Los más habituales son los siguientes: Diagrama de barras,
Histograma, Polígono de frecuencias, Diagrama lineal, Diagrama de sectores,
Pictograma y Cartograma.
2.2.3. Frecuencias Absolutas Y Relativas
La frecuencia absoluta es el número de veces que se repite algo y la frecuencia relativa
es la proporción que representa la frecuencia absoluta en relación con el total. Por
ejemplo, en la parcela de girasol con densidad baja los estudiantes observaron y
registraron los sentidos de inclinación de los tallos de 40 plantas. Los números de
plantas con tallos inclinados en cada sentido encontrado (números de veces en que se
repitió cada sentido) son las frecuencias absolutas observadas y los cocientes entre
esos números y el total de plantas observadas (40) son las correspondientes
frecuencias relativas. La suma de todas las frecuencias relativas es igual a 1.
2.3. Presentación Grafica De Datos
Las tablas estadísticas representan toda la información de modo esquemático y están
preparadas para los cálculos posteriores. Los gráficos estadísticos nos transmiten esa
información de modo más expresivo, nos van a permitir, con un sólo golpe de vista,
entender de que se nos habla, observar sus características más importantes, incluso
sacar alguna conclusión sobre el comportamiento de la muestra donde se está
realizando el estudio.
Los gráficos estadísticos son muy útiles para comparar distintas tablas de frecuencia.
2.3.1. Histogramas Y Polígonos De Frecuencias
2.3.2. Pasos A Seguir Para La Elaboración De Un Diagrama De
Frecuencias (O Polígono De Frecuencias) Y Un Histograma.
Polígono de Frecuencia: Un polígono de frecuencias da la misma información de un
histograma, para esto graficamos un punto por cada clase del conjunto de datos en
donde en la entrada de las abscisas se toma el valor del punto medio de la clase y en
la entrada las ordenadas tendrán en mismo valor que la altura del rectángulo. Al final,
unimos cada punto con su sucesor y su antecesor.
Ejemplo. Utilizando el mismo conjunto de datos del ejemplo anterior
Un histograma es la representación gráfica en forma de barras, que simboliza la
distribución de un conjunto de datos. Sirven para obtener una "primera vista" general, o
panorama, de la distribución de la población, o de la muestra, respecto a una
característica, cuantitativa y continua.
En un histograma el eje de las (o abscisas) consiste del rango en el cual se
encuentran los datos. Ahora, las bases de los rectángulos consisten de los intervalos
en los cuales agrupamos dichos datos.
Por otro lado, en el eje de las (u ordenadas) tenemos más opciones, dependiendo
estas opciones es el tipo de histograma que tenemos. Los dos tipos principales de
histogramas son los siguientes:
Histograma de frecuencias absolutas: Representa la frecuencia absoluta mediante la
altura de las barras.
Histograma de frecuencias relativas: Representa la frecuencia relativa mediante la
altura de las barras.
Así, ya que conocemos las características de un histograma, tenemos que para
construir uno, dado un conjunto de datos, debemos seguir los siguientes pasos.
Dibujamos el eje de las abscisas de tal forma que incluya como mínimo el rango de los
datos y, posteriormente, dividimos este rango en los intervalos dados.
Dibujamos el eje de las ordenadas representando las frecuencias absolutas o relativas
según sea el caso.
Se dibujan los rectángulos de anchura igual y proporcional al intervalo (en nuestro caso
todos tendrán la misma anchura) y de altura igual a la frecuencia absoluta o relativa,
según sea el caso.
Ejemplo. Consideremos los siguientes datos
Nuestro histograma de frecuencias absolutas sería el siguiente
Por otro lado, nuestro histograma de frecuencias relativas sería el siguiente
Histograma y polígono de frecuencias acumuladas
Si se representan las frecuencias acumuladas de una tabla de datos agrupados se
obtiene el histograma de frecuencias acumuladas y su correspondiente polígono.
Ejemplo. Utilizando el mismo conjunto de datos del ejemplo anterior
Histogramas con intervalos de amplitud diferente
En este caso, el histograma debería representar la frecuencia de cada intervalo con el
área de la barra y no con su altura. Por lo tanto, calculamos la altura de cada barra de
la siguiente manera
En donde
es la altura del intervalo
es la frecuencia absoluta o relativa del intervalo, según sea el caso.
es la amplitud del intervalo
La idea del polígono de frecuencias sigue siendo exactamente la misma.
Ejemplo. Consideremos una agrupación distinta de los datos de los ejemplos anteriores
Su histograma y su polígono de frecuencias relativas sería el siguiente
2.3.3. Graficas Para Distribución De Frecuencias No Agrupadas
El diagrama principal para representar datos de variables discretas no agrupadas es
el diagrama de barras. En este se representan en el eje de abscisas los distintos
valores de la variable y sobre cada uno de ellos se levanta una barra de longitud igual a
la frecuencia correspondiente. Pueden representarse tanto las frecuencias
absolutas fi como los relativos hi. En la práctica se puede graduar simultáneamente el
eje de ordenadas tanto en frecuencias absolutas como en relativas en tantos por
ciento.
El mismo gráfico se puede realizar con las frecuencias relativas, es decir, es posible
representar los porcentajes como se muestra a continuación.
Un diagrama similar es el polígono de frecuencias. Este se obtiene uniendo con rectas
los extremos superiores de las barras del diagrama anterior.
De la misma forma, pueden representarse frecuencias absolutas, Para representar las
frecuencias, tanto absolutas como relativas, acumuladas se usa el diagrama de
frecuencias acumuladas.
Este gráfico, en forma de escalera, se construye representando en abscisas los
distintos valores de la variable y levantando sobre cada xi una perpendicular cuya
longitud será la frecuencia acumulada (H i o Fi) de ese valor. Los puntos se unen con
tramos horizontales y verticales como se muestra en la figura. Evidentemente la
escalera resultante ha de ser siempre ascendente.
Representaciones gráficas para datos agrupados
La representación gráfica más usada para datos agrupados es el histograma de
frecuencias absolutas o relativas. Un histograma es un conjunto de rectángulos
adyacentes, cada uno de los cuales representa un intervalo de clase. Las bases de
cada rectángulo son proporcionales a la amplitud del intervalo. Es decir, el centro de la
base de cada rectángulo ha de corresponder a una marca de clase. La altura se suele
determinar para que el área de cada rectángulo sea igual a la frecuencia de la marca
de clase correspondiente. Por tanto, la altura de cada rectángulo se puede calcular
como el cociente entre la frecuencia (absoluta o relativa) y la amplitud del intervalo. En
el caso de que la amplitud de los intervalos sea constante, la representación es
equivalente a usar como altura la frecuencia de cada marca de clase, siendo este
método más sencillo para dibujar rápidamente un histograma.
Representaciones gráficas para variables cualitativas
Existe una gran variedad de representaciones para variables cualitativas, de las cuales
vamos a describir únicamente las dos mas usadas. El diagrama de rectángulos es
similar al diagrama de barras y el histograma para las variables cuantitativas. Consiste
en representar en el eje de abscisas los diferentes caracteres cualitativos y levantar
sobre cada uno de ellos un rectángulo (de forma no solapada) cuya altura sea la
frecuencia (absoluta o relativa) de dicho carácter.
Un diagrama muy usado es el diagrama de sectores (también llamado diagrama de
tarta). En él se representa el valor de cada carácter cualitativo como un sector de un
círculo completo, siendo el área de cada sector, o, lo que es lo mismo, el arco
subtendido, proporcional a la frecuencia del carácter en cuestión. De forma práctica,
cada arco se calcula como 360º multiplicado por la frecuencia relativa. Es además
costumbre escribir dentro, o a un lado, de cada sector la frecuencia correspondiente.
Este tipo de diagrama proporciona una idea visual muy clara de cuáles son los
caracteres que más se repiten.
Este gráfico se puede presentar en tres dimensiones, pero presenta varios
inconvenientes.
2.3.4. Graficas Para Distribuciones De Frecuencias Agrupadas En
Clases O Eventos
Las distribuciones de frecuencias están basadas en la reducción de datos mediante la
agrupación de los mismos que se presentan mediante las tablas estadísticas que son
agrupaciones de datos ordenados con arreglo a un criterio lógico, procesos que se
denominan tabulación.
Es aquella distribución en la que la disposición tabular de los datos estadísticos se
encuentra ordenada en clases y con la frecuencia en cada clase; es decir, los datos
originales de varios valores del conjunto se combinan para formar un intervalo de clase.
La distribución de frecuencias agrupadas o tabla con datos agrupados se emplea si
las variables tienden a grandes valores o la variable es continua.
Se agrupan los valores en intervalos que tengan la misma amplitud denominados
clases. A cada clase se le asigna su frecuencia correspondiente.
Clase o Intervalo de Clase: Son divisiones o categorías en las cuales se agrupan un
conjunto de datos ordenados con características comunes. Para organizar los valores
de la serie de datos hay que determinar un número de clases que sea conveniente.
Límites de la Clase: Cada clase está delimitada por el límite inferior de la clase y
el límite superior de la clase.
Amplitud de la Clase(c): La amplitud de la clase es la diferencia entre el límite superior
e inferior de la clase.
Marca de clase (Xm): La marca de clase es el punto medio de cada intervalo y es
el valor que representa a todo el intervalo.
EJEMPLO: En el barrio Miguel Concha Álvarez de la ciudad de Santa Rosa, se
encuesto la edad de las personas que habitan en este barrio. Los resultados obtenidos
fueron los siguientes:
2.4. Medidas De Tendencia Central
Las medidas de tendencia central son aquellas que describen lo que es típico en el
estudio de datos. Corresponden a los valores que se ubican en la parte central de un
conjunto de datos y ayudan a resumir los datos con un sólo dato. Las medidas de
tendencia central son media aritmética, mediana y moda.
2.4.1. Medidas De Posición
Las medidas de posición relativa se llaman en general cuantiles y se pueden clasificar
en tres grandes grupos: Cuartiles, quintiles, deciles, percentiles.
Las medidas de posición como los cuartiles, quintiles, deciles y percentiles dividen a
una distribución ordenada en partes iguales. Para calcular las medidas de posición es
necesario que los datos estén ordenados de menor a mayor.
Los Cuartiles (Qn): son los tres valores de la variable de una distribución que la dividen
en cuatro partes iguales, es decir, al 25%, 50% y 75%. Para calcular el valor de uno de
los cuatro Cuartiles, se utiliza la formula:
Qk = k (n/4)
En donde:
Qk = Cuartil número 1, 2, 3 o 4
n = total de datos de la distribución.
Se advierte que la posición del segundo cuartil corresponde a la ubicación de la
mediana, es decir que el segundo cuartil será siempre igual a la mediana.
Para calcular los cuartiles (datos no agrupados) debes seguir los siguientes pasos:
1º Se ordenan los datos de menor a mayor.
2º Se determina la posición que ocupa cada cuartil mediante la fórmula: Qk = k (n/4)
Para que te quede más claro:
El primer cuartil (Q1) es el valor de la variable que supera a lo más el 25 % de los datos
y es superado por a lo más el 75 % de ellos en la distribución ordenada de menor a
mayor.
El segundo cuartil (Q2) es un valor que supera a lo más el 50 % de los datos y es
superado por a lo más el 50 % de ellos, es decir, Q2 coincide con la mediana.
El tercer cuartil (Q3) es un valor que supera a lo más al 75 % de los datos y es
superado por a lo más el 25 % de ellos.
Los Deciles: Corresponden a los 9 valores que dividen a estos en 10 partes iguales, es
decir, al 10%, al 20%... y al 90%. Los Deciles se designan por D1, D2, D9.
Los percentiles (Pn): son los noventa y nueve valores de la variable de una distribución
que la dividen en cien partes iguales, es decir, al 1%, al 2%... y al 99% de los
datos. Los percentiles se designan por P1, P2, P99.
P50 coincide con la mediana.
El percentil p (Pp) es un valor de la variable tal que el p% de la muestra está por debajo
y el (100p) % está sobre.
Al tener una tabla de frecuencias, el percentil de orden K (Pk) se calcula siguiendo los
siguientes pasos:
1° Se determina el intervalo al cual pertenece el percentil por calcular en la tabla de
frecuencias:
en donde:
K = {1, 2, …, 99}
n es el número de datos. Si es decimal se aproxima al entero más cercano superior.
Buscamos este valor en la columna de la frecuencia acumulada. El cuál es el primer
valor de x cuya frecuencia acumulada sobrepasa el resultado de este cálculo.
Calcular el percentil Pk correspondiente al k% de los datos se puede utilizar la siguiente
fórmula:
Li es el límite inferior del intervalo donde se encuentra el k% de los datos.
ai es la amplitud del intervalo donde se encuentra el k% de los datos.
fi es la frecuencia absoluta del intervalo donde se encuentra el k% de los datos.
Fi-1 es la frecuencia acumulada anterior al intervalo donde se encuentra el k% de los
datos.
n es el total de datos.
2.5. Medidas De Dispersión
Las medidas de dispersión tratan, a través del cálculo de diferentes fórmulas, de arrojar
un valor numérico que ofrezca información sobre el grado de variabilidad de una
variable.
En otras palabras, las medidas de dispersión son números que indican si una variable
se mueve mucho, poco, más o menos que otra. La razón de ser de este tipo de
medidas es conocer de manera resumida una característica de la variable estudiada.
En este sentido, deben acompañar a las medidas de tendencia central. Juntas, ofrecen
información de un sólo vistazo que luego podremos utilizar para comparar y, si fuera
preciso, tomar decisiones.
Principales medidas de dispersión
Las medidas de dispersión más conocidas son: el rango, la varianza, la desviación
típica y el coeficiente de variación (no confundir con coeficiente de determinación). A
continuación, veremos estas cuatro medidas.
Rango: El rango es un valor numérico que indica la diferencia entre el valor máximo y el
mínimo de una población o muestra estadística.
Su fórmula es:
R = Máxx – Mínx
Donde:
R → Es el rango.
Máx → Es el valor máximo de la muestra o población.
Mín → Es el valor mínimo de la muestra o población estadística.
x → Es la variable sobre la que se pretende calcular esta medida.
Varianza: La varianza es una medida de dispersión que representa la variabilidad de
una serie de datos respecto a su media. Formalmente se calcula como la suma de los
residuos al cuadrado divididos entre el total de observaciones. Su fórmula es la
siguiente:
X → Variable sobre la que se pretenden calcular la varianza
xi → Observación número i de la variable X. i puede tomará valores entre 1 y n.
N → Número de observaciones.
x̄ → Es la media de la variable X.
Desviación Típica: La desviación típica es otra medida que ofrece información de la
dispersión respecto a la media. Su cálculo es exactamente el mismo que la varianza,
pero realizando la raíz cuadrada de su resultado. Es decir, la desviación típica es la raíz
cuadrada de la varianza.
X → Variable sobre la que se pretenden calcular la varianza
xi → Observación número i de la variable X. i puede tomará valores entre 1 y n.
N → Número de observaciones.
x̄ → Es la media de la variable X.
Coeficiente de Variación: Su cálculo se obtiene de dividir la desviación típica entre el
valor absoluto de la media del conjunto y por lo general se expresa en porcentaje para
su mejor comprensión.
X → Variable sobre la que se pretenden calcular la varianza
σx → Desviación típica de la variable X.
| x̄ | → Es la media de la variable X en valor absoluto con x̄ ≠ 0
A continuación, se muestra una imagen que resume las fórmulas anteriores:
A efectos comparativos, es importante indicar que debemos comparar siempre
variables con las mismas unidades de medida. Por ejemplo, no tendría mucho sentido
decir que la variabilidad del producto interior bruto (PIB) es mayor que la de la venta de
helados. Por poder, se puede indicar, pero comparar euros con número de helados no
tiene sentido.
Por tanto, siempre mejor comparar variables con la misma unidad de medida.
Lo mismo ocurre con las medidas de dispersión. Si lo que se quiere es comparar dos
variables, es preferible hacerlo con las mismas medidas de dispersión para cada una
de ellas y preferiblemente en la misma unidad.
2.6. Teorema De Tchebysheff Y Regla Empírica
2.6.1. Teorema De Tchebysheff O (Chebyshev)
Para cualquier conjunto de datos numéricos, al menos 3/4 de los datos se encuentran
dentro de dos desviaciones estándar de la media, es decir, en el intervalo con puntos
finales x¯±2s para muestras y con puntos finales μ±2σ, para poblaciones; al menos
8/98/9 de los datos se encuentran dentro de tres desviaciones estándar de la media, es
decir, en el intervalo con puntos finales x¯±3s, para muestras y con puntos finales
μ±3σ, para poblaciones; al menos 1/2 de los datos se encuentran dentro de las
desviaciones k estándar de la media, es decir, en el intervalo con puntos final es x¯±ks,
para muestras y con puntos finales μ±kσ, para poblaciones, donde k está cualquier
número entero positivo que sea mayor que 11.
La figura 2.5.4 da una ilustración visual del teorema de Chebyshev.
Figura 2.5.4: Teorema de Chebyshev
Es importante prestar especial atención a las palabras “al menos” al inicio de cada una
de las tres partes del Teorema de Chebyshev. El teorema da la proporción mínima de
los datos que deben estar dentro de un número dado de desviaciones estándar de la
media; las proporciones verdaderas encontradas dentro de las regiones indicadas
podrían ser mayores de lo que garantiza el teorema.
Ejemplo 2.5.3
Una muestra de tamaño n=50 tiene media x¯=28 y desviación estándar s=3. Sin saber
nada más sobre la muestra, ¿qué se puede decir del número de observaciones que se
encuentran en el intervalo (22,34)? ¿Qué se puede decir del número de observaciones
que se encuentran fuera de ese intervalo?
Solución: El intervalo (22,34) es el que se forma sumando y restando dos desviaciones
estándar de la media. Por el Teorema de Chebyshev, al menos 3/4 de los datos están
dentro de este intervalo. Dado que 3/4 de 50 es 37.5, esto significa que al menos
37.5 las observaciones están en el intervalo. Pero no se puede tomar una observación
fraccionaria, por lo que concluimos que al menos 38 las observaciones deben estar
dentro del intervalo (22,34).
Si al menos 3/4 de las observaciones están en el intervalo, entonces en la mayoría
1/4 de ellas están fuera de él. Dado que 1/4 de 50 es 12.5, a lo sumo 12.5 las
observaciones están fuera del intervalo. Ya que de nuevo una fracción de una
observación es imposible, x (22,34).
Ejemplo 2.5.4
El número de vehículos que pasaban por una intersección transitada entre 8:00a.m. a
10:00a.m. se observó y registró en cada mañana de lunes a viernes del año pasado. El
conjunto de datos contiene =251 números. La media de la muestra es x=725 y la
desviación estándar de la muestra es s=25. Identificar cuál de las siguientes
afirmaciones debe ser verdadera.
Aproximadamente 95% de las mañanas de los días de la semana del año pasado el
número de vehículos que pasaban por la intersección de 8:00a.m. a 10:00a.m. a
10:00a.m. fue entre 675 y 775.
En al menos 75% de las mañanas de los días de la semana del año pasado el número
de vehículos que pasaban por la intersección de 8:00a.m. a 10:00a.m. estaba entre
675 y 775.
Al menos en las 189 mañanas de lunes a viernes del año pasado el número de
vehículos que pasaban por la intersección de 8:00a.m. a 10:00a.m. fue entre 675 y 775.
En la mayoría 25% de las mañanas de lunes a viernes del año pasado el número de
vehículos que pasaban por la intersección de 8:00a.m. a 10:00a.m. era menor 675 o
mayor que 775.
En la mayoría 12.5% de las mañanas de lunes a viernes del año pasado el número de
vehículos que pasaban por la intersección de 8:00a.m. a 10:00a.m. fue menor que 675.
En la mayoría 25% de las mañanas de lunes a viernes del año pasado el número de
vehículos que pasaban por la intersección de 8:00a.m. a 10:00a.m. fue menor que 675.
Solución: Dado que no se afirma que el histograma de frecuencia relativa de los datos
tenga forma de campana, no se aplica la Regla Empírica. El enunciado (1) se basa en
la Regla Empírica y por lo tanto podría no ser correcta.
Declaración (2) es una aplicación directa de la parte (1) del Teorema de Chebyshev
porque x¯−2s¯−2= (675,775). Debe ser correcto.
Declaración (3) dice lo mismo que declaración (2) debido a 75% que 251 es 188.25, por
lo que el número mínimo entero de observaciones en este intervalo es 189. Por lo
tanto, la declaración (3) es definitivamente correcta.
El enunciado (4) dice lo mismo que el enunciado (2) pero en palabras distintas, y por lo
tanto es definitivamente correcto.
El comunicado (4), que es definitivamente correcto, establece que en la mayor parte
25% del tiempo ya sea menos 675 o más que 775 los vehículos que pasaron por la
intersección. Comunicado (5) dice que la mitad de eso 25% corresponde a días de
semáforo ligero. Esto sería correcto si se supiera que el histograma de frecuencia
relativa de los datos es simétrico. Pero esto no se afirma; quizá todas las
observaciones fuera del intervalo (675,775) sean menores que 75. Por lo tanto, la
declaración (5) podría no ser correcta.
La declaración (4) es definitivamente correcta y la declaración (4) implica declaración
(6): incluso si cada medición que está fuera del intervalo (675,775) es menor que
675 (lo cual es concebible, ya que no se sabe que la simetría se mantenga), aun así,
en la mayoría 25% de todas las observaciones son menores que 675. Por lo tanto, la
declaración (6) debe ser definitivamente correcta.
2.6.2. Regla Empírica
Esta regla en las estadísticas sugiere que cada dato que se puede observar caerá bajo
tres desviaciones estándar diferentes de la media en una distribución normal. También
podrías conocer la regla empírica como la regla 68-95-99.7 o la regla de los tres
dígitos.
De acuerdo con la regla, el 68% de los datos caerán en la primera desviación estándar,
el 95% caerán en la primera y la segunda desviación y el 99,7% de los datos caerán en
las tres desviaciones:
68% – (µ ± σ),
95% – (µ ± 2σ)
99,7% – (µ ± 3σ)
Si tenemos una distribución normal de los datos en un gráfico en el eje x, la curva de
campana estará en el centro. La primera desviación estándar incluye la mitad positiva
(µ + σ) y la mitad negativa (µ – σ). Ambas mitades de la primera desviación estándar
serán colectivamente el 68%, pero si sólo consideramos la mitad positiva, sería el 34%,
y la mitad negativa sería la misma. De forma similar, si consideramos la segunda
desviación estándar, podemos añadir la mitad positiva de la primera y segunda
desviación con el lado negativo de ambas desviaciones, lo que hace que esté completa
en un 95%. El fenómeno será el mismo también en la tercera desviación.
Unidad 3. Análisis Combinatorio
3.1. Principios Fundamentales
Consideraremos ahora el caso cuando el experimento aleatorio es tal que su espacio
muestral es un conjunto finito, y cada elemento de este conjunto tiene la misma
probabilidad de ocurrir, es decir, cuando el espacio Ω es finito y equiprobable. En estos
casos, hemos definido la probabilidad clásica de un evento 𝐴 de la siguiente forma 𝑃(𝐴)
= #𝐴/#Ω. Para poder aplicar esta definición m, necesitamos saber contar cuántos
elementos tiene un evento 𝐴 cualquiera. Cuando podemos poner en una lista de todos
y cada uno de los elementos de dicho conjunto, entonces es fácil conocer la
cardinalidad de 𝐴, simplemente contamos todos los elementos uno por uno. Sin
embargo, es común enfrentar situaciones en donde no es factible escribir en una lista
cada elemento de 𝐴. Por ejemplo: ¿Cuántos números telefónicos existen que
contengan por lo menos un cinco? Es poco factible que alguien intente escribir uno a
uno todos estos números telefónicos. En las siguientes secciones, estudiaremos
algunas técnicas de conteo que nos ayudarán a calcular la cardinalidad de un evento 𝐴
en ciertos casos particulares. El principio de multiplicación que enunciamos a
continuación es la base de muchos de los cálculos en las técnicas de conteo.
3.1.1. Principio De Multiplicación
Si un procedimiento 𝐴1 puede efectuarse de 𝑛 formas distintas y un segundo
procedimiento 𝐴2 puede realizarse de 𝑚 formas en que puede efectuarse el primer
procedimiento seguido del segundo, es el producto 𝑛 ∙ 𝑚, es decir, # (𝐴1 × 𝐴2) = #𝐴1 ∙
#𝐴1 . Para ilustrar este resultado considere lo siguiente. Ejemplo: Suponga que un
cierto experimento aleatorio consiste en seleccionar un dado y después seleccionar al
azar una letra del alfabeto. ¿Cuál es la cardinalidad del correspondiente espacio
muestral? El experimento de lanzar un dado tiene 6 resultados posibles y
consideremos que tenemos un alfabeto de 26 letras. El correspondiente espacio
muestral tiene entonces cardinalidad 6 × 26 = 156. El principio de multiplicación es
válido no solamente para dos procedimientos, sino que también vale para cualquier
sucesión finita de procedimientos. Por ejemplo: Si 𝐴1, 𝐴2, …, 𝐴𝑘 denotan 𝑘
procedimientos sucesivos, entonces este principio se puede enunciar en símbolos de la
forma siguiente:
# (𝐴1 × 𝐴2 × ⋯ × 𝐴𝑘) = #𝐴1 ⋯ #𝐴𝑘.
Vamos a considerar a continuación diferentes esquemas y contextos, en donde es
posible encontrar una fórmula matemática para ciertos problemas de conteo. En todos
ellos, aplicaremos el principio de multiplicación. El esquema general es el de extraer al
azar 𝑘 objetos, uno a la vez, de una urna con 𝑛 objetos distintos.
3.1.2. Principio De Adición
El principio de adición + nos permite saber de cuántas maneras diferentes pueden
darse la unión de varios sucesos (voy a utilizar en esta entrada una notación orientada
hacia el cálculo de sucesos y probabilidad).
La definición de este principio para dos conjuntos diferentes (en nuestro ejemplo una
caja con calcetines y otra con las vocales) es la siguiente:
Sean y son dos sucesos que no pueden ocurrir simultáneamente (en nuestro
ejemplo, elegir un pañuelo o una vocal). Si el suceso ocurre de maneras distintas y
el de maneras distintas, entonces el suceso o el se podría ocurrir de
maneras distintas, Se puede generalizar fácilmente a sucesos (conjuntos) siempre y
cuando sean independientes (disjuntos).
Si los sucesos no fueran independientes, deberíamos utilizar el principio de inclusión-
exclusión que te explico en otra entrada.
Sean conjuntos finitos, tales que para cada y
con . Entonces se verifica que:
3.2. Ordenaciones, Permutaciones Y Combinaciones
¿Que son los métodos de conteo?
Son estrategias utilizadas para determinar el número de posibilidades diferentes que
existen al realizar un experimento.
Ejemplo:
El lanzamiento de un dado veremos cuantas posibilidades hay de que salga un numero
a favor, si tienen 6 caras los dados, cuál sería la posibilidad de que saliera un cierto
número.
Entonces para contar el número de casos favorables posibles y ver cuantas
combinaciones diferentes se pueden tener hay 3 métodos a emplear y son:
-Ordenaciones
-Permutaciones
-Combinaciones
3.2.1. Ordenaciones
Un diagrama de árbol o método de ordenamiento es una herramienta que se utiliza
para determinar todos los posibles resultados de un experimento aleatorio.
En el cálculo de la probabilidad se requiere conocer el número de elementos que
forman parte del espacio muestral, estos se pueden determinar con la construcción del
diagrama de árbol.
El diagrama de árbol es una representación gráfica de los posibles resultados del
experimento, el cual consta de una seria de pasos donde cada uno de dichos pasos
tiene un número finito de maneras de ser llevados a cabo. Se utiliza en los problemas
de conteo y probabilidad.
3.2.2. Permutaciones
Consiste en multiplicar en todo momento cada dato que te pueda dar y sirve para hallar
formulas generales que permitan calcular el número de permutaciones con y
sin repetición.
Hay 2 tipos de permutaciones:
1) Se repite
2) No se repite
Ejemplo sin repetición:
¿De cuantas formas diferentes se pueden ordenar las letras de la palabra impureza?
Solución:
Se tienen 8 letras diferentes y las vamos a ordenar en diferentes formas, tendremos 8
posibilidades de escoger la primera letra para nuestro arreglo, una vez usada una, nos
quedan 7 posibilidades de escoger una segunda letra, y una vez que hayamos usado
todos, nos quedan 6, así sucesivamente hasta agotarlas, en total tenemos:
8*7*6*5*4*3*2*1= 40320
3.2.3. Combinaciones
Es un arreglo de elementos en donde no nos interesa el lugar o posición que ocupan
los mismos dentro del arreglo, aquí nos interesa formar grupos y el contenido de los
mismos, recordemos que lo importante es el número de agrupaciones diferentes de
objetos que pueden incurrir sin importar su orden, por lo tanto en las combinaciones se
busca el número de subgrupos diferentes que pueden tomarse a partir de objetos si el
orden de los objetos no es importante, a cada resultado se denomina combinación.
Ejemplo:
Si se requiere formar un equipo de trabajo formado por dos personas seleccionadas de
un grupo de 3 (A, B Y C), si en el equipo hay 2 funciones diferentes entonces sí importa
el orden, los resultados serán permutaciones, por el contrario si en el equipo no hay
funciones definidas, entonces no importa el orden y los
resultados serán combinaciones los resultados en ambos casos son los siguientes:
Permutaciones: AB, AC, BA, CA, BC, CB
Combinaciones: AB, CA, BC
Combinaciones, es el número de formas de seleccionar “z” objetos de un grupo de “n”
objetos sin importar el orden.
Unidad 4. Teoría De La Probabilidad
La teoría de la probabilidad es una rama de las matemáticas que estudia
los fenómenos aleatorios y estocásticos. Los fenómenos aleatorios se contraponen a
los fenómenos deterministas, los cuales son resultados únicos y/o previsibles de
experimentos realizados bajo las mismas condiciones determinadas, por ejemplo, si se
calienta agua a 100 °C a nivel del mar se obtendrá vapor. Los fenómenos aleatorios,
por el contrario, son aquellos que se obtienen de experimentos realizados, otra vez,
bajo las mismas condiciones determinadas, pero como resultado posible poseen un
conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de una moneda.
La teoría de probabilidades se ocupa de asignar un cierto número a cada posible
resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos
resultados y saber si un suceso es más probable que otro.
Muchos fenómenos naturales son aleatorios, pero existen algunos como el lanzamiento
de un dado, donde el fenómeno no se repite en las mismas condiciones, debido a que
las características del material hacen que no exista una simetría del mismo, así las
repeticiones no garantizan una probabilidad definida. En los procesos reales que se
modelizan mediante distribuciones de probabilidad corresponden a modelos complejos
donde no se conocen a priori todos los parámetros que intervienen; ésta es una de las
razones por las cuales la estadística, que busca determinar estos parámetros, no se
reduce inmediatamente a la teoría de la probabilidad en sí.
En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas
para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la
medida, desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.
Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la
cual obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió
la rigorización de muchos argumentos ya utilizados, así como el estudio de problemas
fuera de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra
aplicación en las más variadas ramas del conocimiento, como puede ser
la física (donde corresponde mencionar el desarrollo de las difusiones y el movimiento
Browniano), o la economía (donde destaca el modelo de Black-Scholes para la
valoración de activos financieros).
4.1. Probabilidad Subjetiva Y Probabilidad Frecuencial
La diferencia entre la probabilidad subjetiva y la probabilidad frecuencial es que la
probabilidad subjetiva se basa en la intuición de un experto, en cambio, la probabilidad
frecuencial se basa en hacer un experimento y medir la frecuencia con la que se repite
un evento.
Por ejemplo, si queremos averiguar la probabilidad de que un jugador de baloncesto
anote un tiro, podemos analizar estadísticamente el número de aciertos que tuvo
durante la temporada pasada y sacar la probabilidad de acierto a partir de los datos
recopilados.
En este caso, estamos utilizando la frecuencia con la que anotó un tiro para averiguar
la probabilidad de ocurrencia del evento, por lo que se trata de una probabilidad
frecuencial.
4.2. Espacio Muestral Y Eventos
El espacio muestral y los eventos son dos conceptos diferentes. El espacio muestral es
el conjunto de todos los posibles resultados de un experimento aleatorio, en cambio,
los eventos (o sucesos) son cada uno de los posibles resultados del experimento.
Por lo tanto, todo el conjunto de eventos o sucesos posibles forman el espacio muestral
del experimento.
Por eso a veces al espacio muestral también se le llama espacio de eventos.
4.2.1. Probabilidad Simple (Marginal)
La probabilidad simple es la probabilidad de que ocurra un evento simple del espacio
muestral.
La probabilidad simple es un valor entre 0 y 1. De manera que cuanto más probable
sea de que ocurra un evento determinado, mayor será la probabilidad simple de dicho
evento. Y al revés, cuanto menos probable sea de que suceda un evento, menor será
su probabilidad simple.
La probabilidad simple también se llama probabilidad marginal.
La fórmula de la probabilidad simple es igual al número de casos favorables de un
experimento dividido entre el número total de posibles resultados del experimento.
Es la llamada regla de Laplace. Hay que tener presente que esta fórmula solo se puede
usar si todos los eventos del espacio muestral tienen la misma probabilidad de
ocurrencia, es decir, es un espacio muestral equiprobable.
4.2.2. Probabilidad Conjunta
La probabilidad conjunta es una medida estadística que indica la probabilidad de que
dos sucesos ocurran al mismo tiempo.
La probabilidad conjunta es un número entre 0 y 1. Cuanto más grande sea la
probabilidad conjunta, más probable será de que dos eventos ocurran
simultáneamente, y al contrario, cuanto menor sea la probabilidad conjunta, menos
probable será que los dos eventos sucedan a la vez.
La probabilidad conjunta de dos eventos A y B es igual al producto de la probabilidad
del evento A por la probabilidad del evento B.
Por lo tanto, la fórmula para calcular la probabilidad conjunta de dos sucesos diferentes
es la siguiente:
De modo que la probabilidad conjunta de dos eventos distintos es equivalente a la
intersección de dichos eventos. Sin embargo, debes tener en cuenta que esta fórmula
solo puedes utilizarla si son dos eventos independientes, de lo contrario, debes usar
la fórmula de la probabilidad condicional.
Además, la probabilidad conjunta de dos sucesos siempre será menor que la
probabilidad de ocurrencia de cada evento por separado.
4.3. Regla De La Adición Y Multiplicación
Existen tres reglas fundamentales para resolver problemas en donde se desea
determinar la probabilidad de un suceso sí se conocen
las probabilidades de otros sucesos que están relacionados con él.
Estas dos reglas son: Regla de la adición, probabilidad condicional y regla de la
multiplicación o Probabilidad Conjunta.
Existe otra regla muy importante que es El Teorema de Bayes, pero en esta
Unidad dedicaremos un aparte especial a ella.
Regla de la Adición:
Esta regla expresa la probabilidad de que ocurran dos o más sucesos a la vez, P(AUB).
Puede presentarse de dos formas: para conjuntos con intersección y para conjuntos
mutuamente excluyentes. Veamos:
Para conjuntos con Intersección:
Esto se debe a que sumamos la probabilidad de A más la probabilidad de B,
pero como ya habíamos sumado la intersección, entonces la restamos.
Para conjuntos con Mutuamente excluyentes:
En este caso, no hay ningún problema en sumar ambas probabilidades.
Ejemplo 1:
Se lanzan un dado. Usted gana $3000 pesos si el resultado es par o divisible por tres
¿Cuál es la probabilidad de ganar?
Lo que primero hacemos es definir los sucesos:
Sea A = resultado par: A = {2, 4, 6}
Sea B = resultado divisible por 3: B = {3, 6}. ¿Ambos sucesos tienen intersección?
A∩ B = {3} luego,
P (A U B) = 3/6+2/6-1/6= 4/6= 2/3.
La regla de la multiplicación es un proceso que se ocupa cuando se quiere calcular la
probabilidad de que 2 o más sucesos pasen al mismo tiempo, usando un diagrama de
Venn para representar a las probabilidades se puede observar de manera grafica lo
que se encuentra usando la regla de la multiplicación.
Regla de la Multiplicación
Como se puede observar en la imagen anterior lo que se busca con la regla de la
multiplicación es la intersección entre 2 o más sucesos de un mismo espacio muestral,
escrito matemáticamente sería “p (a n b)” que quiere decir “la probabilidad de ‘a’
intersección ‘b’”.
4.4. Probabilidad Condicional
La probabilidad condicional, o probabilidad condicionada, es la posibilidad de que
ocurra un evento, al que denominamos A, como consecuencia de que ha tenido lugar
otro evento, al que denominamos B.
Es decir, la probabilidad condicional es aquella que depende de que se haya cumplido
otro hecho relacionado.
Si tenemos un evento, que denominamos A, condicionado a otro evento, al cual
denominamos B, la notación sería P(A|B) y la fórmula sería la siguiente:
P(A|B) =P (A ∩ B) /P(B)
Es decir, en la fórmula de arriba se lee que la probabilidad de que suceda A, dado que
ha acontecido B, es igual a la probabilidad de que ocurra A y B, al mismo tiempo, entre
la probabilidad de B.
Lo opuesto a la probabilidad condicional es la probabilidad independiente. Es decir,
aquella que no depende de la ocurrencia de otro evento.
4.4.1. Regla De La Multiplicación
La regla de la multiplicación o regla del producto, permite encontrar la probabilidad de
que ocurra el evento A y el evento B al mismo tiempo (probabilidad conjunta). Esta
regla depende de si los eventos son dependientes o independientes.
-Eventos dependientes
Dos eventos A y B son dependientes, si la ocurrencia de uno de ellos afecta la
ocurrencia del otro. Para eventos dependientes, la regla de la multiplicación establece
que:
-Eventos independientes
Dos eventos A y B son independientes, si la ocurrencia de uno de ellos no afecta la
ocurrencia del otro, es decir, cuando los eventos A y B no están relacionados. Para
eventos independientes, la regla de la multiplicación establece que:
Esto se debe, a que, en los eventos independientes, la ocurrencia de un evento, no
afecta a la ocurrencia del otro:
4.5. Tablas De Probabilidad Conjunta
Se define como tabla de probabilidad conjunta a aquella tabla la cual permite y muestra
la interacción de dos eventos y las probabilidades de que el resultado entre cualquiera
de las variables pase. Se llama de probabilidad conjunta debido a que cada uno de
estos valores da la probabilidad de la intersección de dos eventos, las probabilidades
se llaman probabilidades conjuntas. Estás nos ayudan concretamente para poder
visualizar un problema y poder realizar las probabilidades de dichos eventos, nos
proporciona un resumen de la información de estos eventos y probabilidad. De aquí
surgen las tablas de contingencia, las cuales se utilizan para clasificar el número de
observaciones respecto a dos características o variables.
4.5.1. Probabilidad Marginal
La probabilidad marginal es una medida estadística que indica la probabilidad de que
ocurra un subconjunto del conjunto total.
La probabilidad marginal es un número entre 0 y 1. De manera que cuanto más grande
sea la probabilidad marginal de un subconjunto, más probable será de que suceda
dicho subconjunto, por contra, cuanto menor sea la probabilidad marginal menos
probable será que ocurra el subconjunto.
4.6. Teorema De Bayes
El teorema de Bayes es utilizado para calcular la probabilidad de un suceso, teniendo
información de antemano sobre ese suceso.
Podemos calcular la probabilidad de un suceso A, sabiendo además que ese A cumple
cierta característica que condiciona su probabilidad. El teorema de Bayes entiende la
probabilidad de forma inversa al teorema de la probabilidad total.
El teorema de la probabilidad total hace inferencia sobre un suceso B, a partir de los
resultados de los sucesos A. Por su parte, Bayes calcula la probabilidad de A
condicionado a B.
El teorema de Bayes ha sido muy cuestionado. Lo cual se ha debido, principalmente, a
su mala aplicación. Ya que, mientras se cumplan los supuestos de sucesos disjuntos y
exhaustivos, el teorema es totalmente válido.
Para calcular la probabilidad tal como la definió Bayes en este tipo de sucesos,
necesitamos una fórmula. La fórmula se define matemáticamente como:
Donde B es el suceso sobre el que tenemos información previa y A(n) son los distintos
sucesos condicionados. En la parte del numerador tenemos la probabilidad
condicionada, y en la parte de abajo la probabilidad total. En cualquier caso, aunque la
fórmula parezca un poco abstracta, es muy sencilla. Para demostrarlo, utilizaremos un
ejemplo en el que en lugar de A (1), A (2) y A (3), utilizaremos directamente A, B y C.
Unidad 5. Distribuciones De Probabilidad
Una distribución de probabilidad es una función que define la probabilidad de
ocurrencia de cada valor de una variable aleatoria. Es decir, una distribución de
probabilidad es una función matemática que describe las probabilidades de todos los
posibles resultados de un experimento aleatorio.
Por ejemplo, sea X una variable aleatoria que indica el resultado del lanzamiento de
una moneda («cara» o «cruz»), la distribución de probabilidad de X vale 0,5 en cada
uno de sus resultados, ya que la probabilidad de obtener «cara» es del 50% y la
probabilidad de obtener «cruz» también es del 50%.
Por lo tanto, las distribuciones de probabilidad se usan frecuentemente en la teoría de
la probabilidad y estadística, ya que sirven para calcular las probabilidades de los
diferentes eventos de un espacio muestral.
5.1. Variables Aleatorias, Discretas Y Continuas
Una variable aleatoria es una función que asigna un valor numérico, al resultado de
un experimento aleatorio. Una variable aleatoria puede ser discreta o continua. Las
variables aleatorias discretas son aquellas que presentan un número contable de
valores; por ejemplo, el número de personas que viven en una casa (pueden ser 3, 5 o
9). Las variables aleatorias continuas son aquellas que presentan un número incontable
de valores; por ejemplo, el peso de las vacas en una granja (una vaca puede pesar
632,12 kg, otra puede pesar 583, 12312 kg, otra 253, 12012 kg, otra 198, 0876 kg y
nunca terminaríamos de enumerar todos los posibles valores).
Como estas definiciones son muy difíciles de entender a simple vista, vamos a
explicarlas a detalle.
-Variable Aleatoria
Una variable aleatoria es una función que asigna un valor numérico, al resultado de un
experimento aleatorio. Recordemos que el resultado de un experimento aleatorio
depende del azar.
Ten en cuenta que la variable aleatoria siempre va con letras mayúsculas (en este caso
X), mientras que los valores de su rango siempre con letras minúsculas.
En el dominio de la función tenemos el espacio muestral, es decir, todos los resultados
posibles de nuestro experimento aleatorio. Mientras que el rango tenemos un conjunto
de números reales.
- Variable Aleatoria Discreta
Una variable aleatoria discreta es aquella que puede asumir un número contable de
valores.
Por ejemplo, si realizamos el experimento de salir a calle y seleccionar 10 personas al
azar para un examen sorpresa de matemáticas, podemos definir la variable aleatoria A:
A = número de personas que aprobaron el examen.
Los valores que asume A (en su rango), van del 0 al 10 (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10).
El rango lo expresaríamos de la siguiente manera:
RA = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10}
La variable aleatoria A asume un número contable de valores, por ello, es una variable
aleatoria discreta.
- Variable Aleatoria Continua
Una variable aleatoria continua, es aquella que puede asumir un número incontable de
valores.
Por ejemplo, si realizamos el experimento de ir a mi granja y estudiamos las
características de las vaquitas, podemos definir la variable aleatoria C:
B = peso de una vaca en la granja de Jorge (en kilogramos).
Alguna vaquita puede pesar 425,1872 kg; otra puede pesar 612,5874541 kg; otra
puede pesar 545,897512121 kg. Si tomamos más vacas, podríamos tener más valores
y nunca terminaríamos.
Se conoce que el becerro más pequeño tiene un peso de 30 kg, y la vaca más grande
tiene un peso de 1000 kg.
Y así, tendríamos un número incontable de valores para el rango de esta variable. El
rango de esta variable puede ser cualquier valor dentro del intervalo que va desde 30
kg hasta 1000 kg.
Por ello, se trata de una variable aleatoria continua.
5.2. Distribuciones De Probabilidad De Variable Discreta
Una distribución de probabilidad discreta es aquella distribución que define las
probabilidades de una variable aleatoria discreta. Por lo tanto, una distribución de
probabilidad discreta solo puede tomar un número finito de valores (generalmente
enteros).
Por ejemplo, la distribución binomial, la distribución de Poisson y la distribución
hipergeométrica son distribuciones de probabilidad discretas.
En una distribución de probabilidad discreta se asocia cada valor de la variable discreta
que representa (xi) a un valor de probabilidad (pi) que va desde 0 hasta 1. De manera
que la suma de todas las probabilidades de una distribución discreta da como resultado
uno.
Ejemplos de distribuciones de probabilidad discretas:
-El número de veces que se obtiene el número 5 al lanzar un dado 30 veces.
-El número de usuarios que entran en una página web durante un día.
-El número de alumnos que han conseguido aprobar de un total de 50 alumnos que
hacen un examen.
-El número de unidades defectuosas de una muestra de 100 productos.
-El número de veces que una persona debe hacer el examen de conducir hasta
conseguir aprobarlo.
5.3. Distribución Binomial Y Distribución De Poisson
-Distribución Binomial
La distribución binomial es muy apropiada para describir situaciones en las que un
evento se produce o no se produce. Si se produce es un éxito y si no, entonces es un
fracaso. Además, la probabilidad de éxito debe mantenerse siempre constante.
La distribución binomial es una distribución de probabilidades mediante la cual se
calcula la probabilidad de ocurrencia de eventos, siempre que se presenten bajo dos
modalidades: éxito o fracaso.
Estas denominaciones (éxito o fracaso) son completamente arbitrarias, ya que no
necesariamente significan cosas buenas o malas. Durante este artículo indicaremos la
forma matemática de la distribución binomial y luego se explicará con detalle el
significado de cada término.
-Ecuación
La ecuación es la siguiente:
Con x = 0, 1, 2, 3…n, donde:
– P(x) es la probabilidad de tener exactamente x éxitos entre n intentos o ensayos.
– x es la variable que describe al fenómeno de interés, correspondiente al número de
éxitos.
– n el número de intentos
– p es la probabilidad de éxito en 1 intento
– q es la probabilidad de falla en 1 intento, por lo tanto, q = 1 – p
El símbolo de admiración “!” se utiliza para la notación factorial, de modo que:
0! = 1
1! = 1
2! = 2.1 = 2
3! = 3.2.1 = 6
4! = [Link] = 24
5! = [Link].1 = 120
Y así sucesivamente.
-Distribución de Poisson
La distribución de Poisson es una distribución de probabilidad que define la
probabilidad de que ocurra un determinado número de eventos durante un período de
tiempo.
Es decir, la distribución de Poisson sirve para modelizar variables aleatorias que
describen el número de veces que se repite un fenómeno en un intervalo de tiempo.
La distribución de Poisson tiene un parámetro característico, que se representa con la
letra griega λ e indica el número de veces que se espera que ocurra el evento
estudiado durante un intervalo dado.
En general, la distribución de Poisson se usa para modelizar estadísticamente sucesos
cuya probabilidad de ocurrencia es muy baja. Más abajo puedes ver varios ejemplos de
este tipo de distribución de probabilidad.
En una distribución de Poisson, la probabilidad de que ocurran x eventos es igual al
número e elevado a -λ multiplicado por λ elevada a x y dividido por el factorial de x.
Por lo tanto, la fórmula para calcular una probabilidad de una distribución de Poisson es
la siguiente:
5.4. Distribuciones De Probabilidad De Variable Continua
Una distribución de probabilidad continua es una distribución cuya función de
distribución es continua. Por lo tanto, una distribución de probabilidad continua define
las probabilidades de una variable aleatoria continua.
Por ejemplo, la distribución normal y la distribución t de Student son distribuciones de
probabilidad continuas.
Una de las características de las distribuciones de probabilidad continuas es que
pueden tomar cualquier valor dentro de un intervalo. De modo que, a diferencia de las
distribuciones de probabilidad discretas, las distribuciones de probabilidad continuas
pueden tomar valores decimales.
En las distribuciones continuas, para calcular una probabilidad acumulada se debe
hallar el área bajo la curva de la distribución, por lo que en este tipo de distribuciones
de probabilidad la función de probabilidad acumulada es equivalente a la integral de
la función de densidad.
5.5. Distribución Normal Y Distribución Exponencial
-Distribución Normal
La distribución normal es un modelo teórico capaz de aproximar satisfactoriamente el
valor de una variable aleatoria a una situación ideal.
En otras palabras, la distribución normal adapta una variable aleatoria a una función
que depende de la media y la desviación típica. Es decir, la función y la variable
aleatoria tendrán la misma representación pero con ligeras diferencias.
Una variable aleatoria continua puede tomar cualquier número real. Por ejemplo, las
rentabilidades de las acciones, los resultados de un examen, el coeficiente de
inteligencia IQ y los errores estándar son variables aleatorias continuas.
Una variable aleatoria discreta toma valores naturales. Por ejemplo, el número de
estudiantes en una universidad.
La distribución normal es la base de otras distribuciones como la distribución t de
Student, distribución ji-cuadrada, distribución F de Fisher y otras distribuciones.
-Ecuación
Dada una variable aleatoria X, decimos que la frecuencia de sus observaciones puede
aproximarse satisfactoriamente a una distribución normal tal que:
Variable aleatoria X aproximada a una distribución normal.
Donde los parámetros de la distribución son la media o valor central y la desviación
típica:
Parámetros de una distribución normal.
En otras palabras, estamos diciendo que la frecuencia de una variable aleatoria X
puede representarse mediante una distribución normal.
-Distribución Exponencial
La distribución exponencial es un modelo probabilístico para variables aleatorias
continuas. Esto significa que, a través de él, se puede conocer la probabilidad de
ocurrencia de un determinado valor de la variable, por lo que es una distribución de
probabilidad.
Para obtener la distribución, se parte de una función de densidad, la cual tiene forma
exponencial de parámetro λ > 0:
La función de densidad como tal no permite calcular la probabilidad, pero una vez
establecida f(x), la función de distribución F(x), mediante la cual se obtienen las
probabilidades, se obtiene mediante integración de f(x). Por ejemplo, la probabilidad P
de que la variable aleatoria tome valores comprendidos entre 0 y x es:
Llevando a cabo la integración, que es muy sencilla, pues la integral de una
exponencial es la misma exponencial, salvo por las constantes que acompañan al
argumento, se obtiene:
La distribución exponencial se utiliza mucho para determinar la probabilidad de que
ocurra un evento tras un determinado tiempo de espera, como por ejemplo el tiempo
que transcurre en la emergencia de un hospital antes de que llegue un paciente.
Con frecuencia, los eventos se refieren a la falla o avería de componentes eléctricos,
electrónicos y de otros tipos. En tal caso, la distribución exponencial ayuda a estimar el
tiempo que tarda un componente en fallar, y también el tiempo transcurrido entre
reparaciones. A esto se le conoce como teoría de la fiabilidad.
5.6. Ley De Los Grandes Números
La ley de los grandes números es un teorema fundamental de la teoría de la
probabilidad que indica que si repetimos muchas veces (tendiendo al infinito) un mismo
experimento, la frecuencia de que suceda un cierto evento tiende a ser una constante.
Es decir, la ley de los grandes números señala que si se lleva a cabo repetidas veces
una misma prueba (por ejemplo, lanzar una moneda, tirar una ruleta, etc.), la frecuencia
con la que se repetirá un determinado suceso (que salga cara o sello, que salga el
número 3 negro, etc.) se acercará a una constante. Esta será a su vez la probabilidad
de que ocurra este evento.
-Origen de la ley de los grandes números
La ley de los grandes números fue mencionada por primera vez por el matemático
Gerolamo Cardamo, aunque sin contar con ninguna prueba rigurosa. Posteriormente,
Jacob Bernoulli logró hacer una demostración completa en su obra “Ars Conjectandi”
en 1713. En los años 1830’s el matemático Siméon Denis Poisson describió con detalle
la ley de los grandes números, lo que vino a perfeccionar la teoría. Otros autores
también harían aportaciones posteriores.
-Ejemplo de la ley de los grandes números
Supongamos el siguiente experimento: lanzar un dado común. Ahora consideremos el
evento de que nos salga el número 1. Como sabemos, la probabilidad de que salga el
número 1 es de 1/6 (el dado tiene 6 caras, una de ellas es el uno).
¿Qué nos dice la ley de los grandes números? Nos indica que a medida que vamos
aumentando el número de repeticiones de nuestro experimento (hacemos más
lanzamientos del dado), la frecuencia con la que se repetirá el evento (nos sale 1) se
acercará cada más a una constante, que tendrá un valor igual a su probabilidad (1/6 o
16,66%).
Posiblemente, a los primeros 10 o 20 lanzamientos la frecuencia con que nos sale 1 no
será del 16%, sino otro porcentaje como 5% o 30%. Pero a medida que hacemos más
y más lanzamientos (digamos 10.000), la frecuencia en que aparece el 1 será muy
cercana al 16,66%.
En el siguiente gráfico vemos un ejemplo de un experimento real en donde se lanza un
dado repetidas veces. Acá podemos ver cómo se va modificando la frecuencia
relativa de sacar un determinado número.
Tal como indica la ley de los grandes números, en los primeros lanzamientos la
frecuencia es inestable, pero a medida que aumentamos el número de lanzamientos la
frecuencia tiende a estabilizarse a un cierto número que es la probabilidad de que
ocurra el suceso (en este caso números del 1 al 6 ya que se trata del lanzamiento de
un dado).
Unidad 6. Numero Índice
En general, las magnitudes socioeconómicas varían en el tiempo y en el espacio. Con
frecuencia estaremos interesados en hacer comparaciones de dichas magnitudes en
dos o más periodos de tiempo o en dos o más zonas geográficas. Por ejemplo, analizar
la evolución del PIB español en los últimos años, comparar el PIB de los países
europeos o, lo que es de más interés, estudiar la evolución de los precios de los
productos de consumo a lo largo del tiempo o comparar el nivel de desarrollo de los
países del mundo.
Un número índice, , es una medida estadística que recoge la evolución relativa en el
periodo t de una magnitud económica (precios, producciones, …) de un conjunto de
bienes o productos respecto de un periodo base o de referencia 0. También permite
comparar una magnitud económica en una zona geográfica respecto de una zona de
referencia. Por tanto, permiten comparar el estado de un fenómeno económico
(precios, producción, ...) en dos situaciones y es una herramienta imprescindible en los
estudios de coyuntura. Utilizaremos la notación de los índices temporales, cuyo uso es
más habitual que los espaciales, si bien los desarrollos se pueden generalizar en gran
medida a estos últimos.
-Período base o de referencia: período de tiempo fijado arbitrariamente que se toma
como origen de las comparaciones.
-Período actual o corriente: período de tiempo que se compara con el período base.
6.1. Tipos De Numero Índice
Según que recojan la evolución de una o más magnitudes:
Índices Simples
Recogen la evolución del precio, la cantidad o el valor de un único bien o producto.
Índices Compuestos, Complejos O Sintéticos
Recogen la evolución conjunta de los precios, las cantidades o los valores de k bienes
o productos.
A su vez, los índices complejos se clasifican como:
Sin Ponderar
Todas las magnitudes o componentes tienen la misma importancia, es decir, los
mismos pesos. Los k bienes o productos se consideran con el mismo peso.
Ponderados
Cada magnitud o componente tiene un peso diferente asignado en función de diversos
criterios. Los k bienes o productos se consideran con distinto peso, peso que recoge la
importancia relativa de cada uno de los bienes.
Simples
Números Sin Sauerbeck, Brandstreet-Dûtot,
índices Compuestos o ponderar …
complejos Laspeyres, Paasche,
Ponderados
Edgeworth, Fisher, …
Según el tipo de magnitud:
Índices De Precios
Estudian la evolución de los precios de un bien o de un conjunto de bienes.
Índices De Cantidades
Estudian la evolución de la cantidad producida o consumida de un bien o de un
conjunto de bienes.
Índices De Valores
Estudian la evolución del valor de un bien o de un conjunto de bienes.
Precios
Números índices Cantidades
Valores
6.1.1. Índice De Cantidad
Estudian la evolución de la producción o el consumo de un bien o de un conjunto de
bienes.
Índices simples
Sea la cantidad de un bien en el periodo t.
Índices de cantidades o cantidades relativas:
En la hoja adjunta se ilustra estos índices simples con datos sobre producciones (en
miles de toneladas) para España de tres tipos de cereales.
-Índices complejos
Sean y el precio y la cantidad del bien i-ésimo en el periodo t.
-Índices complejos sin ponderar
Índice de Sauerbeck
media aritmética de los índices simples del conjunto de bienes.
Índice de Bradstreet-Dûtot
media agregativa de las cantidades del conjunto de bienes.
También se puede expresar como la media aritmética ponderada de los índices simples
siendo las ponderaciones las cantidades de cada bien en el periodo base.
Índices complejos ponderados
Índice de Laspeyres
media agregativa de cantidades ponderadas por los precios del periodo base.
Como se puede observar por la última igualdad de la expresión anterior, el índice de
Laspeyres se puede expresar como una media aritmética ponderada de índices
simples de cantidades. La ponderación utilizada es la misma que para el índice de
precios, es decir, el valor de la cantidad producida (consumida) del bien i-ésimo en el
periodo base a precios de dicho periodo, .
Índice de Paasche
media agregativa de cantidades ponderadas por los precios del periodo corriente.
También el índice de Paasche se puede expresar como media aritmética ponderada de
índices simples de cantidades. En este caso la ponderación utilizada es el valor de la
cantidad producida (consumida) del bien i-ésimo en el periodo base a precios del
periodo corriente, .
Índice de Edgeworth
media agregativa de cantidades ponderadas por la suma (la media) de los precios del
periodo base y del periodo corriente.
También se puede expresar como media aritmética ponderada de índices simples de
cantidades, siendo la ponderación utilizada el valor de la cantidad del periodo base del
bien i-ésimo al precio resultante de la suma (la media) de los precios en el periodo base
y en el corriente, .
Índice de Fisher
media geométrica de los índices de Laspeyres y Paasche.
En la hoja adjunta se ilustran los índices de cantidades con datos sobre los precios
percibidos por los agricultores (en euros por 100 Kg.) y las producciones (en miles de
toneladas) de tres tipos de cereales para España.
6.1.2. Índice De Valor
Índices simples
Sean y el precio y la cantidad de un bien en el periodo t. El valor de un bien en un
período dado es el producto del precio de ese bien y de la cantidad
producida, , esto es, la cantidad valorada.
Índices de valores o valores relativos
En la hoja adjunta se ilustra estos índices simples con datos sobre los precios
percibidos por los agricultores (en euros por 100 Kg.) y las producciones (en miles de
toneladas) de tres tipos de cereales para España.
Índices complejos
Sean y el precio y la cantidad del bien i-ésimo en el periodo t. Dado que el valor
de un bien en un periodo cualquiera es el producto del precio de ese bien y la cantidad
producida (vendida o consumida), el valor del bien i-ésimo en el periodo t es
. De la misma forma, el valor del conjunto de bienes será
Al igual que los índices de precios y cantidades, el índice complejo de valor entre el
periodo 0 y el periodo t es el cociente entre el valor del conjunto de bienes en el
periodo t y el valor del conjunto de bienes en el periodo 0:
Como se observa en la última expresión, el índice complejo de valor es una media
agregativa de los índices simples de valor.
El índice de valor se puede obtener a partir del producto de los índices de Laspeyres y
de Paasche:
o bien,
También el producto del índice de precios y el de cantidades de Fisher proporciona el
índice de valor:
En la hoja adjunta se ilustran los índices de valor con datos sobre los precios percibidos
por los agricultores (en euros por 100 Kg.) y las producciones (en miles de toneladas)
de tres tipos de cereales para España.
6.1.3. Índice Agregado O Índice Simple
Es aquel que representa una comparación de un solo producto o mercancía en lo
individual y se calcula con las siguientes fórmulas, ya sea para el análisis de precios,
de cantidad o de valor.
Índices agregados de precios no ponderados
Índice de precios al consumidor (IPC)
Si de lo que se trata es de elaborar un índice de un grupo de artículos o mercancías,
entonces se trata de un número índice agregado o número índice compuesto.
Cuando se trata de elaborar un índice como estos para comparar el costo de un grupo
de artículos en dos diferentes períodos entonces simplemente se suman los costos de
esos artículos tanto para el caso del período base como para el período dado. Obtenido
así, se dice que se trata de un índice no ponderado porque el peso implícito de cada
artículo en el índice depende de las unidades en las que se basan los precios.
Ventas deflacionadas
El IPC también se puede usar como índice de precios para deflacionar las ventas, para
ello utiliza la siguiente fórmula:
Permite hacer cálculos acerca de la tasa de inflación y del coto de la vida.
Mensualmente, cierta cantidad de inspectores recopilan la información acerca del
precio de varios cientos de bienes y servicios llamados en su conjunto “canasta básica”
en una buena cantidad de establecimientos comerciales al menudeo y de casas
habitación.
6.1.4. Índice Compuesto
Índices compuestos, complejos o sintéticos: recogen la evolución conjunta de los
precios, las cantidades o los valores de k bienes o productos. A su vez, los índices
complejos se clasifican como:
Sin Ponderar
Todas las magnitudes o componentes tienen la misma importancia, es decir, los
mismos pesos. Los k bienes o productos se consideran con el mismo peso.
Ponderados
Cada magnitud o componente tiene un peso diferente asignado en función de diversos
criterios. Los k bienes o productos se consideran con distinto peso, peso que recoge la
importancia relativa de cada uno de los bienes.
6.2. Índices Ponderados
Un índice ponderado por fundamentales es un tipo de índice bursátil que se calcula
ponderando los valores constituyentes del índice según unos ratios fundamentales,
como por ejemplo las ventas, el valor de los activos, los flujos de caja, los dividendos o
el PER.
En el ejemplo de índice ponderado por ventas las empresas que tengan mayores
ventas tendrán una mayor proporción en el índice bursátil. Pueden estar basados en
varias medidas o en un solo ratio fundamental.
6.3. Índices De Precios Al Consumidor
El índice de precios al consumo (IPC) es un indicador que mide la variación de los
precios de una cesta de bienes y servicios en un lugar concreto durante un
determinado periodo de tiempo.
Este índice se utiliza para medir el impacto de las variaciones en los precios en el
aumento de coste de vida. Para ello selecciona productos concretos, que se asemejan
al consumo de una familia, como pueden ser determinados comestibles, calzado y
textil, carburantes, transportes y otros servicios. Una vez recopilada la información
realiza un seguimiento de sus precios durante un tiempo delimitado y concreto, que
suele ser trimestral y anual.
Son productos que se adquieren de manera habitual y que suponen el principal
desembolso de las familias en su consumo. Así pues, el IPC mide los cambios en los
precios de esta cesta cerrada de productos y servicios.
¿Cómo se interpreta el IPC?
Si durante el análisis este índice es positivo diremos que el IPC ha crecido. Es decir,
que el coste de vida se ha incrementado, ya que los productos de consumo básico han
sufrido un aumento en sus precios.
Y, al contrario, si el índice es negativo diremos que el IPC ha decrecido. Esto es, que el
coste de vida se ha reducido, puesto que los productos de consumo básico han
registrado una reducción en sus precios.
Recalcar que el IPC sirve para recoger los incrementos de los precios y del coste de
vida, por tanto, en ocasiones se suele confundir con la inflación. Aunque bien es cierto
que el IPC, al contar con una gran variedad de productos de diferentes sectores, puede
recoger en buena medida la inflación, es decir, el incremento de los precios.
Factores para construir el IPC
El IPC debe contar con dos rasgos fundamentales para que sea cierto:
Debe ser representativo y fiable, de forma que se seleccione una muestra
representativa y ponderada de todos los productos y servicios de los principales
consumidores.
Debe ser medible y comparable en tiempo y espacio, esto es, que se pueda asemejar y
comparar con la misma medida en diferentes tramos de tiempo y además sea
semejante al resto de países.
Como prueba de lo anterior surge el IPC Armonizado (IPCA), que se utiliza escogiendo
los mismos productos y servicios en todos los países para un mismo tipo de población,
ya que el IPC normal varía en función de los patrones de consumo de los diferentes
países, y resulta más difícil compararlos.