REPÚBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL
PODER POPULAR PARA LA DEFENSA UNIVERSIDAD
NACIONAL EXPERIMENTAL POLITÉCNICA DE LA FUERZA
ARMADA NACIONAL BOLIVARIANA UNEFA-NÚCLEO
VARGAS
INGENIERÍA EN SISTEMAS, SEMESTRE 3, SECCIÓN 2.
TRABAJO DE INVESTIGACIÓN
Profesor: Alumnos Y Cedula de identidades:
Alays Diaz. Victor Aparicio.
31531140 Andrea Pimenta.
30824673
Catia la Mar 29 de mayo del 2025.
Introducción.
La teoría de la probabilidad es una rama fundamental de las matemáticas
que se ocupa del análisis de fenómenos aleatorios. En este contexto, las
variables aleatorias juegan un papel crucial, ya que permiten modelar y
cuantificar la incertidumbre inherente a diversos procesos. A medida que
avanzamos en el estudio de la probabilidad, es esencial comprender no solo
las variables aleatorias unidimensionales, sino también aquellas que
interactúan en dimensiones superiores. Esta comprensión se logra a través
del estudio de variables aleatorias bidimensionales y sus propiedades, que
son fundamentales para el análisis estadístico y la inferencia.
La Unidad 3 de este curso se centra en las variables aleatorias
bidimensionales, comenzando con la función de densidad conjunta. Esta
función describe la probabilidad de que dos variables aleatorias tomen
valores específicos simultáneamente. A partir de esta función, se pueden
derivar las funciones de densidad marginal, que permiten analizar cada
variable de forma independiente. Además, se introduce la función de
densidad condicional, que proporciona información sobre la probabilidad de
una variable dado un valor específico de la otra. Este concepto es esencial
para entender la relación entre variables y se complementa con el cálculo del
valor esperado condicional, que permite estimar el promedio de una variable
bajo condiciones específicas.
2
Otro aspecto importante que se aborda en esta unidad es la independencia
de las variables aleatorias. Dos variables son independientes si el
conocimiento del valor de una no afecta la probabilidad de la otra. Este
concepto es fundamental en la teoría de probabilidades, ya que simplifica el
análisis de sistemas complejos. Además, se explora la esperanza
matemática de funciones de varias variables aleatorias, lo que permite
extender el concepto de esperanza a situaciones más complejas.
Finalmente, se presenta la extensión al caso n-dimensional, que generaliza
los conceptos discutidos a un número arbitrario de variables aleatorias.
La Unidad 4 se dedica a las distribuciones de probabilidad, que son
herramientas esenciales para modelar fenómenos aleatorios. Se inicia con
las distribuciones de variables aleatorias discretas, que describen situaciones
donde los resultados son contables. La distribución binomial es una de las
más importantes en este contexto, ya que modela el número de éxitos en
una serie de ensayos independientes. Se estudian su esperanza matemática
y varianza, que son parámetros clave para entender la dispersión y el
comportamiento de la distribución.
La distribución de Poisson es otra distribución discreta relevante, que se
utiliza para modelar el número de eventos que ocurren en un intervalo fijo de
tiempo o espacio. Al igual que con la distribución binomial, se analizan su
esperanza y varianza. La distribución geométrica y la distribución
hipergeométrica también se examinan en esta unidad, cada una con sus
propias características y aplicaciones.
3
A continuación, se aborda el estudio de las distribuciones de variables
aleatorias continuas, que son fundamentales para modelar fenómenos donde
los resultados pueden tomar cualquier valor en un intervalo. La distribución
uniforme es un caso especial donde todos los resultados son igualmente
probables, mientras que la distribución exponencial se utiliza para modelar el
tiempo entre eventos en un proceso de Poisson. La distribución gamma se
presenta como una generalización de la exponencial, y se estudian sus
propiedades, incluyendo la esperanza y varianza.
La distribución normal, quizás la más conocida y utilizada en estadística, se
analiza en detalle debido a su importancia en la teoría de la probabilidad y su
aparición en diversas aplicaciones del mundo real. La normalidad de los
datos es un supuesto común en muchos métodos estadísticos, y comprender
sus propiedades es esencial para la correcta interpretación de los resultados.
Finalmente, la Unidad 5 se centra en conceptos fundamentales como la Ley
de los Grandes Números y el Teorema del Límite Central. La Ley de los
Grandes Números establece que, a medida que el número de ensayos
aumenta, la media de los resultados se aproxima a la esperanza matemática.
Este principio es fundamental en la inferencia estadística, ya que justifica el
uso de muestras para hacer inferencias sobre poblaciones. Por otro lado, el
Teorema del Límite Central es un pilar de la estadística que establece que la
suma de un número suficientemente grande de variables aleatorias
independientes y idénticamente distribuidas se distribuye aproximadamente
de manera normal, independientemente de la forma de la distribución
original. Este teorema es crucial para la construcción de intervalos de
confianza y pruebas de hipótesis.
4
En resumen, el estudio de las variables aleatorias y las distribuciones de
probabilidad es esencial para comprender y modelar la incertidumbre en
diversos contextos. A través de la exploración de conceptos como la función
de densidad conjunta, las distribuciones discretas y continuas, así como los
teoremas fundamentales de la probabilidad, se proporciona una base sólida
para el análisis estadístico. Estos temas no solo son relevantes en el ámbito
académico, sino que también tienen aplicaciones prácticas en campos como
la economía, la ingeniería, la biología y las ciencias sociales, donde la toma
de decisiones informadas se basa en la comprensión de la variabilidad y la
incertidumbre.
El dominio de estas herramientas permite a los investigadores y
profesionales realizar análisis más precisos y fundamentados, facilitando la
interpretación de datos y la formulación de conclusiones válidas. A medida
que avanzamos en el estudio de la teoría de la probabilidad, es fundamental
integrar estos conceptos y aplicarlos a problemas del mundo real, lo que
enriquecerá nuestra comprensión y capacidad para abordar situaciones
complejas. La interrelación entre las diferentes distribuciones y sus
propiedades proporciona un marco robusto para el análisis de datos,
permitiendo a los analistas desarrollar modelos predictivos y realizar
inferencias significativas.
5
Índice.
INDICE
Introducción.____________________________________________________
Índice.__________________________________________________________
Desarrollo_______________________________________________________
UNIDAD 2. VARIABLES ALEATORIAS Y FUNCIÓN DE PROBABILIDAD
______________________________________________________________
2.1. Definición de variable aleatoria.
2.2. Variables aleatorias discretas.
2.3. Función de probabilidad de una variable aleatoria discreta.
2.4. Variables aleatorias continuas.
2.5. Función de densidad de una variable aleatoria continua.
2.6. Función de distribución para variables continuas
Variables discretas y continuas.
2.7. Definición de esperanza matemática para variables discretas y continuas
2.8. Propiedades de la esperanza matemática.
2.9. Varianza de una variable aleatoria.
2.10. Momentos de una variable aleatoria.
2.11. Función generatriz de momentos.
Conclusiones.__________________________________________________
Referencias Bibliográficas.________________________________________
Anexos:________________________________________________________
6
Desarrollo
UNIDAD 2. VARIABLES ALEATORIAS Y FUNCIÓN DE
PROBABILIDAD
2.1. Definición de variable aleatoria.
En probabilidad y estadística, una variable aleatoria es una función
que asigna un valor, usualmente numérico, al resultado de un experimento
aleatorio. Por ejemplo, los posibles resultados de tirar un dado dos veces: (1,
1), (1, 2), etc. o un número real (p. ej., la temperatura máxima medida a lo
largo del día en una ciudad concreta).
Los valores posibles de una variable aleatoria pueden representar los
posibles resultados de un experimento aún no realizado, o los posibles
valores de una cantidad cuyo valor actualmente existente es incierto (p. ej.,
como resultado de una medición incompleta o imprecisa). Intuitivamente, una
variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo
pero puede tomar diferentes valores; una distribución de probabilidad se usa
para describir la probabilidad de que se den los diferentes valores. En
términos formales una variable aleatoria es una función definida sobre
un espacio de probabilidad.
Las variables aleatorias suelen tomar valores reales, pero se pueden
considerar valores aleatorios como valores lógicos, funciones o cualquier tipo
de elementos (de un espacio medible). El término elemento aleatorio se
utiliza para englobar todo ese tipo de conceptos relacionados. Un concepto
relacionado es el de proceso estocástico, un conjunto de variables aleatorias
ordenadas (habitualmente por orden o tiempo).
7
2.2. Variables aleatorias discretas.
Una variable aleatoria es una función que asigna un valor numérico, al
resultado de un experimento aleatorio. Una variable aleatoria puede ser
discreta o continua. Las variables aleatorias discretas son aquellas que
presentan un número contable de valores; por ejemplo, el número de
personas que viven en una casa (pueden ser 3, 5 o 9).
2.3. Función de probabilidad de una variable aleatoria
discreta.
Sea una variable aleatoria discreta. Definimos la función de
probabilidad de como
Observemos que si , entonces la función de
probabilidad: f:
donde es la probabilidad de que la variable aleatoria tome el
valor . Es decir, la función de probabilidad asocia a cada valor de la
variable aleatoria, su probabilidad .
Propiedades
8
2.4. Variables aleatorias continuas.
Diremos que una variable aleatoria es continua, siempre y cuando la
función de distribución que se encuentra asociada a ella sea continua.
Una variable aleatoria continua, por tanto, es un tipo de variable
aleatoria. Como variable aleatoria, es una función matemática que muestra
los resultados de un experimento aleatorio. Ahora bien, la característica que
hace que sea continua es, precisamente, que, dentro del intervalo de
resultados, esta puede tomar cualquier valor.
En otras palabras, pensemos en una variable aleatoria que tome
valores enteros. Por ejemplo, 1, 2 o 3. En este caso, la variable aleatoria no
sería continua. Solo puede tomar el valor 1, el valor 2 o el valor 3. No puede,
por ejemplo, tomar el valor 2,5 o 2,53. Si se tratara de una variable aleatoria
continua, podría tomar cualquier valor en el intervalo de datos [1,3]. Por
ejemplo, 1,02 o 2,067.
Cabe ser preciso, así como recalcar que una variable continua es un
tipo de variable cuantitativa, o lo que es lo mismo, que se puede expresar
mediante cifras. De esta forma, a parte de estos datos se pueden realizar
análisis estadísticos y operaciones matemáticas.
9
10
11
Conclusiones.
Conclusión de Victor Aparicio: El estudio de la probabilidad y la estadística
comienza con la comprensión profunda de las variables aleatorias, no solo
en su forma unidimensional sino también cuando interactúan en dimensiones
superiores. La Unidad 3 introduce el concepto de variables aleatorias
bidimensionales, fundamentales para modelar fenómenos donde dos o más
características pueden estar relacionadas. La función de densidad conjunta
permite calcular la probabilidad de que dos variables tomen valores
específicos simultáneamente, y a partir de ella se derivan las funciones de
densidad marginal y condicional, esenciales para analizar el comportamiento
individual y dependiente de cada variable. La independencia entre variables,
otro concepto central, simplifica enormemente el análisis de sistemas
complejos, permitiendo que el comportamiento de una variable no afecte a la
otra. Además, la extensión al caso n-dimensional abre la puerta al estudio de
sistemas aún más complejos y realistas, donde múltiples variables pueden
interactuar de diversas maneras.
En la Unidad 4, el enfoque se traslada a las distribuciones de probabilidad,
que constituyen la base para modelar y entender fenómenos aleatorios en la
práctica. Las distribuciones discretas, como la binomial, la de Poisson, la
geométrica y la hipergeométrica, permiten describir situaciones donde los
resultados posibles son contables y finitos. Cada una de estas distribuciones
tiene aplicaciones específicas: la binomial es fundamental para modelar el
número de éxitos en experimentos repetidos, la de Poisson es crucial para
describir la ocurrencia de eventos raros en intervalos de tiempo o espacio, la
12
geométrica modela el número de intentos hasta el primer éxito, y la
hipergeométrica es indispensable en muestreos sin reemplazo en
poblaciones finitas. Por otro lado, las distribuciones continuas, como la
uniforme, la exponencial, la gamma y especialmente la normal, permiten
modelar fenómenos donde los resultados pueden tomar cualquier valor
dentro de un intervalo. La distribución normal, en particular, es de vital
importancia debido a su presencia en una amplia variedad de fenómenos
naturales y su papel central en la inferencia estadística.
La Unidad 5 aborda los grandes teoremas que fundamentan la estadística
moderna: la Desigualdad de Chebychev, la Ley de los Grandes Números y el
Teorema del Límite Central. La Desigualdad de Chebychev ofrece una cota
general para la probabilidad de que una variable aleatoria se desvíe de su
media, independientemente de la forma de su distribución, lo que la convierte
en una herramienta muy útil cuando se tiene poca información sobre la
variable estudiada. La Ley de los Grandes Números asegura que, a medida
que aumenta el tamaño de la muestra, la media muestral se aproxima a la
media poblacional, justificando así el uso de muestras para hacer inferencias
sobre poblaciones enteras. Finalmente, el Teorema del Límite Central
establece que la suma o el promedio de un número suficientemente grande
de variables aleatorias independientes tiende a distribuirse normalmente,
independientemente de la distribución original de las variables, lo que
permite aplicar técnicas estadísticas basadas en la normalidad en una amplia
gama de situaciones.
En conjunto, estos contenidos proporcionan una base teórica y práctica
sólida para el análisis estadístico y el modelado de la incertidumbre en
13
contextos reales. La comprensión de las variables aleatorias bidimensionales
y sus extensiones permite analizar relaciones complejas entre características
de un sistema; las distribuciones de probabilidad ofrecen modelos precisos
para distintos tipos de fenómenos; y los teoremas fundamentales de la
estadística garantizan la validez de las inferencias realizadas a partir de
muestras. Todo esto no solo es relevante en el ámbito académico, sino que
también tiene aplicaciones directas en áreas como la ingeniería, la
economía, la biología y las ciencias sociales, donde la toma de decisiones
informadas depende de la correcta interpretación y análisis de datos.
Dominar estos conceptos y herramientas es esencial para cualquier
profesional que aspire a enfrentar y resolver problemas complejos en un
mundo cada vez más guiado por la información y la incertidumbre.
Conclusión de Andrea Pimenta: Al abordar el estudio de las variables
aleatorias bidimensionales, las distribuciones de probabilidad y los grandes
teoremas de la estadística, no solo se adquiere una base teórica sólida, sino
que se desarrollan herramientas esenciales para la resolución de problemas
reales en múltiples disciplinas. Desde una perspectiva aplicada, el
conocimiento de la función de densidad conjunta y sus derivadas, como las
marginales y condicionales, permite modelar y analizar situaciones en las
que dos o más variables interactúan de manera compleja, como ocurre en
sistemas de ingeniería, economía, biología o ciencias sociales. La capacidad
de identificar y trabajar con variables independientes o dependientes es
crucial para optimizar procesos, evaluar riesgos y tomar decisiones
fundamentadas en datos.
Por otro lado, el dominio de las diferentes distribuciones de probabilidad,
tanto discretas como continuas, habilita al profesional para seleccionar el
14
modelo adecuado según la naturaleza del fenómeno que se estudia. Por
ejemplo, la distribución binomial es indispensable en el control de calidad
industrial, la Poisson es fundamental en la gestión de servicios y análisis de
tráfico, mientras que la normal es la base de la mayoría de los métodos
inferenciales utilizados en la investigación científica. Comprender la
esperanza matemática y la varianza de cada distribución permite anticipar
resultados, medir la variabilidad y diseñar experimentos o procesos más
eficientes y seguros.
Finalmente, los teoremas de la Ley de los Grandes Números y el Límite
Central trascienden la teoría para convertirse en pilares de la práctica
estadística moderna. Gracias a ellos, es posible confiar en que los resultados
obtenidos a partir de muestras representativas reflejan, con alta probabilidad,
el comportamiento de poblaciones completas. Esto es vital en áreas como la
salud pública, donde las decisiones sobre tratamientos o políticas se basan
en estudios muestrales, o en la economía, donde las proyecciones y
estimaciones dependen de la validez de los promedios y la normalidad de los
datos. Además, la Desigualdad de Chebychev ofrece una garantía
matemática de control sobre los riesgos de desviaciones extremas, incluso
cuando se desconoce la distribución exacta de los datos.
En conclusión, el aprendizaje y la integración de estos conceptos no solo
enriquecen la formación académica, sino que también potencian la
capacidad de los futuros ingenieros y profesionales para enfrentar los
desafíos de un mundo cada vez más orientado al análisis de datos y la toma
de decisiones bajo incertidumbre. La estadística, lejos de ser una disciplina
abstracta, se revela como una herramienta indispensable para comprender,
predecir y mejorar los procesos en cualquier ámbito del conocimiento
humano.
15
16
Referencias Bibliográficas.
Referencias bibliográficas Recursos Web visitadas desde el 17 de abril del
2025 hasta el 5 de mayo del 2025.
Khan Academy. "Variables aleatorias conjuntas."
[Link]
variables-stats-library
Statlect. "Joint, Marginal and Conditional Distributions."
[Link]
conditional-distributions
UNAM, Facultad de Ciencias. "Variables Aleatorias Bidimensionales."
[Link]
[Link]
Khan Academy. "Ley de los Grandes Números."
[Link]
variables-stats-library/law-of-large-numbers/a/law-of-large-numbers
Khan Academy. "Teorema del Límite Central."
[Link]
distributions-library/sample-means/a/central-limit-theorem-review
Statlect. "Chebyshev's Inequality."
[Link]
inequality
YouTube: "Probabilidad y Estadística (Curso Completo)"
[Link]
list=PL3bGlm2p2l5K1v6g8p0iX5g7kzE4Wk2jS
Khan Academy en Español: "Estadística y probabilidad"
[Link]
17
UNED Abierta: "Probabilidad y Estadística"
[Link]
NIST/SEMATECH e-Handbook of Statistical Methods.
[Link]
MIT OpenCourseWare. "Introduction to Probability and
Statistics."
[Link]
probability-spring-2018/
Investopedia: LEY DE LOS GRANDES NÚMEROS. TEOREMA DEL
LÍMITE CENTRAL.
[Link]
18
Anexos:
Formulas en forma de imágenes para el mejor entendimiento:
19
Imagen referente a distribuciones de probabilidad:
Imagen referente a variables aleatorias bidimensionales:
20
Imagen referente a Ley De Los Grandes Números. Teorema Del Límite
Central:
21