0% encontró este documento útil (0 votos)
18 vistas4 páginas

Sintesis Cap 3

El pensamiento estadístico es un conjunto de herramientas para analizar datos, clasificándolos en supervisados y no supervisados, y se aplica en diversos campos como negocios y medicina. Se discuten métodos paramétricos y no paramétricos para estimar funciones desconocidas, así como la importancia de la inferencia estadística para entender el comportamiento de poblaciones a partir de muestras. Además, se enfatiza la necesidad de reducir la variación en procesos y productos para mejorar la toma de decisiones y satisfacer a los clientes.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
18 vistas4 páginas

Sintesis Cap 3

El pensamiento estadístico es un conjunto de herramientas para analizar datos, clasificándolos en supervisados y no supervisados, y se aplica en diversos campos como negocios y medicina. Se discuten métodos paramétricos y no paramétricos para estimar funciones desconocidas, así como la importancia de la inferencia estadística para entender el comportamiento de poblaciones a partir de muestras. Además, se enfatiza la necesidad de reducir la variación en procesos y productos para mejorar la toma de decisiones y satisfacer a los clientes.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

UNIVERSIDAD MICHOACANA DE

SAN NICOLAS DE HIDALGO

Facultad de Químico Farmacobiólogo

SINTESIS 3
“Pensamiento estadístico”

Alumna: Brenda Lizbeth Pastrana Palomares.

Profesor: Nicolas Zamudio Hernández.

Orientación: Clínicos. Sección: 05

Correo Institucional: 1342759f@[Link]


Pensamiento Estadístico.

El pensamiento estadístico nos refiere a un conjunto de herramientas empleadas para


conocer y comprender los datos obtenidos y los clasifica en 2 tipos de herramientas:
supervisadas y no supervisadas. En términos generales, el pensamiento estadístico
supervisado implica la construcción de un modelo estadístico para predecir o estimar un
producto basado en una o más entradas. Problemas de esta naturaleza ocurren en
campos tan diversos como negocios, medicina, astrofísica y políticas públicas.
El pensamiento estadístico no debe verse como una serie de cuadros negros. Ningún
enfoque único funcionará bien en todas las aplicaciones posibles. Sin comprender todos
los engranajes dentro del marco conceptual, o la interacción entre esos engranajes, es
imposible seleccionar el mejor cuadro de herramientas. Por lo tanto, se ha de intentar
describir cuidadosamente el modelo, la intuición, los supuestos y las compensaciones
detrás de cada uno de los métodos que consideramos.
El problema que se nos supone en el texto es acerca de un cliente que quiere aumentar
las ganancias pero lo único que puede controlar es como se publicita y nos da solo 3
medios: TV, radio y periódicos. ¿Qué debemos de hacer? Sencillo, evaluar los 3 medios
de comunicación y ver cual de ellos posee un mayor flujo de personas, personas que
siempre serán para nosotros clientes potenciales, ahora bien el texto se desvía
completamente del problema planteado y se va a plantear otros 2 problemas, pero
nosotros mantengamos al cliente y su publicidad. Se nos proporcionan datos de cuanto
del producto se compra por cuantas vistas en cada medio publicitario, teniendo esto
saltemos a conocimientos estadísticos.
Ya tenemos a X que son nuestros valores de entrada (los recolectados de ventas x vistas)
y queremos plantear Y (que serán una predicción) valor el cual será una predicción con
cierta formula que marea al alumno, donde ahora no tenemos una predicción, sino una
estimación, que a final de cuentas se podría llegar a decir que son sinónimos. Se nos
plantea el uso de la formula para la estimación y sus variables; ahora tenemos algo
nuevo, la “Inferencia” y que es esto? Citando a fuentes externas, una inferencia es un
conjunto de métodos los cuales nos permiten inferir en una población para modificar su
comportamiento a nuestro valor deseado, este se puede utilizar para aumentar la cantidad
de compradores o para reducir la cantidad de estos, que bueno, si hablamos de un
producto que es nuestro o si nos contratan para aumentar la cantidad de compradores
creo que no querremos bajar la cantidad de ventas; continuando con la página.

Hacia allá vamos, F lo vemos en el texto en enfoques lineales y no lineales para hacer su
estimación, nuestro objetivo es aplicar un método de pensamiento estadístico a los datos
de entrenamiento para estimar la función desconocida f. En otras palabras, queremos
encontrar una función Imagen tal que Imagen para cualquier observación (X, Y). En
términos generales, la mayoría de los métodos de pensamiento estadístico para esta
tarea pueden caracterizarse como paramétricos o no paramétricos. Ahora discutimos
brevemente estos dos tipos de enfoques.

Los métodos paramétricos y los no paramétricos, por un lado los métodos paramétricos
los cuales implican un enfoque basado en modelos basados en otras cosas, pero para lo
que nos importa son modelos de dos pasos, primero habremos de suponer que tenemos
datos, esta suposición la tenemos que hacer sobre su forma funcional o forma de f (que
por fin se explica que es f pero sin explicarlo directamente), después de que tenemos la
suposición que debe de ser en forma lineal (matemáticamente hablando), una vez ya
tenemos la suposición ahora deberemos de entrenar a un modelo matemático elaborado
por computadora calculado por ingenieros especializados que dedican su vida a estos
modelos matemáticos, una vez que este modelo esté entrenado, tendremos resultados
estimados, resultados que tienen la grandísima desventaja de que no siempre habran de
coincidir con la realidad de los datos obtenidos empíricamente. Si el modelo elegido está
demasiado lejos de la verdadera f, entonces nuestra estimación será pobre. Podemos
tratar de abordar este problema eligiendo modelos flexibles que puedan adaptarse a
muchas formas funcionales posibles diferentes para f.

Ahora abordaremos la otra parte de los métodos, los no paramétricos; los métodos no
paramétricos no hacen suposiciones explícitas sobre la forma funcional de f. En su lugar,
buscan una estimación de f que se acerque lo más posible a los puntos de datos sin ser
demasiado tosco u ondulado. Tales enfoques pueden tener una gran ventaja sobre los
enfoques paramétricos: al evitar la suposición de una forma funcional particular para f,
tienen el potencial de ajustar con precisión un rango más amplio de formas posibles para
f. Cualquier enfoque paramétrico conlleva la posibilidad de que la forma funcional utilizada
para estimar f sea muy diferente de la verdadera f, en cuyo caso el modelo resultante no
se ajustará bien a los datos. Por el contrario, los enfoques no paramétricos evitan por
completo este peligro, ya que esencialmente no se asume la forma de f.
Un dato importante dentro de este tema es la “inferencia estadística” que es el conjunto
de métodos que permiten inducir, a través de una muestra estadística, el comportamiento
de una determinada población. La inferencia estadística, estudia entonces como, a través
de la aplicación de dichos métodos sobre los datos de una muestra, se pueden extraer
conclusiones sobre los parámetros de la población de datos. De la misma manera estudia
también el grado de fiabilidad de los resultados extraídos del estudio.
Introduciremos uno nuevo, los GAM que son modelos aditivos generalizados en su lugar
extienden el modelo lineal para permitir ciertas relaciones que son no lineales, en
respuesta a esto tendremos que los GAM son algo más flexibles que una regresión lineal,
pero también serán menos interpretables que la misma regresión lineal, esto debido a que
la relación entre predicción y el resultado se muestra ahora en una curva, finalmente, los
métodos que son completamente no lineales son enfoques de alta flexibilidad con un
coste de difícil interpretación.
La regresión es un método que permite a los investigadores resumir cómo las
predicciones o los valores medios de un resultado varían entre individuos definidos por un
conjunto de predictores. El modelo nos permite predecir, por ejemplo, el voto en una
elección, con cierta incertidumbre, dada la economía y bajo el supuesto de que las
elecciones futuras son de alguna manera como lo fueron en el pasado.
La regresión tiene varios usos entre ellos podemos encontrar, como mencionamos antes,
a la predicción modelando observaciones existentes o previendo nuevos datos; La
exploración de asociaciones que es el análisis de que tan bien o mal las variables
funcionan para predecir un resultado; la extrapolación, que consiste en ajustar las
diferencias conocidas entre las muestras o sea, los datos observados y al población de
interés, un ejemplo de esto pueden ser los sondeos; y la inferencia causal, la cual es para
estimar los efectos que tendrá el tratamiento.
El análisis estadístico pasa por tres pasos:

1.-La creación de modelos matemáticos, comenzando con modelos lineales de la forma:


y=a + bx + error y expandiéndose a través de predicciones, interacciones, variables y
modificaciones adicionales.

2.-Los ajustes al modelo, que incluye manipulación de datos, programación y uso de


algoritmos para estimar los coeficientes de regresión y sus incertidumbres y para hacer
predicciones probabilísticas.

3.-Comprender los ajustes al modelo, lo que implica gráficos, más programación y una
investigación

La aplicación de la estadística inicia sobre la base de que hay variación en los datos, de lo
contrario no se aplicaría. Por lo que la variación debe cuantificarse para comprender
mejor las actividades o procesos y mejorar la toma de decisiones.
La estadística ha demostrado que las variaciones de un producto o proceso pueden
medirse, con lo cual se puede determinar el comportamiento del proceso, o el lote de
productos, o los tiempos de atención en el servicio.
Deming manifestó el mensaje de toda la vida, reduzca la variación. En la mayoría de las
situaciones, reducir variación es calificativo de mejor. Reduciendo variación en el producto
se satisface a los clientes, mientras que reduciendo la variación del proceso y de las
entradas se reduce la de los productos, y comúnmente se reducen costos en los negocios
en general.
El enfoque que aquí se expone para desarrollar el pensamiento estadístico, que es parte
de este curso de Alimentos, considera que el pensamiento estadístico no es medible a
partir de tareas formuladas, aun cuando se enriquezcan con un contexto, así que requiere
de la complejidad como su aliada. Hay estudios que prueban, a partir de ejercicios
diseñados para ello, que entre las principales dificultades para resolver problemas de
comparación de conjuntos de datos es que los estudiantes no los conciben como un
conjunto, sino como elementos individuales

También podría gustarte