0% encontró este documento útil (0 votos)
146 vistas19 páginas

Herramientas Estadísticas para Calidad

El documento describe varias herramientas estadísticas para la mejora de la calidad, incluyendo estadísticas descriptivas, diseño de experimentos, pruebas de hipótesis, análisis de medición, análisis de capacidad de proceso, análisis de regresión, análisis de confiabilidad, muestreo, simulación y gráficos de control estadístico de procesos. Estas herramientas permiten resumir y analizar datos para identificar factores que influyen en los procesos y mejorar
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
146 vistas19 páginas

Herramientas Estadísticas para Calidad

El documento describe varias herramientas estadísticas para la mejora de la calidad, incluyendo estadísticas descriptivas, diseño de experimentos, pruebas de hipótesis, análisis de medición, análisis de capacidad de proceso, análisis de regresión, análisis de confiabilidad, muestreo, simulación y gráficos de control estadístico de procesos. Estas herramientas permiten resumir y analizar datos para identificar factores que influyen en los procesos y mejorar
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

TECNOLÓGICO NACIONAL DE MÉXICO

INSTITUTO TECNOLÓGICO DE TIJUANA


HERRAMIENTAS ESTADÍSTICAS PARA LA CALIDAD
Ingeniería industrial
Herramientas para la mejora de la calidad
Profesor: Jesús Manuel Moreno Lozano
Integrantes del equipo:
Vallarta Pineda Maria del Carmen 18211143
Zúñiga Núñez Isaias 18211148

Tijuana B.C. 02/22/22

1
Actividad 2.- Herramientas para la mejora de la calidad
Índice

Contents
Resumen .................................................................................................................................................... 3
ISO/TR 10017/:2003.................................................................................................................................. 4
Orientación sobre las técnicas estadísticas para la Norma ISO 9001:2000 ................................................ 4
Estadísticas descriptivas ....................................................................................................................... 4
Diseño de experimentos ........................................................................................................................ 5
Prueba de hipótesis................................................................................................................................. 6
Análisis de medición ............................................................................................................................... 7
Análisis de la capacidad del proceso ................................................................................................. 9
Análisis de regression .......................................................................................................................... 10
Análisis de confiabilidad ...................................................................................................................... 11
Muestreo................................................................................................................................................... 12
Simulación ............................................................................................................................................... 13
Gráficos de control estadístico de procesos (CEP) ..................................................................... 15
Análisis de series de tiempo ............................................................................................................... 16
Conclusión ............................................................................................................................................... 18
Bibliography ................................................................................................................................................ 19

2
Resumen

Los estudios estadísticos permiten a los analistas estimar parámetros clave de modelos de
costos o producción. Los análisis econométricos requieren de un importante grupo de datos para
asegurar la obtención de resultados confiables. A menudo la obtención de la cantidad de
observaciones necesarias para derivar en una estimación eficiente y objetiva de las estructuras
de costos (o producción) puede resultar ser una tarea difícil. Los resultados de las regresiones
son sensibles a la especificación del modelo (por ejemplo, una forma funcional lineal vs. una
forma funcional no lineal). Asimismo, para algunos modelos, la interpretación del término de error
se vuelve importante.

3
ISO/TR 10017/:2003
Orientación sobre las técnicas estadísticas para la Norma ISO 9001:2000

Estadísticas descriptivas
El término “estadística descriptiva” se refiere a procedimientos para resumir y presentar datos
cuantitativos de manera que revele las características de la distribución de los datos.
Historia
La estadística tiene sus orígenes en la necesidad humana de organizar la información necesaria
para su supervivencia y bienestar, así como de prever los sucesos que la afectan. Las grandes
civilizaciones de la antigüedad dejaron registros de pobladores, impuestos recabados, cuantía
de las cosechas y el tamaño de los ejércitos.

• Antes de Cristo: La recolección y análisis de datos más antiguos que se tiene son de
Egipto por el año 279-1213 a.C donde se ordenó por medio Ramsés II ordeno un censo
de tierras.
• Renacimiento: Nace la teoría de las probabilidades, fruto de la inclinación de la gente por
los juegos de azar
• Edad moderna: La estadística se extendió a cada rama de las ciencias y la ingeniería
Uso
La estadística descriptiva se utiliza para resumir y caracterizar datos. Normalmente es el paso
inicial en el análisis cuantitativo de datos y frecuentemente constituye el primer paso hacia el uso
de otros procedimientos estadísticos.
Aplicaciones
La estadística descriptiva es potencialmente aplicable a todas las situaciones que involucran el
uso de datos. Puede ayudar al análisis e interpretación de los datos, y son una valiosa ayuda en
la toma de decisiones. Como:

• Describir el comportamiento de algún parámetro de proceso, tal como la temperatura de


un horno
• Resumir datos de encuestas a clientes, tales como la satisfacción o insatisfacción del
cliente
Procedimiento
La estadística emplea métodos descriptivos y de inferencia estadística.

• La recolección de datos
• Organización
• Tabulación
• Presentación (Gráficos de tendencia, Gráficos de dispersión, Histograma)
• Reducción de información

4
Resultados
El uso de la estadística descriptiva permite resumir y presentar un conjunto de datos mediante
una combinación de descripciones tabuladas y gráficas. La estadística descriptiva se utiliza para
resumir datos cuantitativos complejos y tomar decisiones en base a los resultados analizados.
Conclusiones
La estadística descriptiva facilita la visualización de los datos. Permiten presentarlos de forma
significativa y comprensible, lo que a su vez da pie a una interpretación simplificada del conjunto
de datos en cuestión.

Diseño de experimentos
El diseño de experimentos se refiere a las investigaciones llevadas a cabo de una manera
planificada, y depende de una evaluación estadística de los resultados para alcanzar
conclusiones a un nivel de confianza establecido.
Historia

• Los diseños factoriales fueron utilizados en el siglo XIX por Jhon Bennet Lawes y Henry
J. Gilbert de la Estación experimental de Rothamsted.
• Ronald Fisher discutió en 1926 que los diseños “complejos”, como diseños factoriales,
eran más eficientes que estudiando un factor a la vez. Fisher escribió: “ningún aforismo
se repite tan frecuentemente respecto de las pruebas de campo, que aquel de que a la
Naturaleza debemos hacerle pocas preguntas, o, idealmente, hacérselas de a una. Quien
escribe es un convencido de que este punto de vista está totalmente equivocado.” Un
diseño factorial permite el efecto de varios factores e incluso interacciones entre ellas que
se determinarán con el mismo número de ensayos que son necesario determinar de los
efectos por sí mismo con el mismo grado de exactitud.
• Yates realizó importantes contribuciones significativas hechas, particularmente en el
análisis de diseños, por Análisis de Yates.
• El término factorial no se pudo haber utilizado en la impresión antes de 1935, cuando
Fisher la utilizó en su libro El diseño de experimentos.
Uso
Se puede utilizar el diseño de experimentos para evaluar alguna característica de un producto,
proceso o sistema, con el propósito de validarla contra una determinada especificación, o para
la evaluación comparativa de varios sistemas.
Aplicaciones
El diseño de experimentos se utiliza ampliamente para identificar los factores influyentes en los
procesos complejos y de este modo controlar o mejorar el valor medio o reducir la variabilidad,
de alguna característica de interés, por ejemplo:

• La validación del efecto de un tratamiento médico, o en la evaluación de la eficacia relativa


de diferentes tipos de tratamiento.

Procedimiento

5
Las etapas a seguir en el desarrollo de un problema de diseño de experimentos son las
siguientes:

• Identificación del problema y definir los objetivos


• Seleccionar al equipo de trabajo, formular problema, documentar información, establecer
objetivos
• Elección de los factores y los niveles
• Selección de la variable respuesta
• Elección del diseño experimental
• Realización del experimento
• Análisis estadístico de los datos
• Mejoras, control y conclusiones

Resultados
Al realizar un análisis de experimentos se obtienen confiabilidad de información, procesos de
mejora, reducción de costos.
Conclusiones
El diseño de experimentos es particularmente útil en la investigación de sistemas complejos
cuyos resultados pueden ser influenciados por un número de factores potencialmente grandes.
El objetivo del experimento puede ser la maximización u optimización de una característica de
interés, o para la reducción de su variabilidad. Se puede utilizar el diseño de experimentos para
identificar los factores de mayor influencia en un sistema, la magnitud de esta influencia y sus
relaciones (es decir, interacciones) y, si los hubiera, entre diferentes factores. Los hallazgos
pueden ser utilizados para facilitar el diseño y el desarrollo de un producto o proceso, o para
controlar o mejorar un sistema existente.

Prueba de hipótesis
La prueba de hipótesis es un procedimiento estadístico para determinar, con un nivel de riesgo
prescrito, si un conjunto de datos (normalmente tomados de una muestra) es compatible con una
hipótesis dada.
Historia
Las primeras mediciones realizadas estuvieron relacionadas con la masa, la longitud y el tiempo,
y posteriormente las de volumen y ángulo como una necesidad debido a las primeras
construcciones realizadas por el hombre. Estos primeros pasos condujeron al origen de la
Matemática, y de la Metrología o ciencia de la medición. Esta última se deriva de la primera y
otras ciencias puras. A medida que paso el tiempo, el propio desarrollo del comercio, la industria
y la ciencia, fueron obligando a un desarrollo paulatino de las mediciones que tan importante
papel desempeñan hoy día en las relaciones entre los hombres, ya que forman parte de nuestra
vida cotidiana, de la producción, la distribución, la investigación etcétera.
Uso

6
La incertidumbre de la medición debería tomarse en cuenta siempre que se recopilen los datos.
El análisis de la medición se utiliza para evaluar, a un nivel de confianza establecido previamente,
si el sistema de medición es adecuado para su propósito previsto. Se utiliza para cuantificar la
variación de diferentes fuentes, tales como la variación debida al evaluador (es decir, la persona
que toma la medición) o la variación del proceso de medición o del propio instrumento de
medición. También se utiliza para describir la variación debida al sistema de medición, como una
proporción de la variación total del proceso o de la variación total permitida.
Aplicaciones
Ejemplos de aplicación:

• Determinación de la incertidumbre de la medición


• Selección de nuevos instrumentos
• Determinación de las características de un método en particular
• Ensayos de aptitud
Procedimiento
Los pasos para realizar un análisis de medición son:

• Alinear las actividades de medición y análisis


• Establecer los objetivos de la medición
• Especificar las métricas
• Especificar los procedimientos de recolección y almacenamiento de los datos
• Especificar los procedimientos del análisis Proporcionar los resultados de la medición
• Recolectar los datos de la medición
• Analizar los datos de la medición
• Almacenar los datos y los resultados de la medición
• Comunicar los resultados
Resultados
El análisis de mediciones proporciona una base para comparar y reconciliar diferencias entre
mediciones, cuantificando la variación de diferentes fuentes en los propios sistemas de medición.
Conclusiones
El análisis de la medición proporciona una forma cuantitativa y económica de seleccionar un
instrumento de medición, o para decidir si un instrumento tiene capacidad para evaluar el
producto o el parámetro del proceso que está siendo examinado.

Análisis de medición
El análisis de la medición (también llamado " análisis de la incertidumbre de la medición" o
“análisis del sistema de medición”) es un conjunto de procedimientos para evaluar la
incertidumbre de sistemas de medición en el rango de condiciones en que el sistema opera.
Los errores de medición pueden analizarse utilizando los mismos métodos como los utilizados
para analizar las características del producto.
Historia

7
Las primeras mediciones realizadas estuvieron relacionadas con la masa, la longitud y el tiempo,
y posteriormente las de volumen y ángulo como una necesidad debido a las primeras
construcciones realizadas por el hombre. Estos primeros pasos condujeron al origen de la
Matemática, y de la Metrología o ciencia de la medición. Esta última se deriva de la primera y
otras ciencias puras. A medida que paso el tiempo, el propio desarrollo del comercio, la industria
y la ciencia, fueron obligando a un desarrollo paulatino de las mediciones que tan importante
papel desempeñan hoy día en las relaciones entre los hombres, ya que forman parte de nuestra
vida cotidiana, de la producción, la distribución, la investigación etcétera.
Uso
La incertidumbre de la medición debería tomarse en cuenta siempre que se recopilen los datos.
El análisis de la medición se utiliza para evaluar, a un nivel de confianza establecido previamente,
si el sistema de medición es adecuado para su propósito previsto. Se utiliza para cuantificar la
variación de diferentes fuentes, tales como la variación debida al evaluador (es decir, la persona
que toma la medición) o la variación del proceso de medición o del propio instrumento de
medición. También se utiliza para describir la variación debida al sistema de medición, como una
proporción de la variación total del proceso o de la variación total permitida.
Aplicaciones
Ejemplos de aplicación:

• Determinación de la incertidumbre de la medición


• Selección de nuevos instrumentos
• Determinación de las características de un método en particular
• Ensayos de aptitud
Procedimiento
Los pasos para realizar un análisis de medición son:

• Alinear las actividades de medición y análisis Establecer los objetivos de la medición


• Especificar las métricas
• Especificar los procedimientos de recolección y almacenamiento de los datos
• Especificar los procedimientos del análisis Proporcionar los resultados de la medición
• Recolectar los datos de la medición
• Analizar los datos de la medición
• Almacenar los datos y los resultados de la medición
• Comunicar los resultados
Resultados
El análisis de mediciones proporciona una base para comparar y reconciliar diferencias entre
mediciones, cuantificando la variación de diferentes fuentes en los propios sistemas de medición.

8
Análisis de la capacidad del proceso
El análisis de la capacidad de proceso es el examen de la variabilidad y distribución inherente de
un proceso, con el fin de estimar su habilidad para producir resultados que sean conformes con
el rango de variación permitido por las especificaciones.
Historia
El “Control Estadístico de Procesos” nació a finales de los años 20 en los Bell Laboratories. Su
creador fue W. A. Shewhart, quien en su libro “Economic Control of Quality of Manufactured
Products” (1931) marcó la pauta que seguirían otros discípulos distinguidos (Joseph Juran, W.E.
Deming, etc.). Sobre este libro han pasado más de 70 años y sigue sorprendiendo por su frescura
y actualidad. Resulta admirable el ingenio con el que plantea la resolución de problemas
numéricos pese a las evidentes limitaciones de los medios de cálculo disponibles en su época.
Uso
El análisis de la capacidad de proceso se utiliza para evaluar la capacidad de un proceso para
producir los resultados que sean conformes a las especificaciones de manera coherente, y para
estimar la cantidad de productos no conformes que pueden esperarse.
Aplicaciones
La capacidad de proceso se utiliza para establecer especificaciones de ingeniería racionales para
productos manufacturados, asegurando que las variaciones del componente son coherentes con
las tolerancias globales permitidas en el producto ensamblado.
Productores de equipos para la industria del automóvil, aeroespacial, electrónica, de los
alimentos, farmacéutica y médica utilizan la capacidad de proceso de forma rutinaria como un
criterio de gran importancia para evaluar proveedores y productos. Esto permite al productor
minimizar la inspección directa de productos y materiales comprados.
Procedimiento
Para realizar un estudio de capacidad se deben llevar a cabo los siguientes pasos:

• Seleccionar las características críticas de calidad


• Recolección de datos
• Establecer control sobre el proceso
• Analizar los datos del proceso
• Analizar las fuentes de variación
• Establecer sistemas de monitoreo del proceso
Resultados
El análisis de la capacidad de proceso proporciona una evaluación de la variabilidad inherente
de un proceso y una estimación del porcentaje de elementos no conformes que pueden
esperarse. Esto permite que la organización estime los costos de la no conformidad, y pueda
ayudar a guiar las decisiones con respecto a la mejora del proceso.
Conclusiones

9
La fijación de estándares mínimos para la capacidad de proceso puede guiar a la organización
en la selección de procesos y equipos capaces que deberían producir un producto aceptable.

Análisis de regression
El análisis de regresión relaciona el comportamiento de una característica de interés
(normalmente llamada la “variable de respuesta”) con los factores potencialmente causales
(normalmente llamados “variables explicativas”). Tal relación está especificada por un modelo
que puede venir del campo de la ciencia, economía, ingeniería, etc., o puede derivarse
empíricamente.
Historia
Si bien la primera descripción documentada sobre un método de regresión lineal fue publicada
por Legendré en 1805, en el método de mínimos cuadrados con el que abordaba una versión del
teorema de GaussMárkov, fue sir Francis Galton, médico y primo de Charles Darwin, quien
introdujo el término regresión, en su artículo “Regression towards mediocrity in hereditary
stature”, publicado en 1886 en el Journal of the Anthropological Institute5 y que menciona de
nuevo en su libro Natural Inheritance, de 1889.6 A partir de estas observaciones, Galton señaló
esta tendencia bajo la “ley de la regresión universal”. Al final del mismo siglo XIX, Pearson y Yule
aportaron muchas de las nociones modernas acerca de la correlación, que han contribuido al
metalenguaje que nos permite el entendimiento del fenómeno de la dependencia entre variables.
Uso
El análisis de regresión permite al usuario hacer lo siguiente:

• comprobar hipótesis con respecto a la influencia de variables explicativas potenciales


sobre la respuesta, y utilizar esta información para describir el cambio estimado en la
respuesta para un cambio dado en la variable explicativa
• predecir el valor de la variable de respuesta, para valores específicos de las variables
explicativas
• predecir (a un nivel declarado de confianza) el rango de valores dentro del cual se espera
que esté la respuesta, dados los valores específicos para las variables explicativas
Aplicaciones
El análisis de regresión se utiliza para realizar modelos de características de producción tales
como rendimiento, producción, calidad de desempeño, tiempo de ciclo, la probabilidad de fallar
una prueba o inspección, y los diferentes patrones de deficiencias en los procesos. Por ejemplo:

• reemplazando un método destructivo o que consume mucho tiempo por uno no


destructivo o más rápido
Procedimiento
Existen dos tipos
Modelo de regresión lineal simple

10
Modelo de regresión lineal múltiple

Resultados
El análisis de regresión puede proporcionar comprensión dentro de la relación entre varios
factores y la respuesta de interés, y dicha compresión puede ayudar a guiar las decisiones
relacionadas con el proceso que está siendo estudiado y eventualmente mejorarlo
Conclusiones
El análisis de regresión también puede proporcionar estimaciones de la magnitud y la fuente de
influencia sobre la respuesta ocasionada por factores no medidos u omitidos en el análisis. Esta
información se puede utilizar para mejorar el sistema de medición o el proceso.

Análisis de confiabilidad
El análisis de confiabilidad es la aplicación de métodos de ingeniería y analíticos a la evaluación,
predicción y aseguramiento de un comportamiento libre de problemas durante el tiempo de vida
de un producto o sistema bajo estudio.
Historia
El concepto de confiabilidad, al igual que muchas técnicas de calidad y productividad, tuvo su
origen durante la Segunda Guerra Mundial, pues en ese momento era una meta fundamental
lograr alta confiabilidad en el material bélico a fin de disminuir al máximo la probabilidad de falla
de cualquier equipo.
Uso
El análisis de confiabilidad se utiliza para los siguientes propósitos:

• verificar que se cumplen las medidas de confiabilidad específicas, sobre la base de los
datos de una prueba de duración limitada y que involucra a un número especificado de
unidades de ensayo
• realizar modelos de patrones de fallas y escenarios de operación del desempeño del
producto o servicio
Aplicaciones
Ejemplos típicos de aplicaciones del análisis de confiabilidad incluyen:

• verificación de que los componentes o productos pueden cumplir con los requisitos de
confiabilidad establecidos
• proyección del costo del ciclo de vida del producto, basado en un análisis de confiabilidad
de los datos de pruebas en la introducción de un nuevo producto
Procedimiento
Fase 1: Se definen objetivos y requerimientos de confiabilidad del producto o proceso, se toman
en cuenta las acotaciones tecnológicas y de ingeniería de materiales y maquinas. Fase 2:

11
Degradación del producto o proceso en componentes y estimación de confiabilidad para cada
uno de los componentes estimando el valor de confiabilidad de cada parte y componente.
Fase 3: Predicción de la confiabilidad del producto en base a la confiabilidad de sus
componentes, utilizando la teoría de probabilidades.
Fase 4: Análisis del producto o proceso para determinar fortalezas y oportunidades, el análisis
se puede elaborar por medio de la matriz FODA del producto o servicio, con el propósito de
aprovechar oportunidades de mejoramiento.

Resultados
El análisis de confiabilidad proporciona una medida cuantitativa del desempeño del producto o
servicio contra fallas o interrupciones de servicio. Las actividades de confiabilidad están
íntimamente asociadas con el control del riesgo en la operación del sistema. La confiabilidad es
frecuentemente un factor influyente en la percepción de la calidad de un producto o servicio, y
en la satisfacción del cliente.
Conclusiones
Una suposición básica en el análisis de confiabilidad es que el desempeño de un sistema bajo
estudio puede caracterizarse razonablemente por una distribución estadística. La exactitud de
las estimaciones de confiabilidad por lo tanto dependerá de la validez de esta suposición. La
complejidad del análisis de confiabilidad crece cuando se presentan modos de falla múltiples;
que pueden o no conformar la misma distribución estadística. Además, la confianza estadística
y la precisión atribuida a las estimaciones de confiabilidad pueden afectarse seriamente cuando
el número de fallas observadas en una prueba de confiabilidad es muy pequeño.

Muestreo
El muestreo es un método estadístico sistemático para obtener información sobre alguna
característica de una población mediante el estudio de una fracción representativa de la
población (es decir, la muestra). Existen varias técnicas de muestreo que se pueden emplear
(tales como, muestreo aleatorio simple, muestreo estratificado, muestreo sistemático, muestreo
secuencial, muestreo de lotes salteados, etc.), y la selección de la técnica se determina según el
propósito del muestreo y de las condiciones bajo las cuales se va a llevar a cabo.
Historia
1935 - L Tippet sugirió la aplicación de las observaciones instantáneas para hacer estudios de
tiempos de hombres y maquinas.
1946 - Morrow le dio un uso más general con el propósito fundamental de identificar las demoras
que afectaban a los trabajos. Desde entonces la técnica ha sido más desarrollada y refinada. El
muestreo de trabajo tiene por objetivo establecer el porcentaje que con respecto al período total
de tiempo se dedica a ciertas actividades.
Uso
El muestreo puede dividirse sin mucha rigidez en dos amplias áreas no excluyentes: “muestreo
de aceptación” y “muestreo para evaluación”. El muestreo de aceptación se ocupa de la toma de

12
decisión con respecto a aceptar o no aceptar un “lote” (es decir, un grupo de elementos) basada
en el resultado de una muestra seleccionada de ese lote. El muestreo para la evaluación se utiliza
en estudios enumerativos o analíticos para estimar los valores de una o más características en
una población, o para estimar cómo se distribuyen esas características entre la población.
Aplicaciones
Una aplicación frecuente del muestreo para la evaluación está en la investigación de mercado,
para estimar (por ejemplo) la proporción de una población que podría comprar un producto
particular.
Otra aplicación es en las auditorías de inventario para estimar el porcentaje de elementos que
cumplen un criterio especificado.
Procedimiento

• Definir claramente la unidad de análisis (criterios de inclusión y exclusión) y precisar


claramente el tamaño que tiene la población
• Determinar si se hará un muestreo o, por el contrario, se estudiará toda la población
• Determinar el tipo adecuado de muestreo
• Calcular el tamaño muestral
• Identificar el marco poblacional de donde se extraerá la muestra (realizar una lista en
donde se identifique cada unidad poblacional)
• Extraer o seleccionar físicamente la muestra
Resultados
Un plan de muestreo desarrollado correctamente permite un ahorro de tiempo, costo y trabajo en
comparación con un censo de la población total o con una inspección del 100 % de un lote.
Donde la inspección de un producto involucra ensayos destructivos, el muestreo es la única
manera práctica de obtener información pertinente.
Conclusiones
No todos los datos se prestan para un muestreo, pero cuando la población es lo suficientemente
extensa hay que emplear un método adecuado para la escogencia de las unidades de muestreo.
La muestra debe ser seleccionada por el investigador de manera minuciosa, que represente las
características de la población total y en igual relación.

Simulación
“Simulación” es un término colectivo para procedimientos mediante el cual un sistema (teórico o
empírico) se representa matemáticamente por un programa de computación para la solución de
un problema. Si la representación involucra conceptos de teoría de probabilidades,
particularmente variables aleatorias, la simulación puede llamarse “método de Monte Carlo”.
Historia
La historia y la evolución de la simulación por ordenador han ido paralelas a la evolución de la
Informática. Sus orígenes los encontramos en la segunda Guerra Mundial cuando dos
matemáticos, J.V Neumann y [Link], tenían el reto de resolver un problema complejo
relacionado con el comportamiento de los neutrones. Los experimentos basados en prueba y

13
error eran muy caros y el problema era demasiado complicado para abordarlo mediante técnicas
analíticas. La aproximación que cogieron se basa en la utilización de números aleatorios y
distribuciones de probabilidad. El método desarrollado fue llamado "método de Montecarlo" por
el paralelismo entre la generación de números aleatorios y el juego de la ruleta. Durante la Guerra
Fría se intensificó el uso de la simulación para resolver problemas de interés militar; trayectorias
y dinámicas de satélites artificiales, guiar mísiles, etc.
Uso
En el contexto de la ciencia teórica se utiliza la simulación si no se conoce ninguna teoría global
para resolver un problema (o, si se conoce, es imposible o difícil de resolver) y donde la solución
se puede obtener a través de una solución computacional elemental. En el contexto empírico, la
simulación se utiliza si el sistema puede describirse de manera adecuada por un programa de
computación.
Aplicaciones
Los proyectos a gran escala (tal como el programa espacial) utilizan el método de Monte Carlo
rutinariamente. Las aplicaciones no están limitadas a un tipo específico de industria. Las áreas
típicas de aplicación incluyen la fijación de tolerancias estadísticas, la simulación de procesos, la
optimización del sistema, la teoría de confiabilidad y la predicción. Algunas aplicaciones
específicas son:

• realizar el modelo de la variación en el subensamble de componentes mecánicos


• determinar programas óptimos de mantenimiento preventivo
Procedimiento
Para describir cómo se modela un sistema, en la literatura se puede encontrar que los temas
relacionados con el diseño, el análisis y la representación de modelos en el software son
esenciales para un estudio de simulación exitoso

• Planeación del problema


• Colocación de objetivos y el plan del proyecto global
• Conceptualización del modelo
• Recolección y procesamiento de datos
• Construcción del modelo
Resultados
En las ciencias teóricas se utiliza la simulación (particularmente el método de Monte Carlo) si los
cálculos explícitos de las soluciones a los problemas son imposibles o demasiado engorrosos de
llevar a cabo directamente (por ejemplo, integración n-dimensional). De igual manera, en el
contexto empírico se utiliza la simulación cuando las investigaciones empíricas son imposibles o
muy costosas. El beneficio de la simulación es que permite alcanzar una solución ahorrando
tiempo y dinero, o que ésta permite una solución a todo.
Conclusiones
La simulación sirve de guía en la toma de decisiones al crear representaciones a diferentes
escenarios y lapsos de tiempo en distintas situaciones donde los sistemas se tornan complejos
por la gran cantidad de variables que en estos interactúan.

14
Gráficos de control estadístico de procesos (CEP)
Un gráfico CEP o “gráfico de control” es un gráfico de datos derivados de muestras que se
extraen periódicamente de un proceso y se grafican en la secuencia. Además, el gráfico CEP
se distingue por los “límites de control” que describen la variabilidad inherente del proceso
cuando éste es estable. La función de un gráfico de control es ayudar a evaluar la estabilidad
del proceso, y esto se consigue examinando los datos graficados en relación con los límites de
control.
Historia
Las primeras gráficas de control fueron desarrolladas en los años 1920 por Walter Shewhart, en
la empresa especializada en la fabricación de teléfonos Western Electrics, en Illinois.
La gráfica desarrollada por Shewart fue posteriormente perfeccionada por Edwards Deming y
Joseph Juran, de la empresa Hawthorne. Shewart, Deming y Juran se consideran los «padres»
y precursores del control tal y como lo conocemos hoy en día.
Uso
El gráfico CEP se utiliza para detectar cambios en un proceso. Los datos graficados, que pueden
ser datos individuales o alguno estadístico, como un promedio muestral, se comparan con los
límites de control.
Aplicaciones
Compañías del sector del automóvil, electrónicas, de defensa y de otros sectores frecuentemente
utilizan gráficos de control (para características críticas) para alcanzar y demostrar la estabilidad
y capacidad continuas del proceso. Si se reciben productos no conformes, los gráficos se utilizan
para ayudar a establecer el riesgo y determinar el alcance de la acción correctiva.
Procedimiento
1. Elegir la característica a estudio. Debe medir la variable que queremos controlar: la longitud
de una pieza, la temperatura de una máquina, etc.
2. Tomar los datos. Deberemos recoger los valores durante un periodo de tiempo suficiente que
nos permita obtener una visión representativa del desarrollo del proceso. 3. Introducir os datos
en la hoja de cálculo, y calcular la cuál es la línea central (valor medio de los datos) y los límites
superior e inferior.
4. Representar los datos en la gráfica, y estudiar si el funcionamiento es el correcto. Si no fuera
por estar el proceso descentrado (la media de los datos no es la medida que nos pide las
especificaciones) habría que recalibrar las máquinas. O bien, si la variabilidad es demasiado alta
y los productos se salen de las tolerancias demasiado frecuentemente, habría que estudiar las
causas para afinar los resultados.
5. Volver a realizar el estudio cada cierto tiempo para comprobar que el funcionamiento sigue
siendo el correcto.
Resultados

15
Además de presentar los datos en una forma visible para el usuario, los gráficos de control
facilitan la respuesta apropiada a la variación del proceso, ayudando al usuario a distinguir la
variación aleatoria que es inherente a un proceso estable, de la variación que puede ser debida
a “causas asignables” (es decir, para la cual puede asignarse una causa específica), cuya
detección y corrección oportuna puede ayudar a mejorar el proceso.
Conclusiones
Se puede afinar el uso de gráficos de control para producir una indicación más rápida de los
cambios del proceso, o para incrementar la sensibilidad a los cambios pequeños, a través de la
utilización de criterios adicionales en la interpretación de las tendencias y patrones en los datos
graficados.

Análisis de series de tiempo


El análisis de series de tiempo es una familia de métodos para estudiar una colección de
observaciones hechas secuencialmente en el tiempo.
Historia
El análisis de series de tiempo, utilizando como dominio el tiempo y vistas como procesos
estocásticos, surge en 1970 con la obra pionera de Box-Jenkins: Time Series Analysis:
Forecasting and Control. A pesar del poco tiempo de estudio del análisis de las series de tiempo,
se han hecho grandes contribuciones. Los personajes más importantes a lo largo del desarrollo
de dicha teoría han sido:

• George Edward Pelham Box1 y Gwilym Meirion Jenkins2 en colaboración, desarrollaron


un esquema de clasificación para una amplia familia de modelos de series de tiempo.
• Posteriormente, se tienen las contribuciones en las series de tiempo univariantes y
multivariantes, estudiadas por Gregory C. Reinsel
• Mientras que Peter J. Brockwell trabajaba en el análisis de las series de tiempo y procesos
estocásticos, Richard A. Davis estaba trabajando en la inferencia, la estimación,
predicción y las propiedades generales de los modelos de series de tiempo. Los dos
personajes en colaboración desarrollaron las obras: Time Series: Theory and Methods, e
Introduction to Time Series and Forecasting, así como el desarrollo y análisis de las series
de tiempo mediante el software ITSM 2000
Uso
El análisis de series de tiempo se utiliza para describir patrones en los datos de series de tiempo,
para identificar valores “atípicos” (es decir, valores extremos cuya validez debería ser
investigada), bien para ayudar a entender los patrones o para hacer ajustes, y para detectar los
puntos decisivos en una tendencia. Otro uso que se le da es para explicar los patrones en una
serie temporal con los de otra serie temporal, con todos los objetivos inherentes en el análisis de
regresión.
Aplicaciones
El análisis de series de tiempo se aplica en el estudio de los patrones del desempeño a lo largo
del tiempo, por ejemplo, de mediciones de un proceso, quejas de clientes, no conformidades,
productividad y resultados de pruebas). Sus aplicaciones predictivas pueden utilizarse para

16
pronosticar el consumo de repuestos, el ausentismo del personal, los pedidos de los clientes, las
necesidades de materiales, el consumo de energía eléctrica
Procedimiento
Minitab: Los métodos simples de pronóstico y suavización modelan los componentes de una
serie que habitualmente se observa fácilmente en una gráfica de series de tiempo de los datos.
Este enfoque descompone los datos en sus partes componentes y luego extiende las
estimaciones de los componentes en el futuro para generar pronósticos. Se puede elegir entre
los métodos estáticos del análisis de tendencia y descomposición o los métodos dinámicos de
promedio móvil, suavización exponencial individual y doble y el método de Winters. Los métodos
estáticos tienen patrones que no cambian con el tiempo, los métodos dinámicos tienen patrones
que sí cambian con el tiempo y las estimaciones se actualizan utilizando los valores contiguos.
Resultados
Los métodos de análisis de series de tiempo son útiles en la planificación, en la ingeniería de
control, en la identificación de un cambio en un proceso, en la generación de pronósticos y en la
medición del efecto que pueda tener una intervención o acción externa.
Conclusiones
El análisis de series de tiempo frecuentemente es útil para entender cómo se comportará un
proceso bajo unas condiciones específicas, y determinar qué ajustes podrían (o no) influenciar
el proceso en la dirección de algún valor objetivo, o qué ajustes podrían reducir la variabilidad
del proceso.

17
Conclusión

Con respecto al trabajo presentado podemos obtener la información que ya hace varios años
atrás el objetivo de alcanzar la calidad en las actividades o procesos que realizamos ha estado
presente a lo largo del tiempo, dicho concepto ha evolucionado hasta obtener las herramientas
que se utilizan ahora para medir, monitorear y hasta buscar mejora continua.
Actualmente es posible medir la capacidad de un proceso utilizando herramientas estadísticas,
utilizando datos reales y retándolos con el objetivo de entregar un producto en buen estado al
cliente.
Las técnicas estadísticas son fundamentales en cualquier sistema de gestión de la calidad con
las cuales a parte de medir se pueden controlar los procesos.
Por ejemplo, los muestreos de calidad se pueden realizar hora por hora tomando piezas finales
y retarlas funcional y visualmente, con ello se pueden identificar lotes sospechosos por alguna
condición o tomarlos con una producción en buen estado.
Las Técnicas Estadísticas más utilizadas para contar con un sistema de gestión de calidad
robusto que emplea el ISO 9001 son Estadísticas descriptivas, Diseño de experimentos, Prueba
de hipótesis, Análisis de la medición, Análisis de la capacidad del proceso, Análisis de regresión,
Análisis de confiabilidad, Muestreo, Simulación, Gráficos de control estadístico de procesos
(CEP) y Fijación de tolerancias estadísticas.

18
Bibliography
Cruz, L. P. (2013). Temas de actualidad. Retrieved from [Link]
2013/[Link]

Merzthal, J. (Consultado en 2022, Febrero 22). Retrieved from Conexion esan:


[Link]

Perez, G. (2003). Retrieved from Orientación sobre las técnicas estadísticas :


[Link]
[Link]

Rojas, A. R.-F. (2006, marzo consultado en 22 de febrero, 2022). Retrieved from Control estadistico de
procesos: [Link]

19

También podría gustarte