0% encontró este documento útil (0 votos)
155 vistas6 páginas

Control Estadístico de Calidad

Este documento describe el enfoque de control estadístico de la calidad (CEC). El CEC se basa en controlar los procesos mediante la verificación de características de calidad para producir productos no defectuosos. El CEC implica una definición estadística de calidad centrada en minimizar la variabilidad dentro de los límites aceptables a través del control de procesos. El control de procesos estadístico (CEP) permite identificar causas aleatorias y no aleatorias de variabilidad para introducir medidas correctivas

Cargado por

Fernando López
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
155 vistas6 páginas

Control Estadístico de Calidad

Este documento describe el enfoque de control estadístico de la calidad (CEC). El CEC se basa en controlar los procesos mediante la verificación de características de calidad para producir productos no defectuosos. El CEC implica una definición estadística de calidad centrada en minimizar la variabilidad dentro de los límites aceptables a través del control de procesos. El control de procesos estadístico (CEP) permite identificar causas aleatorias y no aleatorias de variabilidad para introducir medidas correctivas

Cargado por

Fernando López
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

El enfoque como control estadístico de la calidad

El CEC se basa en la idea de elaborar productos no defectuosos por medio del


control estricto de los procesos. Dado que su lema es «introducir la calidad en
el proceso», el CEP constituye el corazón de este enfoque de Gestión de la
Calidad. El CEP consiste en controlar los procesos verificando la conformidad
de algunas características de calidad (el diámetro o la longitud de una pieza,
las reservas correctas en un hotel, o el tiempo de prestación de un servicio)
mientras las tareas de que consta se están desarrollando.

El concepto de calidad implícito a este enfoque de Gestión de la Calidad es la


definición estadística auspiciada por Shewhart, Deming y Taguchi, entre otros.
La medida de la calidad, es pues, la variabilidad de las características del
producto. La conformidad con las especificaciones se persigue asegurando
la uniformidad de los procesos, su principio fundamental, con el objeto de
minimizar la variabilidad dentro de un rango aceptable.

Con la implantación del CEC (Figura 4.5), la dirección empieza a preocuparse


por hacer más transparente el proceso productivo. El desarrollo de un sistema
de control de los procesos basado en
procedimientos estadísticos para la presentación y análisis de datos, junto con
inspecciones de los componentes semielaborados en cada fase del proceso
productivo, proporcionan información sobre su comportamiento, que sirve de
base para:

1. La detección de anomalías, y su clasificación en fluctuaciones


aceptables y en problemas de calidad según se mantengan las
variaciones dentro de un rango aceptable o no.

2. La identificación de fuentes aleatorias (problemas crónicos o comunes) y


no aleatorias (problemas esporádicos o especiales) de variabilidad.

3. La localización y subsanación de las fuentes de variabilidad en los


productos permite introducir medidas correctoras sobre los procesos,
que conducen a disminuir los defectos en el producto, aumentar la
conformidad y reducir los costes de no calidad ahorrando en los gastos
originados por los desperdicios y los reprocesos.

El CEC sigue manteniendo la inspección, que además de su función de


identificación de productos defectuosos para su desecho o reproceso, alimenta
también de información al CEP sobre las anomalías en los productos que
pueden revelar problemas en procesos. Por tanto, el CEC conduce a medidas
correctivas tanto en productos como en procesos.

El objetivo del CEP es encontrar el rango de variación natural del proceso y


asegurar que la medida de la característica de calidad permanece dentro de
ese rango que se juzga aceptable. La clave para controlar un proceso y para
comprender cómo colocarlo bajo control estadístico (proceso estable) consiste
en distinguir las distintas fuentes de variabilidad del proceso, sustancialmente
dos: fuentes aleatorias, que nacen de problemas crónicos o comunes; y fuentes
no aleatorias, originadas por problemas esporádicos o especiales (Deming,
1982: 245-262; Juran y Gryna, 1993: 22.5-22.6)
(Figura 4.6).
El CEP se basa en la existencia de una variabilidad en las características del
producto, generada por diferentes fuentes que forman parte natural de un
proceso: medio ambiente, mantenimiento, máquinas, mano de obra, materiales
y métodos. Estos factores, las 6M, son las causas comunes o crónicas de
variabilidad. Estas causas crónicas se caracterizan por aparecer
frecuentemente, por su estabilidad, por su previsibilidad, por la variedad de
fuentes de donde nacen y por las pequeñas variaciones que ocasionan en el
proceso. La variabilidad producida individualmente por cada uno de estos
factores surge de manera aleatoria, pero su efecto combinado es estable y
puede predecirse estadísticamente. La variabilidad común de un proceso será
siempre la misma, al ser una situación adversa permanente o estructural, que
por ejemplo conduce a una fluctuación de la longitud de una pieza en un ± 0,05
cm o a un error en las reservas de habitaciones de un hotel en un 1 % de los
casos. La amplitud del intervalo de variación común alrededor de la meta
establecida en la especificación de calidad está directamente ligada a la propia
calidad del diseño del proceso. La estabilidad de las variaciones comunes
deriva de ser inherente al diseño del proceso.

Los niveles históricos de variabilidad no podrán reducirse mientras no se


introduzcan cambios físicos, tecnológicos u organizativos en el proceso, es
decir, mientras no se modifique el statu quo. Los trabajadores no son
responsables de estas fluctuaciones, pues están fuera de su control. Las
causas comunes, al ser un resultado del diseño del sistema, son una
responsabilidad que compete a la dirección.

El proceso puede sufrir también de causas esporádicas o especiales de


variabilidad. Estas causas especiales pueden derivar de cualquiera de los seis
factores causantes de variación, antes referidos, aunque ahora son fuentes
externas y no inherentes al diseño del sistema. Estos problemas se tipifican por
ser imputables a actividades o a personas individuales, aparecer en instantes
aislados, ser irregulares e imprevisibles, nacer en unas pocas fuentes muy
importantes, causar grandes variaciones estructurales en el proceso, y por su
capacidad para desaparecer y reaparecer del proceso si no se toman medidas
correctoras adecuadas. Por ello, la variabilidad esporádica es el resultado de
cambios no aleatorios en el proceso, lo que la hace estadísticamente
imprevisible. La variabilidad especial de un proceso es una situación adversa
coyuntural, que puede ocasionar un problema de calidad al exceder la
variabilidad de los límites de tolerancia aceptables (± 0,05 cm en la longitud de
la pieza, o un 1 % de errores en reservas). Mientras que las variaciones
comunes suelen situarse dentro de un intervalo estrecho, las variaciones
especiales pueden alejar las características de calidad de su nivel histórico
produciendo puntas en el gráfico. Por ejemplo, si en un hotel el porcentaje de
errores en las reservas sube súbitamente al 5 %, se ha producido un problema
de calidad esporádico, entendido como un cambio repentino, normalmente
adverso, en el statu quo. Eliminando las causas especiales, los procesos
volverán solamente a sus niveles históricos de calidad. Los trabajadores tienen
una cuota importante de responsabilidad sobre estas variaciones especiales,
por dos razones: al estar más cerca del proceso, están en mejores condiciones
para reconocerlas; y al tener un conocimiento más profundo del proceso,
pueden identificar mejor la causa así como su remedio (eliminarla o reducirla).
Sólo diagnosticando correctamente las fuentes de variación más importantes y
reduciéndolas, la calidad podrá mejorarse. Los problemas de calidad para una
organización, aunque nacen en múltiples fuentes, tienen su origen primordial
en los problemas crónicos de calidad que infestan el diseño del producto, los
procesos y los sistemas, no en los problemas esporádicos. La famosa regla del
80/20 (curva de Pareto o Lorentz) enunciada por Juran mantiene plenamente
su valor. Deming fue aún más radical y hablaba, según su experiencia, del
94/6. Otros expertos (Gitlow y Gitlow, 1987) calculan que las variaciones
comunes y especiales suponen el 85 % y el 15 %, respectivamente, de los
problemas de un proceso.

Deming, siguiendo a Shewhart, define un proceso estable o bajo control


estadístico como aquel sin ninguna indicación de que existe una causa especial
de variación. Se trata de un proceso aleatorio: la variación aleatoria ocurre
dentro de límites de control determinados estadísticamente. Mientras nada
cambie en el proceso, la variación futura puede ser fácilmente predecible y
permanecer indefinidamente dentro de los mismos límites. Se dice entonces
que el comportamiento del sistema es predecible en el futuro próximo. En
estado de control estadístico, todas las causas especiales detectadas se han
eliminado ya. La variación remanente es casual, esto es, debida a causas
comunes, hasta que surja una nueva causa especial y deba eliminarse. Esto no
quiere decir que, alcanzado el estado de control estadístico, no haya nada más
que hacer. Quiere decir que, en este estado, no hay que actuar sobre las
variaciones remanentes, pues la acción realizada será ineficaz y creará más
variaciones y problemas estacionales.

En un proceso estable, carece de sentido establecer una meta para la


especificación: los resultados del proceso sólo son controlables y predecibles
dentro de los límites de variación común, siendo imposible garantizar la
convergencia hacia el valor central, que sólo puede aparecer aleatoriamente. Si
la meta de especificación establecida está fuera de dichos límites, aún es más
inalcanzable pues excede a las posibilidades del sistema.

La existencia de un sistema estable casi nunca es un estado natural.


Generalmente es el resultado de eliminar paulatinamente las causas
especiales, una por una a medida que aparece una señal estadística, dejando
únicamente la variación aleatoria propia de un sistema estable.

Por tanto, cuando la empresa adopta un enfoque de CEC, resulta fundamental


identificar las causas comunes y especiales de variación, pues esta información
da la pauta sobre cuándo y cómo actuar en el proceso. La herramienta que
Deming propuso para distinguir entre las causas especiales y comunes fue el
CEP.
Los gráficos de control, ideados inicialmente por Shewhart, establecen los
límites normales de variación nacidos del diseño del proceso, alrededor del
valor central establecido en la especificación.

La alimentación del gráfico con las mediciones de resultados del proceso


genera señales estadísticas que distinguen entre variaciones aceptables y
variaciones que pueden indicar problemas, según se traspasen o no los límites
de control. Si el resultado está dentro de los límites aceptables, no se hace
nada. Pero si las mediciones sobrepasan dichos límites, se desencadena una
alarma que obliga a actuar, primero deteniendo el proceso y luego trasladando
la información al responsable del proceso para que actúe. Juran12 ha
formalizado este proceso en tres fases con su famosa trilogía para la Gestión
de la Calidad, que distingue tres procesos interrelacionados: planificación de la
calidad, control de la calidad y mejora de la calidad (Figura 4.7). La
planificación de la calidad está enfocada a diseñar productos y procesos que
satisfagan las necesidades de los clientes. El control de calidad se basa en el
CEP, a fin de detectar desviaciones anómalas fuera de los límites razonables y
de retroalimentar (en bucle) con dicha información a la dirección, para que
emprenda las acciones correctoras precisas a fin de devolver el producto o el
proceso a la zona de conformidad con los estándares preestablecidos,
eliminando la variabilidad esporádica. La mejora de la calidad implica iniciativas
para mejorar la calidad de los productos y los procesos, disminuyendo la
variabilidad crónica alrededor del nivel histórico o incrementando el nivel
estándar de calidad de los productos, a un coste competitivo (Figura 4.8). La
mejor manera de atacar los problemas crónicos para mejorar la calidad es con
un enfoque de «proyecto por proyecto» (Juran y Gryna, 1993: 41).
Sin embargo el CEC, por sí solo, no proporciona tampoco una garantía de
calidad satisfactoria. El mero control de los procesos no permite impedir los
defectos de calidad que nacen en un producto mal diseñado (calidad de diseño
deficiente) o en un producto elaborado con materiales mal seleccionados.

El CEC sigue siendo un enfoque reactivo, si bien la detección de errores se


logra en una fase más temprana con sus ventajas en términos de
productividad. La responsabilidad sobre la calidad sigue descansando sobre los
especialistas, que orgánicamente siguen adscritos la mayoría de las veces al
departamento de producción, aunque en algunas compañías se encuentran ya
encuadrados en una sección distinta independiente de aquél. El perfil de
cualificación de los especialistas en calidad dentro de las empresas con
enfoques de inspección o CEC sigue descansando en su dominio de métodos
estadísticos; se trata ante todo de ingenieros de calidad.

También podría gustarte