domingo, 21 de junio de 2020

Lluvia de Ideas Que es y Como Implementarlo

La lluvia de ideas es una forma de pensamiento creativo encaminada a que todos los miembros de un grupo participen libremente y aporten ideas sobre un tema.

lluvia de ideas


Las sesiones de lluvia o tormenta de ideas son una forma de pensamiento creativo encaminada a que todos los miembros de un grupo participen libremente y aporten ideas sobre determinado tema o problema. Esta técnica es de gran utilidad para el trabajo en equipo, ya que permite la reflexión y el diálogo con respecto a un problema y en términos de igualdad. 

Se recomienda que las sesiones de lluvia de ideas sean un proceso disciplinado a través de los siguientes pasos:

1. Definir con claridad y precisión el tema o problema sobre el que se aportan ideas. Esto permitirá que el resto de la sesión sólo esté enfocada a ese punto y no se dé pie a la divagación en otros temas.

2. Se nombra un moderador de la sesión, quien se encargará de coordinar la participación de los demás participantes.

3. Cada participante en la sesión debe hacer una lista por escrito de ideas sobre el tema (una lista de posibles causas si se analiza un problema). La razón de que esta lista sea por escrito y no de manera oral es que así todos los miembros del grupo participan y se logra concentrar más la atención de los participantes en el objetivo. Incluso, esta lista puede encargarse de manera previa a la sesión.

4. Los participantes se acomodan de preferencia en forma circular y se turnan para leer una idea de su lista cada vez. A medida que se leen las ideas, éstas se presentan visualmente a fin de que todos las vean. El proceso continúa hasta que se hayan leído todas las ideas de todas las listas. Ninguna idea debe tratarse como absurda o imposible, aun cuando se considere que unas sean causas de otras; la crítica y la anticipación de juicios tienden a limitar la creatividad del grupo, que es el objetivo en esta etapa. En otras palabras, es importante distinguir dos procesos de pensamiento: primero pensar en las posibles causas y después seleccionar la más importante. Realizar ambos procesos al mismo tiempo entorpecerá a ambos. Por eso, en esta etapa sólo se permite el diálogo para aclarar alguna idea señalada por un participante. Es preciso fomentar la informalidad y la risa instantánea, pero la burla debe prohibirse.

5. Una vez leídos todos los puntos, el moderador le pregunta a cada persona, por turnos, si tiene comentarios adicionales. Este proceso continúa hasta que se agoten las ideas. Ahora se tiene una lista básica de ideas acerca del problema o tema. Si el propósito era generar estas ideas, aquí termina la sesión; pero si se trata de profundizar aún más la búsqueda y encontrar las ideas principales, entonces se deberá hacer un análisis de las mismas con las siguientes actividades.

6. Agrupar las causas por su similitud y representarlas en un diagrama de Ishikawa, considerando
que para cada grupo corresponderá una rama principal del diagrama, a la cual se le asigna un título representativo del tipo de causas en tal grupo. Este proceso de agrupación permitirá clarificar y estratificar las ideas, así como tener una mejor visión de conjunto y generar nuevas opciones.

7. Una vez realizado el DI se analiza si se ha omitido alguna idea o causa importante; para
ello, se pregunta si hay alguna otra causa adicional en cada rama principal, y de ser así se
agrega.

8. A continuación se inicia una discusión abierta y respetuosa dirigida a centrar la atención en las causas principales. El objetivo es argumentar en favor de y no de descartar opciones.
Las causas que reciban más mención o atención en la discusión se pueden señalar en el
diagrama de Ishikawa resaltándolas de alguna manera.

9. Elegir las causas o ideas más importantes de entre las que el grupo ha destacado previamente.
Para ello se tienen tres opciones: datos, consenso o por votación. Se recomienda
esta última cuando no es posible recurrir a datos y en la sesión participan personas de
distintos niveles jerárquicos, o cuando hay alguien de opiniones dominantes. La votación
puede ser del tipo 5,3,1 (ver paso 5 de las recomendaciones presentadas antes para construir
un diagrama de Ishikawa). Se suman los votos y se eliminan las ideas que recibieron
poca atención; ahora, la atención del grupo se centra en las ideas que recibieron más votos.
Se hace una nueva discusión sobre éstas y después de ello una nueva votación para obtener
las causas más importantes que el grupo se encargará de atender.

10. Si la sesión está encaminada a resolver un problema, se debe buscar que en las futuras
reuniones o sesiones se llegue a las acciones concretas que es necesario realizar, para lo
cual se puede utilizar de nuevo la lluvia de ideas y el diagrama de Ishikawa. Es importante
dar énfasis a las acciones para no caer en el error o vicio de muchas reuniones de trabajo,
donde sólo se debaten los problemas pero no se acuerdan acciones para solucionarlos.





viernes, 12 de junio de 2020

Estado de un proceso: capacidad y estabilidad





Los procesos productivos están en constante cambio y crecimiento, nunca se detienen, y es aquí cuando es necesario evaluar dichos procesos y conocer su capacidad y su comportamiento. ¿Sabras como mejorarlos? aquí te enseñamos como.



Sumario:
-Estado de un proceso
-Estrategias de mejora


Aprenderás:
-Identificar el estado de un proceso en cuanto a su capacidad
y estabilidad para seleccionar la estrategia de
mejora más adecuada.

-Conocer las estrategias de mejora adecuadas para
cada categoría del estado de un proceso: inestable e
incapaz, estable pero incapaz, capaz pero inestable,
estable y capaz.


miércoles, 25 de junio de 2014

Cliclo de calidad, ocho pasos en la solucion de un problema

Para mejorar la calidad y, en general para resolver problemas recurrentes y crónicos,  es imprescindible seguir una metodología bien estructurada, para así llegar a las causas de fondo de los problemas realmente importantes, y no quedarse en atacar efectos y síntomas. En este sentido la mayoría de metodologías de solución de problemas están inspiradas en el ciclo de la calidad o ciclo PHVA (planear,hacer, verificar y actuar), en el que se desarrolla de manera objetiva y profunda un plan (planificar); éste se prueba en pequeña escala o sobre una base de ensayo tal como ha sido planeado (hacer); se analiza si se obtuvieron los efectos esperados y la magnitud de los mismos (verificar), y de acuerdo con lo anterior se actúa en consecuencia (actuar), ya sea con la generalización del plan si dio resultado, con medidas preventivas para que la mejora no sea reversible, o bien, se reestructura el plan si los resultados no fueron satisfactorios, con lo que se vuelve a iniciar el ciclo.

Una forma de llevar a la práctica el ciclo PHVA, es dividir a éste en ocho pasos o actividades para su solución, como se muestra en la tabla 1.1, que se describen a continuación.


1. Seleccionar y caracterizar el problema. En este primer paso se selecciona un problema importante, se delimita y se define en términos de su magnitud e importancia. Para establecer la magnitud es necesario recurrir a datos estadísticos para que sea clara la frecuencia en la que ocurre el problema. Además, es necesario conocer cómo afecta al cliente (interno o externo) y el costo anual estimado de dicho problema. Con base en lo anterior se establece el objetivo del proyecto de mejora y se forma el equipo de personas que abordará dicho problema.

2. Buscar todas las posibles causas. En esta etapa se trata de buscar todas las posibles causas del problema, sin discutirlas. Para ello se recomienda aplicar una sesión de “lluvia de ideas”, con especial atención en los hechos generales y no en los particulares (por ejemplo, si el problema es lotes rechazados por mala calidad, no preguntar por qué se rechazó un lote en particular; mejor preguntar por qué se rechazan los lotes).

3. Investigar las causas más importantes. El objetivo de este tercer paso es elegir de la lista de posibles causas detectadas en el punto anterior, las más importantes. Siempre que sea posible, para esta elección se debe recurrir a análisis estadísticos (análisis de Pareto, estratificación, etc.). De lo contrario la elección de las causas más importantes se puede hacer por consenso o por votación. Al final de esta actividad se deberán tener las causas sobre las que se actuará para resolver el problema.

4. Considerar las medidas remedio. En este paso se deciden las medidas remedio para cada una de las causas sobre las que se ha decidido actuar. Se recomienda buscar que estas medidas lleguen al fondo de la causa, que modifiquen la estructura de la problemática; es decir, no adoptar medidas superficiales que dejen intactas las causas. Para acordar las soluciones para cada causa, se parte de los análisis hechos en el paso previo y/o de una sesión de lluvia de ideas. Para cada causa se debe completar la siguiente información sobre las soluciones: objetivo, dónde se aplicará, quién, cómo (plan detallado), cuánto costará, cuándo
se implantará, cómo se va a verificar si fue efectiva y efectos secundarios esperados.

5. Implementar las medidas remedio. En este paso se deben ejecutar las medidas remedio, acordadas antes, iniciando a pequeña escala sobre una base de ensayo. Además, se recomienda seguir al pie de la letra el plan elaborado en el paso anterior e involucrar a los afectados, explicándoles los objetivos que se persiguen. Si hay necesidad de hacer algún cambio al plan previsto, esto debe ser acordado por el equipo responsable del proyecto.

6. Revisar los resultados obtenidos. Aquí, es necesario verificar con datos estadísticos si las medidas remedio dieron resultado. Una forma práctica es comparar estadísticamente lamagnitud del problema antes con su magnitud después de las medidas. En caso de encontrar resultados positivos, éstos deben cuantificarse en términos monetarios (si esto es posible).

7. Prevenir recurrencia del mismo problema. Si las soluciones no dieron resultado se debe repasar todo lo hecho, aprender de ello, reflexionar, obtener conclusiones y con base en esto empezar de nuevo. En cambio, si las soluciones dieron resultado, entonces se debe generalizar y estandarizar la aplicación de las medidas remedio; y acordar acciones para prevenir la recurrencia del problema. Por ejemplo, estandarizar la nueva forma de operar el proceso, documentar el procedimiento y establecer el sistema de control o monitoreo del proceso.

8. Conclusión. En este último paso se revisa y documenta todo lo hecho, cuantificando los logros del proyecto (medibles y no medibles). Además se señalan las causas y/o problemas que persisten y señalar algunas indicaciones de lo que puede hacerse para resolverlos. Finalmente, elaborar una lista de los beneficios indirectos e intangibles que se logró con el plan de mejora.

Estos ocho pasos, aplicados a problemas recurrentes o a proyectos de mejora, tal vez en un principio parezcan un trabajo extra y lleno de rodeos, pero a mediano plazo liberan de muchas de las actividades que hoy se realizan y que no tienen ningún impacto en la calidad. En otras palabras, el seguir los ocho pasos sustituirá cantidad de acciones instantáneas por calidad de soluciones de fondo. Seguir los ocho pasos debe ser un hábito que se debe promover en todos los niveles de la empresa y en todos sus niveles directivos.

viernes, 11 de abril de 2014

Diagrama de Pareto

diagrama de pareto
Se reconoce que más de 80% de la problemática en una organización es por causas comunes, es decir, se debe a problemas o situaciones que actúan de manera permanente sobre los procesos. Pero, además, en todo proceso son pocos los problemas o situaciones vitales que contribuyen en gran medida a la problemática global de un proceso o una empresa. Lo anterior es la premisa del diagrama de Pareto, el cual es un gráfico especial de barras cuyo campo de análisis o aplicación son los datos categóricos, y tiene como objetivo ayudar a localizar el o los problemas vitales, así como sus principales causas. La idea es que cuando se quiere mejorar un proceso o atender sus problemas, no se den “palos de ciego” y se trabaje en todos los problemas al mismo tiempo atacando todas sus causas a la vez, sino que, con base en los datos e información aportados por un análisis estadístico, se establezcan prioridades y se enfoquen los esfuerzos donde éstos tengan mayor impacto.

La viabilidad y utilidad general del diagrama está respaldada por el llamado principio de Pareto, conocido como “Ley 80-20” o “Pocos vitales, muchos triviales”, en el cual se reconoce que pocos elementos (20%) generan la mayor parte del efecto (80%), y el resto de los elementos propician muy poco del efecto total.
El nombre del principio se determinó en honor al economista italiano Wilfredo Pareto (1843-1923).





diagrama de pareto

Como construir el Diagrama de Pareto

1. Ordenar las frecuencias mayor a menor
2. Determinar la frecuencia relativa  
3. Determinar la frecuencia acumulada
4. Determinar la Zona dudosa 

Construiremos el diagrama con el ejemplo siguiente:
Ejemplo 6.1 
En una fabrica de botas industriales se hace una inspección del producto final, mediante la cual las botas con algún tipo de defecto se mandan a la "segunda", después de quitar las etiquetas para cuidar la marca. por medio de un análisis de los problemas o defectos por los que las botas se mandan a la segunda, se obtienen los siguientes datos, que corresponden a las ultimas 10 semanas:

1. Para empezar armar esta diagrama se organizan los datos o las frecuencias de mayor a menor

2. Determinamos la frecuencia Relativa que se halla de esta manera:

(# de frecuencias aquí es el cuantas veces el defecto se presento durante el análisis por ejemplo: durante el análisis el reventado de la piel se presento 369 veces y así sucesivamente y el total es total de la suma de todas las frecuencias presentadas)
  
Por ejemplo:

frecuencia relativa = 369 / 738 * 100 = 50% ( aquí el resultado deber ser siempre en %)
es decir que el defecto reventado de la piel representa el 50% de los daños. y la misma manera para todos.
diagrama de pareto

3.Hallar la frecuencia acumulada;

 la Frecuencia relativa es el primer dato de la frecuencia acumulada como lo muestra el ejemplo:

diagrama de pareto

 la metodología para seguir la secuencia es hacer una suma en Z  por ejemplo:

50% nuestro primer dato de la F. acumulada+ el segundo dato de la F. relativa 18% = a nuestro segundo dato de la F. acumulada 68% (ver ejemplo) y para todos:
68% + 18% = 87%
87% + 13% = 100%
diagrama de pareto

4. determinar la zona dudosa

que es el 67% y el 80%, y son las lineas verdes que aparecen en la figura de abajo.  
diagrama de pareto
y procedemos a realizar el diagrama:

diagrama de pareto

Descripción del diagrama de pareto.

Al representar los datos de las botas por medio de una gráfica, con las barras ubicadas de izquierda a derecha en forma decreciente, de acurdo con el porcentaje de la frecuencia relativa, se obtiene el diagrama de Pareto de la figura de arriba,  donde la escala vertical izquierda esta en términos de porcentaje de botas rechazadas y la vertical derecha en porcentaje de la frecuencia acumulada. 

La linea que esta arriba de las barras representa la magnitud o frecuencia acumulada de los defectos hasta completar el total. en la gráfica se aprecia que el defecto reventado de la piel es el mas frecuente (de mayor impacto), ya que representa el 50% del total de los defectos. en este defecto es preciso centrar un verdadero proyecto de mejora para determinar la causa de fondo, y dejar de dar la "la solución" que hasta ahora se ha adoptado: mandar las botas a la segunda.

jueves, 10 de abril de 2014

Histograma y tabla de frecuencias

Histograma y la tabla de frecuencias permiten visualizar estos dos aspectos de un conjunto de datos, y además muestran la forma en que los datos se distribuyen dentro de su rango de variación. De manera específica, el histograma es una representación gráfica, en forma de barras, de la distribución de un conjunto de datos o una variable, donde los datos se clasifican por su magnitud en cierto número de grupos o clases, y cada clase es representada por una barra, cuya longitud es proporcional a la frecuencia de los valores representados. Por lo general, el eje horizontal está formado por una escala numérica para mostrar la magnitud de los datos; mientras que en el eje vertical se representan las frecuencias.

Comúnmente el histograma se obtiene a partir de la tabla de frecuencias. Para obtener ésta, se determina la marca de clase o numero de clase utilizando la regla de Sturgess, señala que el numero de clase es igual:
MC: (3,3* log10(n) ) + 1
para el caso del grosor de los discos se determina de esta manera:
MC: (3.3* log10(125) ) + 1 = 7,9 = 8 es decir que se forma ocho clase como lo muestra el ejemplo de la tabla 2.2(abajo)
Se recomienda que el numero de clase sea de 5 a 15.

2. paso determina el rango de los valores
Rango= valor max - valor min
para este caso el máximo es: 1.25 y el valor mínimo es : 1.11
Rango: 1.25 - 1.11 = 0.15

3. hallar el ANCHO, con este vas a determinar o construir el rango dentro de la tabla de frecuencia que es
Ancho= Rango/MC
 Por ejemplo:
Ancho= 0.15/8 = 0.02
para comenzar a construir nuestro rango escogemos el valor mínimo de nuestros datos que es 1.10
y sumaremos el valor mínimo mas el ancho
1.10 + 0.02 = 1.12 es decir que la primera clase representa a los datos con magnitud entre 1.10 y 1.12

luego el resultado de nuestro primer rango aplicaremos lo mismo
1.12 + 0.02= 1.14
la magnitud esta entre 1.12 - 1.14
continuamos de esta manera hasta obtener todos los 8 clases como lo muestra la tabla 2.2
que el ultimo resultado es igual 1.24 - 1.26

4. paso determinar la frecuencia absoluta que es hallar cuantos valores caen dentro del rango obtenido en el paso 3.
por ejemplo como lo muestra la tabla 2.2
nuestro primer rango es 1.10 a 1.12 al buscar en la tabla 2.1 que valores caen dentro de este se encuentra tres valores que están dentro de este rango es decir que la frecuencia absoluta sera 3 y así sucesivamente para todos.

5. paso hallar la frecuencia relativa que es:
FR= f absoluta / n * 100


6. paso hallar la frecuencia acumulada.
el primer dato de la frecuencia acumulada es el mismo dato de la frecuencia relativa siempre ( observar el cuadro) entonces una vez que tengas esto vas a sumar la frecuencia acumulada que tienes con el segundo dato de la frecuencia relativa es decir 2.4 + 6.8 = 8.8 % que es nuestro segundo dato  de la frecuencia acumulada esto consiste como una suma en z...









así quedaría nuestro gráfico









   






Si en el histograma de la figura 2.1 (se insertan las especificaciones (1.10 y 1.30) para el grosor del disco, se observa que la variación de los datos (amplitud del histograma) es un poco menor que las especificaciones. Pero, con respecto a 1.20, que es el grosor óptimo, el proceso está moderadamente descentrado a la izquierda, como ya se había visto cuando se calculó la media. Además, el grosor de los discos no es satisfactorio, ya que la orilla izquierda del histograma debería estar alejada de la especificación inferior       (EI = 1.10), lo cual no ocurre. Cabe comentar que aunque no hay ningún dato por debajo de la EI, no se debe perder de vista que el estudio se hace a partir de una muestra, por lo tanto, si se continúa tomando datos es casi seguro que se encontrarán mediciones fuera, como lo sugiere la prolongación de la cola izquierda de la curva imaginaria que suaviza al histograma. Con base en lo anterior, la primera acción que se habría de ejecutar para mejorar la capacidad del proceso de inyección de discos es mejorar su centrado.

A través del ejemplo anterior queda claro que el histograma ayuda a ver la tendencia central de los datos, facilita el entendimiento de la variabilidad y favorece el pensamiento estadístico, ya que de un solo vistazo se logra tener una idea acerca de la capacidad de un proceso, se evitan tomar decisiones sólo apoyándose en la media y se detectan datos raros y formas especiales de la distribución de los datos. Estos detalles de la interpretación del histograma los veremos con mayor profundidad a continuación.

Interpretación del histograma

Cuando un histograma se construye de manera correcta, es resultado de un número suficiente de datos (de preferencia más de 100), y éstos son representativos del estado del proceso durante el periodo de interés; entonces, se recomienda considerar los siguientes puntos en la interpretación del histograma

1. Observar la tendencia central de los datos. Localizar en el eje horizontal o escala de medición las barras con mayores frecuencias. En el histograma de la figura 2.1, una parte sustancial de las mediciones se localiza entre 1.14 y 1.20 mm.

2. Estudiar el centrado del proceso. Para ello, es necesario apoyarse en el punto anterior y observar la posición central del cuerpo del histograma con respecto a la calidad óptima y a las especificaciones. Por ejemplo, en la figura 2.2 incisos a) y c) se muestran procesos centrados, el primero presenta poca variabilidad, pero en el segundo ocurre lo contrario. Mientras que en los incisos b) y d) se observan procesos descentrados, el primero con poca variabilidad y el segundo con mucha. Aun cuando se cumplan las especificaciones, si el proceso no está centrado, la calidad que se produce no es adecuada, ya que entre más se aleje del óptimo más mala calidad se tendrá. Por ello, en caso de tener un proceso descentrado se procede a realizar los ajustes o cambios necesarios para centrar el proceso.

3. Examinar la variabilidad del proceso. Consiste en comparar la amplitud de las especificaciones con el ancho del histograma. Para considerar que la dispersión no es demasiada, el ancho del histograma debe caber de forma holgada en las especificaciones. En la figura 2.2 incisos a) y b) hay poca variación, mientras que en los incisos c) y d) ocurre lo contrario.

4. Analizar la forma del histograma. Al observar un histograma considerar que la forma de distribución de campana es la que más se da en salidas de proceso y tiene características similares a la distribución normal  figura 2.2 a), b), c) y d). Es frecuente que cuando la distribución no es de este tipo sea la señal de un hecho importante que está ocurriendo en el proceso y que tiene un efecto negativo en la calidad. Por ello, es necesario revisar si la forma del histograma es muy diferente a la de campana. Algunas de las formas típicas que no coinciden con una distribución de campana, son las siguientes:



























Capacidad de largo plazo e índices Pp y Ppk

Cuando hablamos de capacidad de un proceso podemos tener una perspectiva de corto o largo plazo. La capacidad de corto plazo se calcula a partir de muchos datos tomados durante un periodo suficientemente corto para que no haya influencias externas sobre el proceso (por ejemplo, que no haya importantes
cambios de temperatura, turnos, operadores, lotes de materia prima, etc.). Por lo tanto, esta capacidad representa el potencial del proceso, es decir, lo mejor que se puede esperar del mismo. Por otra parte está la perspectiva de largo plazo que, a final de cuentas, es la que la interesa al cliente. De aquí que la capacidad de largo plazo se calcula con muchos datos tomados de un periodo de tiempo suficientemente largo como para que los factores externos influyan en el desempeño del proceso.

Índices Pp y Ppk

Estos índices están enfocados al desempeño del proceso a largo plazo, y no sólo a su capacidad. Por ello, el índice de desempeño potencial del proceso (process performance) Pp se calcula de la siguiente manera:
donde σL es la desviación estándar de largo plazo. Nótese que el índice Pp se calcula en forma similar al Cp, la única diferencia es que Pp utiliza σL, mientras que Cp usualmente se calcula con la desviación estándar de corto plazo. Un problema del índice Pp es que no toma en cuenta el centrado del proceso, por ello suele complementarse con el índice de desempeño real del proceso Ppk que se obtiene con

Advierta que este índice se calcula de la misma manera que el índice Cpk, la única diferencia es que Ppk utiliza σL (la desviación estándar de largo plazo). por ejemplo: supongamos se vio que σL = 4.16, EI = 10, ES = 40, N = 25 y μ se puede estimar con la media de medias, es decir, será igual a 20.16. Por lo tanto, Pp = 1.2, lo cual se considera potencialmente adecuado si el proceso está centrado, mientras que Ppk = 0.81, lo cual señala que el proceso en realidad no tiene un buen desempeño debido principalmente a que el proceso no está centrado, como queda claro a partir de la diferencia entre ambos índices.

capacidad del proceso Cr, Cpi , Cps

Indice Cr

Un índice menos conocido que el Cp, es el que se conoce como razón de capacidad potencial, Cr, el cual está definido por:







Como se puede apreciar, el índice Cr es el inverso del Cp, ya que compara la variación real frente a la variación tolerada. Con este índice se pretende que el numerador sea menor que el denominador, es decir, lo deseable son valores de Cr pequeños (menores que 1). La ventaja el índice Cr sobre el Cp es que su interpretación es un poco más intuitiva, a saber: el valor del índice Cr representa la proporción de la banda de especificaciones que es ocupada por el proceso. Por ejemplo, si el Cr = 1.20, querrá decir que la variación del proceso abarca o cubre 120% de la banda de especificaciones, por lo que su capacidad potencial es inadecuada. El Cr para el ejemplo de la longitud de las capas de las llantas, es:



que es un valor parcialmente adecuado, pues indica que la variación del proceso potencialmente cubre 90% de la banda de especificaciones. Sin embargo, este índice tampoco toma en cuenta el hecho de que el proceso está descentrado, como es claro a partir de la figura 5.1.

Indice Cpi, Cps

Como ya se mencionó, la desventaja de los índices Cp y Cr es que no toman en cuenta el centrado del proceso, debido a que en las fórmulas para calcularlos no se incluye de ninguna manera la media del proceso, μ. Una forma de corregir esto consiste en evaluar por separado el cumplimiento de la especificación inferior y superior, a través del índice de capacidad para la especificación inferior, Cpi, y índice de capacidad para la especificación superior, Cps, respectivamente, los cuales se calculan de la siguiente manera:


Estos índices sí toman en cuenta μ, al calcular la distancia de la media del proceso a una de las especificaciones. Esta distancia representa la variación tolerada para el proceso de un solo lado de la media. Por esto sólo se divide entre 3σ porque sólo se está tomando en cuenta la mitad de la variación natural del proceso. Para interpretar los índices unilaterales es de utilidad la tabla 5.1; no obstante, para considerar que el proceso es adecuado, el valor de Cpi o Cps debe ser mayor que 1.25, en lugar de 1.33. La tabla 5.2 también ayuda a interpretar los valores de estos índices unilaterales en términos del porcentaje de los productos que no cumplen con especificaciones. En el ejemplo 5.1, de la longitud de las capas de las llantas, tenemos que:


Luego, como el índice para la especificación superior, Cps, es el más pequeño y es menor que uno, entonces se tienen problemas por la parte superior (se están cortando capas más grandes de lo tolerado). Si se usa la tabla 5.2, dado que Cps = 0.78, entonces el porcentaje de producto que es más grande que la especificación superior está entre 0.82% y 1.79% (al realizar la interpolación se obtiene un valor cercano a 1%). Cabe destacar que no hay problema con la especificación inferior, ya que Cpi = 1.44, y al ser mayor que 1.25 se considera que el proceso cumple de manera adecuada esa especificación

Capacidad del procesos Cp, Cpk

Indice Cp

El índice de capacidad potencial del proceso, Cp, se define de la siguiente manera:

donde σ representa la desviación estándar del proceso, mientras que ES y EI son las especificaciones superior e inferior para la característica de calidad. Como se puede observar, el índice Cp compara el ancho de las especificaciones o la variación tolerada para el proceso con la amplitud de la variación real de éste:


Decimos que 6σ (seis veces la desviación estándar) es la variación real, debido a las propiedades de la distribución normal (capítulo 3), en donde se afirma que entre μ ± 3σ se encuentra 99.73% de los valores de una variable con distribución normal.

Interpretación del índice Cp

Para que el proceso sea considerado potencialmente capaz de cumplir con especificaciones, se requiere que la variación real (natural) siempre sea menor que la variación tolerada. De aquí que lo deseable es que el índice Cp sea mayor que 1; y si el valor del índice Cp es menor que uno, es una evidencia de que el proceso no cumple con las especificaciones. Para una mayor precisión en la interpretación en la tabla 5.1 se presentan cinco categorías de procesos que dependen del valor del índice Cp, suponiendo que el proceso está centrado. Ahí se ve que el Cp debe ser mayor que 1.33, o que 1.50 si se quiere tener un proceso bueno; pero debe ser mayor o igual que dos si se quiere tener un proceso de clase mundial (calidad Seis Sigma). Además, en la tabla 5.2 se representó el valor del índice en el porcentaje de artículos que no cumplirían especificaciones, así como en la cantidad de artículos o partes defectuosas por cada millón
producido (PPM). Por ejemplo, si el índice Cp = 0.8 y el proceso estuviera centrado, entonces el correspondiente proceso produciría 1.64% de piezas fuera de especificaciones (que corresponde a 16 395 partes malas por cada millón producido). Una observación que se deriva de la tabla referida es que el valor del índice Cp no es igual al porcentaje de piezas que cumplen con especificaciones.




Un aspecto que es necesario destacar es que la interpretación que se da en las tablas 5.1 y 5.2 está fundamentada en cuatro supuestos: que la característica de calidad se distribuye de manera normal, que el proceso está centrado y es estable (está en control estadístico), y que se conoce la desviación estándar del proceso. Es decir, la desviación estándar no es una estimación basada en una muestra. La violación de alguno de estos supuestos, sobre todo de los últimos dos, afecta de manera sensible la interpretación de los índices. Más adelante se verá la interpretación de los índices cuando éstos se calculan (estiman) a partir de una muestra.

Si al analizar el proceso se encuentra que su capacidad para cumplir especificaciones es mala, entonces algunas alternativas de actuación son: mejorar el proceso (centrar y reducir variación), su control y el sistema de medición, modificar tolerancias o inspeccionar al 100% los productos. Por el contrario, si hay una capacidad excesiva, ésta se puede aprovechar, por ejemplo: con la venta de la precisión o del método, reasignando productos a máquinas menos precisas, así como al acelerar el proceso y reducir la cantidad de inspección.

En el caso del ejemplo 5.1 de la longitud de capa para las llantas, el índice Cp está dado
por:


La variación tolerada es de 20 y la variación real es ligeramente menor ya que es de 18. De acuerdo con la tabla 5.1, el proceso tiene una capacidad potencial parcialmente adecuada y requiere de un control estricto. En función de la tabla 5.2 se espera que si el proceso estuviera centrado arrojaría aproximadamente 0.0967% de las capas fuera de especificaciones, lo cual corresponde a 967 PPM y se considera parcialmente adecuado. Sin embargo, como es claro, a partir de la figura 5.1 el proceso no está centrado (lo que no toma en cuenta el índice Cp), y eso provoca que genere 1.0% fuera de la especificación superior, lo cual corresponde a 10 000 PPM.


Indice Cpk


Por su parte el índice Cpk, que se conoce como índice de capacidad real del proceso, es considerado una versión corregida del Cp que sí toma en cuenta el centrado del proceso. Existen varias formas equivalentes para calcularlo, una de las más comunes es la siguiente:


Como se aprecia, el índice Cpk es igual al valor más pequeño de entre Cpi y Cps, es decir, es igual al índice unilateral más pequeño, por lo que si el valor del índice Cpk es satisfactorio (mayor que 1.25), eso indica que el proceso en realidad es capaz. Si Cpk < 1, entonces el proceso no cumple con por lo menos una de las especificaciones. Algunos elementos adicionales para la interpretación del índice Cpk son los siguientes:

• El índice Cpk siempre va a ser menor o igual que el índice Cp. Cuando son muy próximos, eso indica que la media del proceso está muy cerca del punto medio de las especificaciones, por lo que la capacidad potencial y real son similares.

• Si el valor del índice Cpk es mucho más pequeño que el Cp, significa que la media del proceso está alejada del centro de las especificaciones. De esa manera, el índice Cpk estará indicando la capacidad real del proceso, y si se corrige el problema de descentrado se alcanzará la capacidad potencial indicada por el índice Cp.

• Cuando el valor del índice Cpk sea mayor a 1.25 en un proceso ya existente, se considerará que se tiene un proceso con capacidad satisfactoria. Mientras que para procesos nuevos se pide que Cpk > 1.45.

• Es posible tener valores del índice Cpk iguales a cero o negativos, e indican que la media del proceso está fuera de las especificaciones. En el ejemplo 5.1, de la longitud de las capas de las llantas, tenemos que:


lo cual, en términos generales, indica una capacidad no satisfactoria. Por lo tanto, cierta proporción de las capas para las llantas no tiene una longitud adecuada, como se vio con los índices unilaterales y en la gráfica 5.1. Al utilizar la segunda parte de la tabla 5.2, vemos que con Cpk = 0.78 el porcentaje de capas que exceden los 790 mm se encuentra entre 0.82 y 1.79%. La primera recomendación de mejora para ese proceso es que se optimice su centrado, con lo cual alcanzaría su mejor potencial actual que indica el valor de Cp = 1.11.


miércoles, 9 de abril de 2014

Las Causas comunes y especiales de variación en el proceso

Los procesos siempre tienen variación, ya que en él intervienen diferentes factores sintetizados a través de las 6 M: materiales, maquinaria, medición, mano de obra (gente), métodos y medio ambiente. Bajo condiciones normales o comunes de trabajo, todas las M aportan variación a las variables de salida del proceso, en forma natural o inherente, pero además aportan variaciones especiales o fuera de lo común, ya que a través del tiempo las 6 M son susceptibles de cambios, desajustes, desgastes, errores, descuidos, fallas, etc. Así, hay dos tipos de variabilidad: la que se debe a causas comunes y la que corresponde a causas especiales o atribuibles. Resulta fundamental distinguir de forma eficiente entre ambos tipos de variación, para así tomar las medidas adecuadas en cada caso. 


La variación por causas comunes (o por azar) es aquella que permanece día a día, lote a lote; y es aportada de forma natural por las condiciones de las 6 M. Esta variación es inherente a las actuales características del proceso y es resultado de la acumulación y combinación de diferentes causas que son difíciles de identificar y eliminar, ya que son inherentes al sistema y la contribución individual de cada causa es pequeña; no obstante, a largo plazo representan la mayor oportunidad de mejora.

La variación por causas especiales (o atribuibles) es causada por situaciones o circunstancias especiales que no están de manera permanente en el proceso. Por ejemplo, la falla ocasionada por el mal funcionamiento de una pieza de la máquina, el empleo de materiales no habituales o el descuido no frecuente de un operario. 
Las causas especiales, por su naturaleza relativamente discreta, a menudo pueden ser identificadas y eliminadas si se cuenta con los conocimientos y condiciones para ello.
Cuando un proceso trabaja sólo con causas comunes de variación se dice que está en control estadístico o es estable, porque su variación a través del tiempo es predecible. Además, independientemente de que su variabilidad sea mucha o poca, el desempeño del proceso es predecible en el futuro inmediato, en el sentido de que su tendencia central y la amplitud de su variación se mantienen sin cambios al menos en el corto plazo. En contraste, se dice que un proceso en el que están presentes causas especiales de variación está fuera de control estadístico (o simplemente que es inestable); este tipo de procesos son impredecibles en el futuro inmediato pues en cualquier momento pueden aparecer de nuevo las situaciones que tienen un efecto especial sobre la tendencia central o sobre la variabilidad.
No distinguir entre estos dos tipos de variabilidad conduce a cometer dos errores en la actuación de los procesos. Error 1: reaccionar ante un cambio o variación (efecto o problema) como si proviniera de una causa especial, cuando en realidad surge de algo más profundo en el proceso, como son las causas comunes de variación. Error 2: tratar un efecto o cambio como si procediera de causas comunes de variación, cuando en realidad se debe a una causa especial.
Cada uno de estos dos errores causa pérdidas. Se puede evitar uno u otro, pero no ambos. No es posible reducir a cero ambos errores. Lo mejor es tratar de cometer rara vez a ambos, y para ello, el doctor Walter Shewhart ideó las cartas de control en el año 1924.

Ejemplo:



Estos errores son comunes en todos los niveles jerárquicos de una empresa, ya que es frecuente que estén relacionados con hábitos de acción y dirección. El error 2 tiene que ver con la falta de acción oportuna y previsión para detectar rápido la presencia de una causa especial; más bien, las acciones llegan hasta que los problemas hacen crisis, es decir, hasta que estalla el incendio.
El error 1 tiene que ver con la sobrerreacción, que significa actuar en forma visceral e inmediata ante los cambios, en lugar de actuar y decidir de manera objetiva con el conocimiento de la variabilidad de los procesos y de los sistemas. Algunos ejemplos típicos de una actuación reactiva, en donde es probable que se cometa el error 1, son los siguientes:

• La reacción de enojo o reclamo hacia los trabajadores ante la queja de un cliente o debido a cualquier problema de calidad. Se ignora que las soluciones del grueso de los problemas en una organización están fuera del alcance de la gente de labor directa (Deming, 1991).

• Reaccionar según las cifras del turno, día o semana anterior (la típica reunión para exigir la reducción de costos, quejas, desperdicio, etc.). Se desconoce que la mayoría de las variaciones que se presentan en los resultados de un día a otro son variaciones naturales.

• La reunión urgente de ejecutivos para corregir los problemas que se han presentado, cuando probablemente éstos sean comunes y recurrentes, por lo que es casi imposible que se ataquen sus causas de fondo en una junta urgente, más bien y en el mejor de los casos se atacan los efectos. Por lo tanto, pronto se volverán a presentar. De esta manera, se cae en un círculo vicioso en el que sin saberlo se atrofian las capacidades para llegar a soluciones de fondo.

• Cuando un trabajador es capacitado por otro, es probable que se vayan acumulando vicios en métodos y criterios que afectan la calidad.

• Ajustar un proceso incapaz cuando se sale de especificaciones genera una mayor variabilidad.


El problema en este tipo de situaciones no es la reacción en sí, sino su forma: se atienden los aspectos superficiales, se corrigen los efectos y no las causas; no conducen a la ejecución o revisión de un plan de mejora; no parten de un análisis objetivo de los antecedentes y la magnitud del problema, y se ignora la variabilidad que tiene el proceso o sistema. Así, es natural que el grueso de las acciones que caracterizan al error tipo 1 sean reuniones o juntas de trabajo, llamadas de atención, regaños, carreras, llamadas por teléfono, correos electrónicos, memorándums, nuevas reglas o indicaciones, disculpas, ajustes a proceso, etc. Sin embargo, parece que estas acciones no tienen ningún efecto, ya que el inventario de problemas que se presentan en la empresa aún es el mismo. En este contexto es natural preguntarse lo siguiente:

• ¿Qué efecto tiene lo que se hace?

• ¿Los cambios o problemas ante los que actuamos se deben a una situación especial (o causa particular), o se deben a una problemática general y común que prevalece en todo un sector de la empresa?

La respuesta a estas preguntas podría aclarar el trabajo a futuro, ya que implicará dejar de hacer algunas cosas que ahora se realizan, modificar otras y desarrollar nuevas formas de actuar ante los problemas, ya sean cotidianos o excepcionales. El antídoto para el error 1 es fomentar el pensamiento estadístico y el enfoque a procesos, donde más que atender el resultado es preciso atender y entender el proceso que lo genera, ser más objetivos, ir al fondo, trabajar para modificar el sistema, atacar los problemas con proyectos de mejora y no con puntadas u ocurrencias, ser metódicos, tomar en cuenta la variabilidad. En todo esto, las
herramientas estadísticas y en particular las cartas de control juegan un papel primordial.

miércoles, 2 de abril de 2014

Capacidad de procesos I: Estadística descriptiva


para este contenido analizaremos las principales técnicas para realizar un análisis descriptivo de un conjunto de datos, donde se detecte la tendencia central, la variabilidad.




(click sobre los títulos para ver el contenido)