Portada

 

Revista

 

iberoamericana  de

 

contabilidad de gestión

 

Indice

Sumario

 

 

 

UN  NUEVO  ENFOQUE  DE  LA  GESTIÓN  DE  LA

CALIDAD  EN  BASE  A  LA  METODOLOGÍA  TOC

 

José Luis Iglesias Sánchez

Catedrático de la Universidad de Vigo.

 

 

 

       resumen

 

En este  trabajo se trata de poner de manifiesto la importancia de focalizar los esfuerzos para la mejora de la calidad. Para ello, se utiliza la metodología TOC, la cual se basa en  aplicar los cinco pasos del proceso de mejora continua: 1) identificar la limitación, 2) gestión eficiente de la limitación, 3) subordinación de todo lo demás al paso 2), 4) elevar la limitación y 5) volver al paso 1 para evitar que la inercia bloque las posibilidades de mejora futuras. Además de utilizar esta metodología, se pone de manifiesto la potencia del sistema de decisión, cuando se utilizan las medidas operativas TOC: a) Throughput, Inventario y Gastos Operativos.

 

palabras clave: Calidad, Proceso de mejora continua, Medidas Operativas, Ingresos y Costes relevantes, rechazos, eficiencia global,  diagrama flujo de productos, Seis Sigma, desechar, reprocesar, capacidad.

 

 

 

1. INTRODUCCIÓN

 

En estos últimos años las organizaciones empresariales se han venido preocupando por lograr la eficiencia en todas sus áreas funcionales, basándose en la creencia de que el logro de altas rentabilidades internas contribuiría a lograr una ventaja competitiva en costes, permitiéndoles competir mejor en los mercados locales y posibilitando su penetración en mercados internacionales.

 

            Sin embargo, en la actualidad, nos hemos dado cuenta que la utilización de herramientas tradicionales para competir (competencia basada en costes, en la reingeniería de procesos, en la calidad, el presupuesto en base cero, etc.) no son por sí mismas condiciones suficientes, por lo que es necesario desarrollar nuevos enfoques en los que se integre la visión estratégica de negocios con las nuevas filosofías de gestión.

 

Si bien la tecnología ha supuesto en estos últimos años un importante factor de desarrollo de muchas empresas (fibra óptica, telefonía móvil, Internet, GPS[1], comunicaciones chip-to-chip[2] ) y ha cambiado las reglas de la competencia, los años actuales se están caracterizando por la preocupación por parte de los directivos de la creación de valor, dando lugar a un nueva modalidad de empresas que se caracterizan fundamentalmente por:

 

1. Una visión estratégica amplia que abarque todos los mercados (nacionales e internacionales).

2. Una presión por el valor, prestando fundamental atención al largo plazo.

3. Una estructura flexible, en el que predomine la velocidad de adaptación a las cambiantes circunstancias del mercado.

4. Un nuevo enfoque de gestión en el que predomina lo global frente a lo local.

5. Un mayor énfasis en los intangibles y en su explotación comercial.

 

En este contexto las empresas en su búsqueda de la eficiencia global, necesitan:

 

a)  Identificar sus objetivos a largo plazo, explicitando para ello su marco estratégico.

b)  Establecer un proceso de mejora continua que le permita un crecimiento sostenido del valor a largo plazo, a través de sucesivas mejoras a corto plazo.

c)  Crear una organización y unos procesos de negocio flexibles.

d)  Incorporar rápidamente todas las nuevas tecnologías para poder dar una rápida respuesta al mercado.

e)  Implantar sistemas de decisión basados en medidas operativas que se relacionen con los indicadores financieros clave.

f)   Enfocar adecuadamente los esfuerzos para mejorar la Calidad Total.

 

Sin embargo, la mayoría de las empresas siguen teniendo grandes dificultades para abandonar el enfoque tradicional debido fundamentalmente al legado de la cultura empresarial, heredada de épocas en las que el mundo no estaba tan globalizado.

 

2. EVOLUCIÓN HISTÓRICA DEL CONCEPTO DE CALIDAD.

 

La evolución del concepto de calidad ha estado vinculada a la propia evolución de las técnicas de gestión empresarial a lo largo del tiempo Antes de 1950 las empresas se centraban en la búsqueda de eficiencias internas, lográndolas mediante mejoras sucesivas de sus procesos productivos. En esta época la demanda era prácticamente estable y los productores tenían el control del mercado, por lo que el concepto de calidad tenía una importancia secundaria.

 

Después de la crisis del petróleo en los años 70, la recesión económica, acompañada de una gran inflación con el subsiguiente incremento de los costes financieros, empezó a tener preponderancia el cliente, al ser éste el que controlaba el mercado, al disponer de una variedad de alternativas y por consiguiente empezó a demandar cada vez con mayor insistencia productos y servicios de mayor calidad.

 

En su enfoque más tradicional, la calidad se centraba en evitar que se produjesen fallos durante el proceso de producción, evolucionando a través de tres etapas:

 

1. Control de calidad.

2. Aseguramiento de la calidad.

3. Gestión de la calidad total

4. Nuevos enfoques basados en TOC.

 

El control de la calidad aparece por primera vez en los años 30 adquiriendo gran importancia en los años 50 y 60. En estos años, el enfoque de la gestión de la calidad consistía en inspeccionar el producto y separar aquél que cumple con unos determinados estándares de aquellos que no los cumplen.

 

Este enfoque es el que se describe en la figura 1.

 

Figura 1

 

 

En este enfoque el control de la calidad se considera una actividad dedicada a detectar si se han alcanzado los niveles de calidad para, caso de no cumplirse con las especificaciones estándares, tomar las acciones correctoras. La mejora de la calidad bajo este enfoque residía en la cantidad de controles instalados, por lo que los costes de calidad aumentaban de forma proporcional al número de controles.

 

            La medida de los costes era una medida tradicional, basada en la contabilidad de costes para valorar, por lo que en los costes de control de la calidad se incluían costes no relevantes (costes de recursos fijos sin diferenciar si se trata o no de recursos ociosos). En estos enfoques, las mejoras en la calidad tenían un límite, el cual venía determinado por el punto en el que la curva de costes de control de calidad, cortaba en su sentido descendente, a la curva de costes de oportunidad en su sentido ascendente, tal como puede verse en la Figura 2.

 

Figura 2

 

 

 

El aseguramiento de la calidad, se llevó a cabo mediante acciones cuya finalidad era mejorar los procesos productivos para de esta forma poder cumplir con los requerimientos de la calidad demandados por el mercado.

 

Para que el sistema productivo esté asegurado por terceros[3] ha de documentarse mediante los correspondientes Manuales de Calidad, en los que se recogen los procedimientos y actividades en todas las fases de producción hasta llegar al producto final

 

La Gestión de la calidad total (TQM)[4] cubre una etapa en la que el objetivo principal es proporcionar unos productos y/o servicios que satisfagan plenamente al cliente, por lo que pasa a tener una importancia primordial la “percepción del valor del cliente” dejando relajada la “percepción del valor del productor”.

 

En esta etapa surge la necesidad de implicar en la gestión de la calidad a toda la organización, siendo sus objetivos primordiales los siguientes:

 

1.  Satisfacción plena de las necesidades de los clientes.

2.  Conseguir hacer las cosas bien a la primera (zero defectos).

3.  Eliminar las actividades que no añadan valor evitando todo tipo de despilfarros.

4.  Mejorar la capacidad de respuesta del sistema

 

Todos estos avances en los sistemas de control de calidad vieron limitada su capacidad de mejora, debido al bloqueo de determinadas técnicas de gestión y fundamentalmente al bloqueo derivado de medidas tradicionales, las cuales determinaban los costes de la no calidad utilizando criterios de valoración basados en el concepto de “coste histórico” si hacer referencia al concepto de “relevancia”.

 

Surge así un nuevo enfoque, basado en las nuevas medidas y en el proceso de mejora continua que aporta la nueva Contabilidad de Gestión, basada en la Teoría de las Limitaciones.

 

Es a éste último enfoque, al que vamos a dar un especial trato en este artículo.

 

3. NUEVO ENFOQUE PARA LA MEJORA DE LA CALIDAD TOTAL

 

            3.1. Metodología Seis Sigma

 

Seis Sigma es un método de mejora de la calidad, creado por Motorola[5] en los años 80 basado en el término estadístico sigma (σ)[6].

 

La aplicación de Seis Sigma requiere el uso intensivo de herramientas y metodología estadística para eliminar la variabilidad de los procesos y producir los resultados esperados (mínimos defectos, bajo coste y satisfacción del cliente).

 

Un proceso con una curva de capacidad afinada para seis sigma (6σ) es capaz de producir con un mínimo de hasta 3,4 defectos por millón de oportunidades, lo que equivale a un nivel de calidad del 99,99966%. Este nivel de calidad se aproxima al ideal de cero defectos y puede ser aplicado no solamente a procesos industriales sino también a transacciones comerciales y de servicios.

 

Las figuras 3 y 4[7] (Figuras 3 y 4)   

Figura 3

 

 

Figura 4

 

 

 

Esta metodología  al medir el índice de defectos por unidad basa su aplicación en la empresa en el desarrollo de cuatro etapas: Identificación de los puntos del sistema en el que se producen fallos, caracterización de los procesos con la finalidad de reducir su variabilidad, optimización de los procesos con la finalidad de reducir sus tiempos de ciclo y estandarización del proceso.

 

El programa de mejora de Seis Sigma se divide en cinco etapas: Definición, Medición, Análisis, Mejora y Control (DMAMC), que en su denominación anglosajona también se la conoce por las siglas DMAIC. Este programa se apoya en herramientas de Calidad y técnicas estadísticas de procesos existentes.

 

Existe también otra metodología de Seis Sigma, conocida por las siglas DFSS (Diseño de procesos para Seis Sigma), que utilizando las mismas herramientas que DMAMC se aplica a procesos no existentes, actuando en estos casos como una metodología de apoyo para desarrollo de sistemas. Esta metodología también se aplica cuando los procesos existentes son muy complicados o tienen muchas desconexiones entre sus subprocesos

 

Para alcanzar en una empresa el objetivo Seis Sigma (6σ) es preciso reducir la variabilidad en los productos, procesos y servicios, dado que esta metodología parte de la hipótesis que es a través de esta vía como se pueden reducir los costes, los tiempos del ciclo de producción y el aumento de la satisfacción de los clientes.

 

Como veremos en la próxima sección, el problema de esta metodología es su enfoque local. Sin embargo, puede aplicarse desde un enfoque global, por lo que para ello es preciso utilizarla en un entorno TOC.

 

            3.2. Metodología basada en la Teoría de las Limitaciones.

 

En esta sección vamos a tratar de comentar el nuevo enfoque para la mejora de la Calidad Total, basado en la Teoría de las Limitaciones (TOC), por lo que la consideración de la existencia o no de recursos escasos va a tener una importancia primordial.

 

La Teoría de las Limitaciones es una filosofía global de dirección, la cual trata a las organizaciones no como sistemas de procesos independientes, sino como sistemas completos. Esta teoría se basa en las leyes naturales que gobiernan cualquier entorno, siendo su principal objetivo determinar las causas o problemas para lograr una adecuada solución. La base fundamental de TOC reside en su proceso lógico de razonamiento, el cual trata de responder a las tres cuestiones siguientes:

 

·  Que hay que cambiar

·  Hacia donde se debe cambiar

·  Como debemos implementar el cambio

 

Las múltiples interrelaciones existentes en el mundo empresarial y el alto grado de incertidumbre a la que están sometidas, obligan a considerar en toda decisión el impacto en el objetivo global[8], lo que significa que no puede considerarse un área de la empresa independiente de cualquier otra área ni tratar a una cadena de recursos como si federan totalmente independiente. Tampoco se puede aceptar la idea de que los fenómenos que sucedan son todos deterministas, porque sabemos que en el quehacer diario se presentan interrupciones y acontecimientos no esperados, es decir, suceden cosas que perturban el normal funcionamiento de la organización[9] y hay que vivir con estos sucesos o perturbaciones aleatorias, dado que forman parte de la realidad.

 

La incorporación de todas estas aportaciones a la Contabilidad de Gestión han enriquecido el sistema de información contable dotándolo de mayor utilidad, dado que, al enfocar los problemas desde una perspectiva global, se puede dar una respuesta válida a una amplia variedad de cuestiones, que de manera continua se le plantean a la dirección, y entre esas cuestiones muchas se refieren a la calidad.

 

La calidad total hay que entenderla como bien señala Goldratt (1990, p 7) como una filosofía global de dirección y no como una aplicación de las técnicas estadísticas para el control de los procesos, por lo que, los esfuerzos que se lleven a cabo para que la empresa logre altos estándares de calidad, han de aplicar una metodología que tenga en cuenta:

 

·  Un nuevo sistema de medidas.

·  Un proceso de  decisión con una visión global y no local

·  Un nuevo enfoque para analizar las relaciones entre los recursos y así poder determinar donde deben centrarse los esfuerzos de mejora.

·  Una visión distinta de la tradicional a la hora de maximizar los beneficios de la empresa a través de la mejora de la calidad.

 

Para no hacer demasiado extenso este trabajo, vamos a centrar este artículo en la calidad de las empresas industriales, por lo que las decisiones sobre la calidad se van a desarrollar en un entorno de producción, aún cuando la metodología expuesta sea aplicable a empresas que desarrollen cualquier actividad.

 

3.2.1.  Medidas que deben utilizarse para evaluar la calidad

 

Las medidas tradicionales de la contabilidad de costes desde su incorporación a la gestión de las empresas a principios de 1900 cumplían perfectamente su cometido, consistente en dar información sobre la conveniencia económica de las operaciones, determinando al efecto el coste de los productos fabricados y el beneficio no solamente de los productos sino también de diferentes áreas del negocio. Dado que en esos momentos los costes de los materiales y de la mano de obra eran coste variables (a la mano de obra se la pagaba por hora o por pieza terminada) y siendo los costes generales de fabricación muy pequeños, los costes calculados de los productos fabricados eran relevantes para la toma de decisiones.

 

Debido a los avances de la tecnología, los costes de la mano de obra directa pasaron de ser variables a fijos[10] y en cambio los costes generales de fabricación se incrementaron sustancialmente. Por ello estos costes suelen ser en determinados entornos industriales más del 400% de los costes de la mano de obra directa. Estos cambios son los causantes de que el concepto “coste del producto” sea cada vez un concepto más ambiguo y prácticamente imposible de calcular con un grado de fiabilidad que lo hagan válido en la toma de decisiones. Las medidas de la contabilidad de costes tradicional, basadas en el coste del producto han dejado, en los tiempos actuales, de ser relevantes para la toma de decisiones, de ahí que sea preciso incorporar nuevas medidas.

 

Para resolver cualquier problema de calidad en una empresa, es preciso en primer lugar, disponer de un adecuado sistema de información, en el que el objetivo global de la empresa esté perfectamente definido, así como las condiciones necesarias que se han de satisfacer para que la empresa alcance dicho objetivo.

 

Para ello, el Sistema de Información además de establecer claramente el objetivo, ha de utilizar unas medidas adecuadas que permitan determinar el impacto de cualquier proceso de mejora de la Calidad en el objetivo global y  ha de permitir enfocar los esfuerzos de mejora. Las medidas que se utilicen deben por consiguiente relacionarse con las medidas financieras, dado que son estas últimas las medidas que en definitiva miden el éxito o fracaso de la gestión.

 

Para mejorar la competitividad de una empresa a través de una mejora en la calidad, cualquier esfuerzo que se haga en este sentido ha  de tener por finalidad aumentar sus beneficios[11]. Para ello, es necesario comprender con toda claridad el impacto de cualquier decisión en los principales indicadores financieros del negocio. Dado que estos indicadores suelen ser el beneficio, la rentabilidad de la Inversión y la liquidez, las medidas operativas que se utilicen han de estar fuertemente correlacionadas con dichas medidas financieras.

 

La Teoría de las Limitaciones (TOC), utiliza, al efecto, las siguientes medidas operativas:

 

1)   El Throughput[12].

2)  Las Inversiones Operativas Netas[13].

3)  Los Gastos Operativos[14].

 

            De las tres medidas expuestas, las Inversiones Operativas Netas y los Gastos Operativos tienen unas posibilidades limitadas de mejora, dado que no pueden reducirse por debajo de cero por cuanto es necesario realizar inversiones e incurrir en gastos operativos para poder generar Throughput. Esta última medida es por consiguiente a la que se le debe prestar una atención especial, por cuanto constituye el elemento clave de todo proceso de mejora continua en la empresa.

 

Todo proceso de mejora continua debería llevarse a cabo a través de una secuencia de pasos que superados permitirán alcanzar los beneficios de la empresa. La repetición sucesiva de esta secuencia de pasos da lugar a una secuencia sucesiva de mejoras. 

 

Cuando se evalúa una alternativa, la decisión debe tomarse teniendo en cuenta la relación entre las tres medidas anteriormente expuestas. Estas relaciones son: a) El beneficio, el cual vendrá determinado por la diferencia entre el Throughput y los Gastos Operativos y b) la rentabilidad de la inversión (ROI), la cual se define por la relación entre el Beneficio y las Inversiones Operativas

 

Para poder desarrollar una mejora en un entorno de variables dependientes[15] se debe comprender en primer lugar como se conectan o combinan  los diferentes recursos para producir los bienes o servicios, de forma que se pueda conocer su impacto en la capacidad del sistema para generar valor. 

 

            Cualquier plan de mejora de la calidad ha de tener por finalidad dar una respuesta a cuestiones tales como: ¿Cómo podemos aumentar el Throughput actual y futuro de la empresa, dada la situación actual?

 

Una de las formas de mejorar el beneficio de la empresa es a través de la mejora de la calidad, por lo que todas las acciones de mejora que se lleven a cabo en este sentido deben estar dirigidas a alcanzar el objetivo global.

 

Dado que el Throughput se define como el ritmo o velocidad al que la empresa genera dinero, todas las funciones de la empresa deberían describirse teniendo en cuenta el ritmo: por ejemplo, el ritmo al que se compra, el ritmo al que se incorporan nuevos diseños, el ritmo al que se produce y el ritmo al que se vende. Una vez determinado el ritmo, también hay que tener en cuenta la capacidad de los recursos: la capacidad de compra, la capacidad de diseño, la capacidad de vender, etc. La incertidumbre es otro aspecto a tener muy en cuenta, dado que no solamente los recursos físicos sino también las funciones individuales que se llevan a cabo en la empresa están sujetas a las leyes que gobiernan la probabilidad y las fluctuaciones estadísticas.

 

Si por ejemplo, la capacidad de entrega a los clientes, viene determinada por la capacidad de producción de los recursos,  cuando la demanda supere dicha capacidad, obtener una mayor cantidad de pedidos no  garantiza un mayor Throughput, a menos que mejore la mezcla.

 

3.2.2. Importancia del conocimiento del flujo de productos

 

            El conocimiento de cómo se combinan los recursos en una empresa es esencial para comprender las relaciones entre ellos y poder predecir el impacto de cada uno en el sistema. Este conocimiento se puede obtener mediante el diagrama del flujo de materiales a través de toda la fábrica. Este diagrama[16] puede, a modo de ejemplo, representarse tal como lo hacemos en la figura 5 siguiente:

 

Figura 5

 

 

En la Figura 1, MP1 y MP2 son los materiales que entran en el proceso. Dichos materiales son procesados por los recursos R-1, R-2 y R-3. La operación realizada por un determinado recurso se describe en el código pieza/operación. Una vez finalizada el proceso de cada una de las piezas en el recurso R.3 (operaciones MP1-30 y MP2-30), pasan a una línea de ensamblaje. El ensamblaje lo realiza el recurso R-4, el cual tiene una carga de trabajo del 70% y tarda 10 minutos[17].

 

El diagrama de la figura 5, representa una cadena de hechos en la que el recurso R-1 está primero (puerta de entrada del material en el proceso). Cada recurso va alimentando al siguiente en la línea, hasta que el material procesado llega a su operación final, la cual se realiza en el recurso R-6.

 

Analizando detenidamente este diagrama de la figura 5, se puede apreciar que el recurso R-3 es el que limita la capacidad de producción de todo el proceso productivo al estar totalmente ocupada su capacidad disponible. La cadena de recursos que está a continuación del recurso R-3 (la limitación del sistema), que realiza las operaciones determinadas por los códigos MP1-30 y MP2-30 hasta el recurso R-6, que realiza la operación ACB-10, debe protegerse de forma especial de cualquier fallo. Cualquier reproceso que se tenga que realizar en el recurso R-4, cuya carga de trabajo es del 70%, causará menos problemas que un reproceso en el recurso R-5, cuya carga de trabajo es del 88%. Para entregar a tiempo, los recursos que están a continuación de la limitación deben tener más capacidad de la estrictamente necesaria, por lo que cuanto menor sea su carga de trabajo mayor será la probabilidad de que un fallo no de lugar a una interrupción del flujo productivo, aunque se tengan que reprocesar las piezas[18]

 

Como resumen de lo expuesto, la figura 5 ofrece una visión global y permite determinar los recursos que pueden originar, debido a un problema de calidad, el mayor daño a la organización. Estos recursos son a los que se les debe prestar mayor atención. Podemos resumir este punto indicando los recursos a los que se debe prestarse atención. Estos recursos suelen ser:

 

·  La cadena de recursos que va desde la limitación hasta el recurso que realiza la operación final.

·  Aquellos recursos cuyas características son esenciales para la limitación.

·  Aquellos recursos que crean “huecos” en el buffer debido a rechazos o fallos.

 

            3.2.3. El impacto de la capacidad.

 

Una de las materias prioritarias de la dirección es conocer donde  y como enfocar un programa de calidad en la fábrica. Si el cliente impone, como condición necesaria a la empresa la calidad, es preciso resolver cualquier problema que impida alcanzar los estándares de calidad. Un Programa de Calidad debe definir las relaciones entre las funciones individuales llevadas a cabo por cada departamento dentro de la empresa y determinar las partes de la empresa más vulnerables y que pueden poner en peligro los beneficios de la empresa al frenar la generación del Throughput, incrementar las Inversiones y los Gastos Operativos. En definitiva, hay que conocer el impacto del programa de calidad en el objetivo global y para ello debemos determinar donde se deben concentrar los esfuerzos de mejora.

 

El problema de calidad en un recurso considerado limitación primaria (con una carga de trabajo igual al 100%) o en un recurso con escasa capacidad de protección, al cual vamos a denominar limitación secundaria (con una carga de trabajo cercana al 100%) impacta de forma negativa en el Throughput

 

En la figura 5,  los recursos que tienen una carga de trabajo próxima al 100% son especialmente vulnerables ante cualquier perturbación. La cadena de recursos que va desde el recurso R-3 al recurso R-6, debe tener una protección especial para evitar los problemas de calidad que puedan surgir cuando se produzca un fallo, dado que cualquier reproceso que deba efectuarse en un recurso no limitado, como por ejemplo el recurso R-4, con una carga de trabajo del 70%, causará menos problemas que un reproceso en un recurso con poca capacidad de protección, como el recurso R-5, cuya carga de trabajo es del 88%.

 

El diagrama del flujo de productos permite por consiguiente determinar los recursos más vulnerables y conocer los puntos del proceso en los que debe centrarse la atención para reducir los problemas que ocasione un determinado fallo. Por ello podemos afirmar que,  para incrementar o proteger la creación del valor en la cadena productiva (aumentar el Throughput) es condición necesaria conocer el flujo de productos y la carga de trabajo en cada recurso.

 

En base a lo anteriormente expuesto, podemos afirmar que cuando nos encontremos con un problema en un recurso limitado, el cual por definición tiene una carga de trabajo igual o superior al 100% de su capacidad, la atención a dicho recurso debe ser prioritaria. Por todo lo expuesto anteriormente, la gestión de la calidad en una empresa, debe centrarse en conocer los puntos más vulnerables, lo que no quiere decir que se centre en los puntos del proceso donde se producen más fallos, sino en aquellos puntos donde los fallos tienen un impacto negativo en los beneficios de la empresa, de ahí que siempre han de tenerse presente las dos cuestiones siguientes:

 

·  ¿Cuál es el impacto de un fallo o problema de calidad en el Throughput, cuando dicho fallo se produce en un recurso limitado?

·  ¿Cuál es el impacto de un fallo o problema de calidad en el Throughput, cuando dicho fallo se produce en un recurso no limitado pero con escasa capacidad de protección?

 

            Para poder contestar a las dos cuestiones siguiente es necesario conocer, como ya hemos intentado demostrar con el comentario realizado a la figura 1, el diagrama del flujo de productos.

 

            En la figura 6, se describe un proceso productivo en el que los recursos R-1; R-2 y R-3 forman una cadena productiva, que se alimenta de izquierda a derecha:

 

Figura 6

 

 

Supongamos que el recurso R-1 tiene una carga de trabajo del 45%, el recurso R-2 una carga del 100% (limitación) y el recurso R-3 una carga del 55%. Si, por ejemplo, el porcentaje de fallos del recurso R-1 es del 20%, del recurso R-2 del 5% y del recurso R-3 del 15% el impacto de cada fallo en el resultado global del sistema no es el mismo, dado que cuando el fallo se produce en el recurso R-1, solamente se pierde el material (coste relevante del material), caso que de el fallo no obligue a realizar horas extras del personal . Sin embargo, si el porcentaje de fallos en este recurso R-1 aumentase la carga de trabajo del mismo, pasando del 45% al 90%, en este caso se pondría en peligro su capacidad para alimentar a tiempo a la limitación (R-2), por lo que o bien habría que lanzar mucho antes el material, con el subsiguiente incremento de material en curso, o bien habría que aumentar el buffer del recurso limitado, pues debido a su alto porcentaje de fallos puede dejar de entregar a tiempo el material a la limitación, y por consiguiente el Throughput disminuirá.

 

Lo expuesto anteriormente obliga a prestar una atención especial a los problemas de calidad originado por los recursos que alimentan a la limitación, dado que dichos problemas además de reducir el Throughput, suelen originar un incremento de las inversiones operativas (mayor inventario en curso), alargando el ciclo de producción, los plazos de entrega y haciendo peligrar el cumplimiento de dichos plazos. También se originarán unos mayores gastos operativos al tener que incurrir en horas extras para poder entregar a tiempo

 

El problema de calidad en la limitación siempre merece un tratamiento prioritario, porque cada minuto que pierda la limitación al volver a procesar el material defectuoso o bien al volver a reprocesar, es un tiempo perdido para todo el sistema. En este caso, el coste de un fallo vendrá determinado por el coste relevante del material estropeado más el coste de oportunidad del minuto de la limitación multiplicado por el número de minutos que ha tenido que dedicar el procesar de nuevo el material o bien en el reproceso.

 

Por último, los fallos en el recurso R-3 si pueden ser resueltos por el propio recurso R-3, sin que la limitación tenga que volver a reprocesar las piezas estropeadas, y siempre que el reproceso en el recurso R-3 no afecte a las entregas, tienen un coste igual al coste relevante de los materiales estropeados y/o en su caso de las horas extras en las que hubiese que incurrir.

 

Cuando, por el contrario, los fallos en el recurso R-3 aumentasen la carga del trabajo que pusiese en peligro la entrega a tiempo, y no hay posibilidad de dotar a dicho recurso de mayor capacidad, entonces habría que dar una alta prioridad al problema de calidad en dicho recurso, para evitar un aumento de las existencias y por consiguiente de los gastos operativos.

 

Una vez más, llegamos a la misma conclusión del apartado anterior, al determinar las partes más vulnerables de una factoría con respecto a la calidad y visto el problema desde un enfoque global. Estas partes  son:

 

·  Las limitaciones primarias y secundarias

·  La cadena de recursos que va desde la limitación hasta el final del proceso.

·  Los recursos próximos a la limitación cuyos problemas o fallos no pueden ser resueltos por otros recursos.

 

4.  ALGUNAS DECISIONES SOBRE LA MEJORA DE LA CALIDAD.

 

            4.1. El impacto de un fallo de calidad que da lugar a un desecho o a un reproceso en el proceso de programación.

 

Si se produce un fallo de calidad, para subsanarlo es necesario o bien introducir una cantidad adicional de material y/o utilizar una mayor cantidad en tiempo de mano de obra. En estos casos, estos mayores consumos de material o mayores tiempos debe reflejarse en el diagrama del flujo de productos. La figura 3 representa un diagrama de un flujo de producto, en la que si bien con una pieza se podría fabricar una unidad de producto, debido a un porcentaje de fallos en el recurso R-2, el cual da lugar a un desecho, es preciso introducir en el proceso una mayor cantidad de material, lo que afecta al recurso que alimenta al recurso R-2. Si suponemos que este porcentaje de fallos es del 15%, por cada unidad de producto se deben procesar 1,176 unidades de material, por lo que los recursos R-1 y R-2 deben procesar una mayor cantidad de lo que sería estrictamente necesaria si no hubiera fallos

 

            Por consiguiente, los fallos que dan lugar a desechos afectan no solamente al material sino también a tiempo de funcionamiento de los recursos (R-1 y R-2 en nuestro caso). Esta mayor carga de trabajo debe tenerse en cuenta cuando se crea el diagrama del flujo de productos y se determina la carga de trabajo para cada recurso, tal como se refleja en la figura 3, para un % de desechos del 15%.

 

Figura 7

 

 

Figura 8

            

            Sin embargo, cuando el fallo se puede subsanar, caso de ser económicamente viable, mediante un reproceso, el impacto en el proceso de programación  se debe reflejar tal como se indica en la figura 8. En este caso el reproceso modifica el diagrama del flujo de producto, dado que obliga a volver al inicio del proceso, lo que significa un cierto incremento de la carga de trabajo para los recursos R-1 y R-2.

 

El reproceso también origina una mayor carga de trabajo en los recursos R-1, R-2 y R-3

 

4.2.  El coste de los fallos internos y su impacto en las medidas operativas.

 

Supongamos que tenemos dos recursos, el R-1 y el R-2. El recurso R-1 alimenta al recurso R-2. Cada recurso tiene un coste de reproceso el cual viene determinado por el coste adicional de mano de obra asociado a cada fallo, siendo el coste para el recurso R-1 de  20 euros y para el recurso R-2 de 40 euros. Si en una semana se producen  100 fallos en el recurso R-1 y 200 fallos en el recurso R-2, los costes de no calidad debido al reproceso son de 2.000 y 8.000 euros respectivamente.

 

Sería un error enfocar el esfuerzo de mejora en el recurso R-2 por el mero hecho de que el coste de la no calidad en este recurso es superior al coste del recurso R-1, dado que para poder determinar en cual de los dos recursos se debe enfocar el esfuerzo, es preciso determinar el impacto global y para ello hay que conocer la carga de cada recurso.

 

Si por ejemplo el recurso R-1 tiene una carga de trabajo del 100% (recurso limitado) y el recurso R-2 del 40% (recurso no limitado), ¿A cuál deberíamos dar preferencia para resolver el problema de calidad? Esta cuestión debe resolverse contestando previamente a las siguientes preguntas:

 

·  Como afectará al Throughput, a los Gastos Operativos y a las Inversiones Operativas Netas  si se resuelve el problema de calidad en el recurso R-2?

·  ¿Y sí se resuelve el problema de calidad en el recurso R-1, como afectará a las anteriores medidas?

 

Si el recurso R-1 alimenta al recurso R-2, el output del sistema viene determinado por la capacidad del recurso R-1. En cambio el recurso R-2 al tener una capacidad utilizada del 40% cualquier problema de calidad en este recurso puede resolverse reprocesando de nuevo el material sin afectar a la fecha de entrega, por lo que el Throughput permanecerá invariable. La siguiente cuestión que debe resolverse es determinar el impacto en los Gastos Operativos. Si se resuelve el problema de calidad en el recurso  R-2, y los costes del personal calculados para cada fallo en este recurso no son relevantes[19], por lo que desde este punto de vista, corregir el fallo en el recurso R-2 no daría lugar a ningún ahorro. La última cuestión a resolver sería la de determinar como afectaría a las Inversiones Operativas la solución del problema de calidad. Dado que el recurso R-2 está después de la limitación, la cantidad de producto en curso o producto terminado que exista entre este recurso y el final del proceso está regulada por el recurso R-1, por lo que la capacidad adicional del 60% en este recurso asegura las entregas a tiempo. E n definitiva, resolver el problema de calidad en el recurso R-2 no mejoraría el Throughput, no reduciría los Gastos Operativos ni tampoco reduciría las Inversiones Operativas.

 

Si por el contrario, se centran los esfuerzos de mejora de la calidad en el recurso R-1, evitando los fallos, al ser este un recurso limitado, aumentará su capacidad disponible incrementando el Throughput. Por otra parte, a menos que el recurso R-1 esté trabajando utilizando horas extras, los Gastos Operativos no disminuirán, al no ser relevantes. En cambio Las Inversiones Operativas Netas (inventario en curso) se reducirá. Los efectos en el inventario, de una mejora de calidad en este recurso dependen del ritmo de consumo así como de las fechas de lanzamiento del material al sistema.

 

Por todo lo expuesto, los esfuerzos de mejora para este caso deben de enfocarse en el recurso R-1 y no en el R-2.

 

            4.3. Decisión de desechar o reprocesar.

 

Para tomar este tipo de decisiones es preciso disponer de datos relevantes. Para analizar este tipo de decisiones vamos a basarnos en un ejemplo.

 

Supongamos que para fabricar una unidad del producto A necesitamos un tiempo de proceso en la limitación de 10 minutos, siendo el coste del material por unidad de producto de 20 euros y el precio de venta unitario del producto de 60 euros.

 

Supongamos que el % de fallos o defectos producidos por la limitación en la fabricación de un pedido de 1.000 unidades ha sido del 10%, es decir, 100 unidades no satisfacen los requerimientos de calidad estándar establecidos. Estas 100 unidades pueden volver a reprocesarse en la limitación con un coste adicional de 10 euros de materia prima por unidad de producto. Otra alternativa consiste en reprocesar nuevo material para producir estas 100 unidades de producto. ¿Cuál de las dos alternativas es mejor para la empresa?

 

Para resolver este problema debemos tener en cuenta el impacto en el Throughput de cada decisión, dado que el objetivo de la empresa en maximizar el beneficio y éste es igual al Throughput menos los Gastos Operativos. Maximizar el beneficio equivale a optimizar el tiempo de funcionamiento de la limitación y esta optimización consiste en obtener el máximo Throughput por minuto.

 

           Valoración de la alternativa: Reprocesar

 

Si se decide reprocesar las 100 unidades se necesita un coste adicional de materiales por unidad de producto de 10 euros, por lo que el coste relevante de los materiales es de 1.000 euros. Como el precio neto de venta de las 100 unidades es de 60 euros, el Throughput será: 100 (60-10) = 5.000 euros. Obtener estos 5.000 euros requiere 1.000 minutos de la limitación, con lo que el Throughput por minuto de limitación del reproceso es de 5 euros.

 

            Valoración de la alternativa: Desechar

Si se decide desechar las unidades defectuosas, debe procesarse de nuevo el material. En este caso deben procesarse 100 unidades de material, las cuales crearán un Throughput de 40 euros por unidad de producto (60-20). Procesar las 100 unidades dará un total de 4.000 euros. Obtener estos 4.000 euros requiere 1.000 minutos de la limitación, con lo que el Throughput por minuto de limitación es de 4 euros.

 

Decisión:

 

Dado que el Throughput por minuto de limitación es mayor en la decisión de reprocesar que de desechar, la decisión será la de reprocesar.

 

Por todo lo expuesto, para tomar este tipo de decisiones solamente son necesarios los siguientes datos:

 

·  El coste del material por unidad de producto.

·  El precio neto de venta de cada unidad para la orden o pedido concreto.

·  Una estimación de la cantidad adicional de materiales y de tiempo de la limitación necesaria para reparar el fallo.

·  La cantidad de partes o de productos defectuosos sobre los que se va a decidir si desechar o reprocesar.

·  El tiempo original de la limitación para procesar cada unidad.

 

5. CONCLUSIONES.

 

El nuevo enfoque para la gestión de la calidad basada en una filosofía global, permite centrarse en los eslabones más débiles de la cadena, para de esta forma determinar en donde enfocar los esfuerzos de mejora con la finalidad de alcanzar el máximo valor para la empresa, cumpliendo todas las exigencias del mercado. Este enfoque basado en TOC, centra la atención en los eslabones más débiles de la cadena, explotándolos al máximo[20], lo que significa que todo su tiempo deben dedicarlo a generar Throughput.

 

Desde una visión de la calidad esto significa lo siguiente:

 

1)  Los materiales procesados por la limitación no deberían necesitar reprocesarse.

2)  Después de procesar los materiales la limitación debe ponerse un cuidado especial en las operaciones siguientes para evitar fallos.

 

            Al adoptar este enfoque global, los esfuerzos para la mejora de la calidad se centran en aquellas áreas de la empresa con un alto potencial para mejorar los beneficios. Dado que siempre existe una función o proceso que limita la capacidad de generar valor, la mejora de calidad en estas función o proceso actúa como un punto de apalancamiento que permitirá a la empresa “ganar más dinero ahora y en el futuro a través de la venta o prestación de servicios” con el mínimo esfuerzo y sin distraer la atención de los directivos.

 

6. BIBLIOGRAFÍA BÁSICA

 

AECA (1995): Costes de Calidad. Documento nº 11. Comisión de Principios de Contabilidad de Gestión.

AECA (2000): La Teoría de las Limitaciones en la Contabilidad de Gestión. Documento nº 21. Comisión de Principios de Contabilidad de Gestión.

 

Goldratt, Eliyau M. (1994): El Síndrome del Pajar. Título original en inglés: The Haystack Síndrome. (1990). Editorial Díaz de Santos. Madrid.

Stein, Robert S. (1977): The Theory of Constraints. Application in Quality and Manufacturing. 2º ED. Marcel Debher Inc. N.Y.

 

 


CITAS


[1] Global Positioning Systems

[2] Sobre tecnologías como Bluetooth, etc.

[3] Como ejemplos tenemos las ISO 9000.

[4] Total Quality Management

[5] Motorola entre 1987 y 1994 redujo su nivel de defectos por un factor de 200

[6] Los procesos estándar tienden a comportarse dentro del rango de 3σ, lo que equivale a un número de defectos de casi 67.000 por un millón de oportunidades (DPMO), si ocurre un desplazamiento de 1,5σ, esto significa un nivel de calidad de apenas 93,32% en contraposición con un nivel de 99,99966% para un proceso de 6σ. Comparativamente, un proceso de 3σ es 19645 veces peor que uno de 6σ.

[7] Tomadas de  Seis Sigma.com

[8] En el contexto de este trabajo, entendemos que el objetivo global de la empresa es “ganar más dinero ahora y en el futuro a través de las ventas o de la prestación de servicios”.

[9] Desajuste de una máquina, falta de material, etc.

[10] A la mano de obra ya no se la paga por unidad producida sino por su presencia en la empresa.

[11] La calidad en sí misma no tiene sentido. Una empresa puede fabricar productos de una altísima calidad pero si dichos productos no son demandados por el mercado, la empresa no cumple su objetivo.

[12] El Throughput puede definirse como el ritmo al que la empresa genera dinero a través de las ventas o de la prestación de servicios.

[13] Las Inversiones Operativas Netas, deben valorarse solamente por los costes de adquisición y cuando se hayan fabricado algunos bienes por la propia empresa, han de considerarse en su valoración los costes relevantes. Por consiguiente, la valoración de las inversiones de la empresa, en este ámbito de la gestión utiliza criterios valorativos que tienen en cuenta los costes de oportunidad.

[14] Los Gastos Operativos son todos aquellos gastos de la empresa que no sean totalmente variables. Estos gastos son necesarios para generar valor. Cualquier gastos no necesario para generar valor es un despilfarro y no se encontraría dentro de esta categoría de gastos.

[15] Este tipo de entornos es en el que las empresas desarrollan su actividad

[16] Este diagrama se conoce como “diagrama del flujo de productos”  o “net”.

[17] El tiempo que tarda cada recurso en realizar la operación es el que figura en el recuadro superior derecha de cada uno.

[18] Los tiempos de reproceso aumentan la carga de trabajo de un recurso, por lo que si el recurso ya no tiene suficiente capacidad de protección, los tiempos de reproceso en dicho recurso reducen todavía más dicha capacidad de protección y pueden poner en peligro las ventas al no entregar los productos en los plazos de entrega previstos.

[19] Un coste no relevante es un coste futuro que no cambia con la decisión que se tome. Si por ejemplo, existe mano de obra con exceso de capacidad, y se aprovecha este exceso de capacidad para reprocesar, el coste del reproceso es cero.

[20] Explotar al máximo equivale a gestionarlos eficientemente.

 

 

 

 

 

 

 

 

 

José Luis Iglesias Sánchez

 

Doctor en Ciencias Económicas y Empresariales por la Universidad de Santiago de Compostela y Catedrático de la Universidad de Vigo. Auditor de Cuentas. Miembro de la Comisión Permanente de Contabilidad de Gestión de AECA. Presidente para Galicia del Instituto de Auditores-Censores Jurados de Cuentas de España. Autor de numerosos artículos sobre Contabilidad Financiera, Contabilidad de Costes y Contabilidad de Gestión. Ha desempeñado cargos de Dirección en las áreas de contabilidad y finanzas en varias empresas Ha realizado trabajos de organización de empresas y consultoría de Alta Dirección. Ha sido ponente de los siguientes Documentos de Contabilidad de Gestión de AECA: “Los costes estándares. Análisis de las desviaciones”. “Los costes conjuntos y comunes en la empresa”. “La Teoría de las Limitaciones en la Contabilidad de Gestión”. “Contabilidad de Gestión para la Toma de Decisiones”.