La Falacia del MIN/MAX y EOQ

¿Por qué tenemos inventarios?

Todos los bienes de consumo, como el jabón o los alimentos, incluso eletrodomésticos, ya me entiende a qué me refiero, todos esos productos se encuentran en inventarios. Estamos acostumbrados a pensar en los inventarios de las tiendas, pero también están los inventarios en centros de distribución e incluso en bodegas de producto terminado de fábricas.

Este inventario tiene una característica única: se compró, despachó o fabricó antes de que un consumidor lo pidiera. Es que el inventario es necesario solo cuando la tolerancia a esperar del cliente es menor que el tiempo que demora en hacerlo disponible, al alcance del cliente. En caso de que los clientes estén dispuestos a esperar un tiempo igual o mayor que lo que demora en llegar el producto, no se necesita inventario.

Por lo tanto, todo el inventario debe generarse antes de la venta, por lo que requerimos de algún método que nos ayude a anticipar la cantidad adecuada de inventario.

Todo lo que iremos examinando acerca del inventario aplica a cada producto individual, a cada SKU (stock keeping unit).

¿Pero cuánto inventario es adecuado?

Sabiendo que el inventario cuesta dinero, la respuesta empieza con las palabras “mínimo posible”. Pero sabiendo que el inventario genera las ventas, nuestra respuesta debe contener el objetivo también, para satisfacer la “máxima demanda esperada”.

La demanda tiene fluctuaciones, y si nuestro inventario se adecua al promedio de la demanda, con mucha frecuencia se producirán faltantes y perderemos ventas. Los faltantes (también llamados “quiebres” o stock outs) son precisamente lo que queremos evitar con el inventario.

Por último, el inventario se requiere para satisfacer ventas antes de que llegue otra reposición.

Entonces, nuestra “fórmula” para calcular el inventario adecuado, o podemos decir también óptimo es:

Se requiere el mínimo inventario para satisfacer la máxima demanda esperada antes de la próxima reposición.

¿Cuándo ocurre la próxima reposición?

Ya vemos que el tiempo entre una reposición y otra es un elemento fundamental en nuestra fórmula. Podemos expresar la “máxima demanda esperada” como el promedio diario multiplicado por el tiempo de reposición y multiplicado por un factor de seguridad.

Si el tiempo crece, el inventario crece. Y viceversa. Veremos que este hecho es parte importante de una nueva manera de administrar los inventarios, pero primero entendamos cómo funcionan la mayoría de las cadenas de suministro.

Una orden de reposición puede ser: una orden de producción, o una orden de compra, o una orden de despacho. En todos los casos, una “orden” es una decisión, lo que es muy buena noticia, porque podemos hacer algo distinto si queremos.

Antes de seguir con nuestras deducciones, reflexione un momento sobre el hecho de que el inventario es un resultado de esta decisión. Si en su empresa no están contentos porque tienen exceso de inventario y al mismo tiempo tienen faltantes, no se olvide de que ese es un resultado de las decisiones de reposición tomadas días atrás.

¿Cuándo ocurre la próxima reposición? La respuesta ahora es obvia: cuándo lo decidimos nosotros.

¿Cómo se decide hoy cuándo reponer?

Al hacer una búsqueda en internet, aparecen algunos artículos como: https://blog.nubox.com/empresas/reposicion-de-inventario, https://biddown.com/no-sabes-cuando-pedir-mas-stock-calcula-reorder-point-rop/, https://www.mheducation.es/bcv/guide/capitulo/8448199316.pdf, y varios otros, que tienen en común algunas cosas:

  • Todos enfatizan la importancia de hacer una buena gestión del inventario para tener buena rentabilidad.
  • Todos mencionan algún tipo de punto de reorden, algunos son explícitos con el método MIN/MAX y también con el lote económico de reposición.

Como anécdota, NIKE publica esta página https://www.nike.com/cl/help/a/disponibilidad-del-producto-gs para decir que el producto que uno busca y no encontró estará disponible cuando haya existencias… a mí no me ayudó mucho, la verdad.

Y mirando libros y programas de estudio, vemos que el tema de MIN/MAX y EOQ (economic order quantity) son recurrentes, como métodos para decidir cuándo y cuánto reponer de cada SKU. Echemos un vistazo a estos conceptos.

El método MIN/MAX y EOQ

Estando de acuerdo con todo lo dicho más arriba en este artículo, el objetivo del método es tener disponibilidad al mínimo costo posible.

El método consiste en determinar un mínimo de unidades en inventario que deben satisfacer las ventas mientras llega lo que vamos a pedir. Por eso a veces a esta cantidad mínima se le llama ROP (reorder point) punto de reorden.

Y la cantidad a pedir va a completar un máximo de unidades. En general esta cantidad se ha calculado con una fórmula que optimiza costos y que resulta en un lote económico de reposición.

Veamos cada una de estas cosas con más detalle y qué efectos tiene utilizar el método.

En esta figura se representa en teoría lo que dice el método, pero nótese que hay dos elementos poco realistas en el gráfico: 1) en cada reposición aparece como que el pedido llegó el mismo día que se ordenó; 2) hay una regularidad perfecta en la demanda.

La realidad se acerca mucho más a este otro gráfico:

Entre que se pone el pedido y llega la reposición hay un tiempo de suministro, no es instantáneo. Y el consumo o demanda es variable. Lo primero explica que el inventario pueda agotarse. Y nuevamente, si la reposición fuera instantánea, no necesitamos inventario.

Pero quiero detenerme un momento en la variabilidad de la demanda. Como se ve en el gráfico, cuando la reposición se hace fijando el ROP o MIN en una cantidad fija, y la demanda es variable, ocurre lo que se ve aquí: el tiempo entre una orden de reposición y otra es variable.

Volvamos a revisar lo que ya sabemos: el inventario necesario para generar ventas depende del tiempo de reposición. Por lo tanto, si el tiempo de reposición cambia en el tiempo, pero el inventario no, entonces el inventario que se mantiene es casi siempre erróneo, con un sesgo hacia el exceso.

Es decir, el método MIN/MAX, tan popular en programas académicos, es un método que conduce a tener siempre inventarios equivocados (excepto cuando la demanda tiene poca variabilidad).

Uno de los elementos de una solución al problema crónico de los inventarios, me refiero al problema de tener excesos y faltantes simultáneamente, es fijar la frecuencia de reposición.

Si fijamos la frecuencia, ya el MIN no es relevante. El MAX será la cantidad que debemos mantener, pero si desde la última orden hubo pocas ventas, la cantidad a pedir será bastante menor que la EOQ – lote económico de orden.

La cantidad EOQ se calcular con una fórmula que involucra costo del faltante y costo de almacenamiento más costo de generar una orden. El concepto es que si la cantidad es grande, el costo de almacenamiento es mayor, pero el costo de generar órdenes es menor (son menos órdenes al año).

En primer lugar, el costo del faltante es muy difícil de estimar y es probable que sea mucho mayor al estimado. Hay dos aspectos que se subestiman. El primero es que los faltantes pueden restar reputación y eso reduce la demanda futura. Y el segundo aspecto es que un faltante afecta a las ventas también de un modo diferente si se mantiene más o menos tiempo.

En general se puede decir que a las ventas también aplica el principio de Pareto, el de 80/20. Este principio dice que el 20% de los factores es responsable del 80% del resultado. Los números 80 y 20 son referencias para indicar la asimetría.

En un caso que conocí bien, el 5% de faltantes estaba generando un 30% de ventas perdidas. Esto lo sé porque cuando ese 5% se eliminó, las ventas crecieron 40%. (Nótese que de un total de 100, se estaba vendiendo 70; al incrementar 40%, 70 x 1.40, esto da 98).

Por lo tanto, en la fórmula de EOQ se subestima mucho el costo de faltante.

Pero además, los costos de almacenamiento y de generar las órdenes son habitualmente costos hundidos, o fijos, como quiera verlos. El primero es lo que cuesta el espacio de bodega. Y este se hace variable solo si hacemos crecer el inventario por sobre cierto nivel. Y el de generar órdenes se compone de sueldos de personas que no cambian si uno hace más o menos órdenes. Para efectos prácticos, los costos marginales de estas dos componentes son cercanos a cero.

Al aplicar la fórmula ahora, la cantidad EOQ resultante es muy pequeña, por lo que es irrelevante.

Lo dicho para el costo de generar órdenes es válido para el transporte y para la producción, donde los setups rara vez tienen costo real.

Por lo dicho, el método MIN/MAX y el lote EOQ son falacias, que conducen a malas decisiones de reposición de inventarios.

La alternativa de TOC

TOC es Theory Of Constraints, teoría de restricciones, creada por el Dr. Goldratt y sus principios también se aplican a los inventarios.

Tomando la definición del principio, nuestro objetivo será tener el mínimo inventario para satisfacer la máxima demanda esperada antes de la próxima reposición.

Primero explicaré la solución genérica y luego distinguiré algunos casos.

Como ya mencioné, lo primero es FIJAR LA FRECUENCIA. Esto es una decisión, no es un resultado. Por lo que esta decisión reduce la variabilidad del tiempo de reposición drásticamente.

Lo segundo es ignorar los lotes óptimos y llevar a la frecuencia a lo máximo razonable 8veremos qué significa razonable al distinguir casos), por lo que el tiempo entre orden y orden se reduce al mínimo posible. Como el inventario es proporcional al tiempo de reposición, el inventario resultante es menor, ocupando menos espacio y atrapando menos dinero.

Ahora, con menos dinero invertido, tenemos inventario para más del 98% de los casos de demanda, elevando nuestro fill rate a casi 100%.

El método consiste en reponer con la frecuencia fijada solo lo que le falta a nuestro inventario objetivo, que en jerga de TOC se llama AMORTIGUADOR.

¿Cómo sabemos que el amortiguador es el adecuado?

El primer amortiguador para cada SKU se debe estimar. Hay variadas maneras de hacerlo y se encuentran en la literatura de TOC. Pero no es relevante hacer un cálculo muy exacto para este estado inicial, por lo que recomiendo una fórmula simple. Yo personalmente prefiero una suma móvil de los últimos X días durante unos 3 a 6 meses, donde X es el número de días correspondiente al tiempo de reposición. El tiempo de reposición debe incluir todo: los días entre una orden y otra, y también todo el tiempo de suministro(producción y transporte). El amortiguador es el máximo de esas sumas.

Pero la demanda por un SKU puede cambiar, por lo que el amortiguador también debe cambiar. La Administración Dinámica de Amortiguadores es la técnica de TOC para automatizar este procedimiento por el cual el amortiguador individual de cada SKU va siguiendo la demanda real. Se basa en colores, tiene ciertas reglas, y consiste en que se incrementa el amortiguador en un tercio cuando se detecta que se está consumiendo inventario más rápido de lo que se repone. Y se reduce un tercio cuando se detecta que el consumo ahora se hizo más lento.

Casos genéricos distinguibles

Hay tres casos que vale la pena distinguir en general:

  1. Puntos de acopio o de venta de la misma cadena
  2. Bodega central o centro de distribución abastecido localmente
  3. Bodega central o centro de distribución abastecido de importación

El primer caso corresponde a nodos que nos pertenecen, por lo que tenemos total control sobre su operación. En general, estos puntos pueden tener reposición diaria, lo que lleva a reducir mucho los inventarios, y al mismo tiempo es raro mantener un faltante más allá de un día. El criterio es reducir el tiempo al mínimo; si no es un día, que sean dos o a lo más tres.

Si, por ejemplo, tenemos varios puntos de venta en una ciudad alejada del centro de distribución, donde se vende un camión cada tres días, es posible hacer un viaje cada tres días a esa ciudad entregando en cada punto de venta. Cuando estos crecen en número, puede ser mejor tener una bodega regional que atienda a esa y otras ciudades cercanas, siguiendo el mismo principio.

Cuando los nodos nos pertenecen, no tiene sentido que la reposición no pueda hacerse con alta frecuencia. De hecho, hoy deben ir camiones con mucha frecuencia, pero no para reponer SKUs que se vendieron ayer.

El segundo caso es una bodega que se abastece de una planta de producción propia o de proveedores locales. En ambos casos (por razones distintas), poner órdenes diarias es un ejercicio inútil.

En el caso de la producción, lo normal será que la programación no acepte órdenes para producir el mismo SKU varios días seguidos, porque eso llevaría a desperdiciar capacidad en la restricción (ver artículo https://blog.goldfish.cl/produccion/refutacion-al-balanceo-de-lineas/).

Y si los proveedores locales reciben todos los días órdenes de compra por el mismo SKU, lo más probable es que consoliden todas esas órdenes para despacharlas en una vez semanal.

Por estas razones, mi recomendación para este segundo caso es fijar la frecuencia en una orden semanal por cada SKU. Esto lleva a dividir los SKUs en cinco grupos (esto es un ejemplo), y tendremos los del lunes y los del martes, y así sucesivamente. El encargado de reponer solo debe completar amortiguadores del grupo del día.

El tercer caso es el que más me ha hecho pensar. Hasta ahora no lo he dicho explícitamente, pero habrá notado que este método prescinde de los pronósticos: reponga solo lo que se consumió y ajuste en forma dinámica los amortiguadores.

El pronóstico contiene errores, a veces subestima demanda y otras veces la sobrestima. Mientras más pequeña la población que atiende un nodo, mayor es el error relativo. Es decir, una tienda que atiende a 5.000 personas requiere más inventario por habitante que una bodega que atiende a 50.000 personas. Este método de reposición frecuente reduce los inventarios en los nodos de mayor error.

Este fenómeno de reducir el error relativo al crecer la población se llama agregación estadística, y está muy bien estudiado matemáticamente. La agregación estadística también ocurre al alargar el tiempo. El problema con esto, ya sabemos, es que crece el inventario proporcionalmente.

El tercer caso, donde el centro de distribución se abastece por importaciones, es uno donde el tiempo de reposición es naturalmente largo. Primero, el tiempo de tránsito no puede ser más corto sin elevar el costo (pasar de marítimo a aéreo, por ejemplo). Pero además, para llenar contenedores, tal vez se requiera de la venta de una o dos semanas. Estos dos factores hacen que el tiempo de reposición no pueda reducirse, para nadie; es decir, los competidores tienen las condiciones.

Como podemos ver, al tener agregación estadística por el tiempo largo, y además tener la máxima agregación estadística poblacional, el error de pronóstico de demanda para este caso particular es mucho menor en forma relativa.

Aun así, fijar la frecuencia por cada SKU tendrá los mismos beneficios ya descritos. Sin embargo, el método de ajuste de amortiguadores puede modificarse, incorporando técnicas de pronóstico, haciendo a este método más robusto todavía.

Conclusiones

Tanto las “mejores prácticas” de la industria como los contenidos de programas académicos están atrasados en muchas partes, y la prueba está a la vista. Basta con ir a un supermercado o a una tienda con una lista de compras con 10 ítems, ¿cuántas veces encuentra toda la lista? Y aun así, la tienda está llena de inventario. Haga otra prueba; mire la fecha de elaboración de algo no perecible que se produzca en el país y comprobará que son varias semanas desde que se produjo y usted lo tomó en sus manos. Eso habla de exceso de inventario.

Ahí está el resultado.

Y por otro lado, las cadenas de suministro que han adoptado TOC para transformarse, han reducido inventarios y han elevado sus niveles de servicio cerca del 100%.

Siempre se puede mejorar mucho más; pero para eso se requiere adquirir más conocimiento. Espero que eso le haya pasado leyendo este artículo.

Cross Docking: ¡No lo intente en casa!

La práctica de cross docking es otro de los errores que se deriva en forma lógica de un supuesto equivocado. Ya demostré porqué están equivocados MIN/MAX y EOQ. El supuesto básico es que “reducir los costos logísticos incrementa las ganancias”, y el problema es precisamente cómo se calculan los costos. No voy a entrar a eso ahora; en otra ocasión mostraré cómo la contabilidad de costos da información equivocada para la toma de decisiones. Y las decisiones son las que determinan las ganancias, o eso esperamos (de otro modo habría que reconocer la irrelevancia de cualquier método y, peor, la irrelevancia de los gerentes).

Pero enfoquémonos en este error hoy. Demostraré porqué cross docking siempre reduce las ganancias.

¿Por qué tenemos inventarios?

Me voy a repetir un poco, porque es bueno ir a la base de todo para poder entender qué hacer y, por cierto, qué no hacer.

Los inventarios son necesarios porque el cliente no tiene tolerancia para esperar una vez que expresó su necesidad. Es obvio que no es posible mantener inventario de productos a la medida, y en ese caso los clientes sí esperan un plazo de entrega. Pero productos que se consumen de forma habitual, por gran cantidad de clientes, y que no cambian sus especificaciones con frecuencia, representan muy bajo riesgo si se fabrican con anticipación. Por lo tanto, si no lo tiene de stock es muy probable que pierda la venta.

La respuesta a la pregunta era obvia: tenemos inventarios para hacer ventas (que no se pueden hacer sin inventario).

¿Cuánto inventario requerimos en cada nodo de la cadena?

Espero no aburrirlo con estas trivialidades.

Necesitamos el mínimo inventario posible para satisfacer la máxima demanda esperada antes de la próxima reposición.

Esto significa que el nivel de inventario de un SKU en una tienda dependerá del máximo nivel de venta esperado dentro de un tiempo de reposición, siendo el tiempo de reposición la cantidad de días que hay entre una orden y otra más el tiempo que demora la entrega (el tránsito). En el artículo acerca de MIN/MAX ya demostré que si permitimos un tiempo variable, el inventario siempre está equivocado.

Supongamos ahora que me hizo caso y en las tiendas tiene frecuencia diaria de reposición y demora un día el tránsito. Es decir necesita inventario para satisfacer el máximo nivel de venta que pueda ocurrir en un lapso de dos días.

¿Qué diferencia fundamental hay entre un centro de distribución y una tienda?

Está claro que la fórmula aplica también al centro de distribución (CEDI). Pero el nivel de venta del centro de distribución es la suma de las ventas de todas las tiendas. O sea que el CEDI no tiene ventas independientes, sino que su nivel de venta será una combinación de lo que ocurra en las tiendas.

Establecido eso, veamos qué significa “máximo nivel de venta” en cada nodo, en una tienda y en el CEDI.

Cuando vemos las ventas reales de los últimos 30 días de un SKU cualquiera en una tienda, vemos mucha variabilidad. Podemos ver varios días de cero unidades y días de 5 unidades, de 1 o de 10. Al mirar las ventas de ese mismo SKU en otra tienda los mismos días, veremos que también tienen una gran variabilidad, pero donde la primera tienda vendió cero, la segunda vendió 5, y así vemos que la combinación de ambas tiendas tiene ventas con menos variabilidad en conjunto.

Si combinamos la venta de muchas tiendas, la variabilidad de su venta total es mucho menor que la variabilidad de cada tienda individual. Esto se conoce como agregación estadística (en general, la variabilidad se reduce en razón de la raíz cuadrada del número de puntos de agregación).

Como consecuencia, “el máximo nivel de venta” del centro de distribución será mucho menor que la suma de los “máximos niveles de venta” de cada tienda sumados. ¡Acabamos de descubrir porqué conviene tener un centro de distribución! El inventario del CEDI que es suficiente para la venta diaria es mucho menor que si tuviéramos los inventarios en las tiendas.

Genial, buena teoría, ¿y qué tiene que ver con cross docking?

Además hay que tener en cuenta que los proveedores no son muy amigos de hacer despachos diarios a la cadena. Por lo que los pedidos a proveedores externos tienen un tiempo de reposición distinto, varias veces mayor a un día. Siendo muy conservadores, supongamos que hacemos pedidos semanales a los proveedores externos.

Si en vez de despachar al CEDI pidiéramos que le despachen a cada tienda, el inventario total de todas las tiendas sumadas sería muy grande. Tan grande que no alcanza el espacio y, muy posiblemente, tampoco el capital de trabajo. Eso lleva a reducir las cantidades pedidas y empezamos a provocar quiebres de stocks o agotados. Pero es justo esto lo que nos hace perder ventas, y queremos inventario para hacer ventas.

Es por eso que si pedimos el despacho semanal al CEDI es porque ahí almacenamos el producto y reaccionamos a diario a una demanda fluctuante, logrando reducir el inventario y también eliminar los agotados en las tiendas, que es donde se hacen las ventas.

Un momento: si recibo semanalmente los pedidos, pero hago despachos diarios, la operación de recepción y la operación de despacho están, por construcción del sistema, desacopladas.

Si fuerzo el acoplamiento de ambas, debo despachar a las tiendas lo que recibo semanalmente, pero entonces ahora tampoco puedo aprovechar la agregación estadística, ¡razón principal para el CEDI!

Hacer cross docking es precisamente acoplar recepción y despacho. Vea cómo en este artículo acerca de cross docking se describe el sistema como uno que reduce el almacenamiento en el CEDI a menos de 24 horas.

Es decir, hacer cross docking es una práctica que destruye el valor de la agregación y genera excesos de inventarios y agotados en los puntos de venta.

Pongamos unos números

En una cadena de retail, el margen bruto de cada producto puede ser 30% o más. Mientras mayor sea, mayor el efecto.

El efecto de los agotados en las ventas es asimétrico, como sabemos por el principio de Pareto. El 80/20, ¿se acuerda? Es decir, si de cero agotados pasamos a 5% de agotados (lo que es extremadamente conservador), las ventas que perderemos son 15% o más. Ya he contado la experiencia real de un fabricante que al reducir 5% de agotados incrementó las ventas 40%. Calculemos con 15%.

Si nuestra cadena, sin agotados, vende 100, el margen total será 30. Si tiene un 10% sobre ventas de utilidad, eso da 10, por lo que sabemos que nuestro gasto de operación total es 20.

Al reducir 15% las ventas, tendremos un margen total de 85 x 30% = 25.5, es decir, las utilidades se redujeron a 5.5. Para compensar esta pérdida de 4.5, el gasto total debería reducirse más de 4.5, lo que representa ~ 23%.

A menos de que los ahorros del cross docking superen un 23% del gasto total (que incluye todos los sueldos, arriendos, energía, etc.), esto es muy mal negocio.

Cross docking va en contra del objetivo primario del sistema, que es facilitar el flujo.

¿Por qué nadie se ha dado cuenta de esto y siguen haciendo cross docking?

La descripción que hice del sistema, con frecuencia semanal de abastecimiento al CEDI y distribución diaria a las tiendas es la práctica propuesta por Goldratt. Pero tampoco esto se hace, y la mayoría de las empresas no sabe aprovechar su CEDI más que para ahorrar costos de transporte, además de ahorrar el caos de recibir muchos camiones distintos en cada tienda.

Como la práctica hoy es incorrecta, cross docking efectivamente mejora la operación actual. Este es un caso donde se hace mejor lo que no se debe hacer. ¿Se acuerda de Drucker?: “Hacer mal las cosas correctas es mucho mejor que hacer bien las incorrectas”.

En estas circunstancias, donde la práctica prevaleciente es usar mal el CEDI, efectivamente uno puede decir que cross docking tiene los beneficios enumerados en el artículo ya citado.

Pero ese artículo también dice que para implementar cross docking se requiere de inversiones y de compromiso de los equipos. Es decir, si ya lo implementó, es posible que cueste más salir de esa situación permanente de agotados en las tiendas y excesos de inventario.

Voy a hacer una especulación acerca de porqué a alguien se le ocurrió el cross docking. Supongo que fue imitando el sistema de hub o centro de conexiones de vuelos de pasajeros, donde es mucho más eficiente para la línea aérea hacer una escala que hacer vuelos directos entre todos sus destinos. En efecto, si tengo múltiples destinos y todos pueden ser también origen, pero cada día hay una cantidad distinta de pasajeros que quiere ir de un sitio a otro, lo más eficiente es llevar a los pasajeros a un centro, donde todos los pasajeros que van a un destino desde varios orígenes se juntan en pocos vuelos. Esto es nuevamente agregación estadística.

Ese sistema de vuelos sería más eficiente si los pasajeros aceptaran esperar una semana en un hotel en el centro de conexiones, pero me temo que yo no lo haría. Por eso el centro de conexiones no es un CEDI que acumule inventario. Pero los productos no se quejan y en ese caso si podemos aplicar lo que expliqué en párrafos anteriores.

Conclusiones

Nuevamente una prueba de realidad ayuda a entender: entre a una tienda con una lista de compra (que incluya productos de esa tienda, claro) y vea cuántas veces encuentra todo. Si el cross docking sirviera para algo, encontraría más veces lo que necesita y no vería tanto inventario acumulado, al punto de que varios de esos productos se vencen o quedan obsoletos.

Varias de las “mejores prácticas” de la industria como los contenidos de programas académicos están equivocados. Volver a lo básico nos permite entender mejor nuestro negocio. Cross docking promete reducir costos, pero permítame una pregunta: ¿para qué está su empresa en el negocio?, ¿para generar dinero o para ahorrarlo? La buena noticia es que hacer lo correcto es más simple y mucho más rentable.

Refutación al balanceo de líneas

El 16 de junio de 2019, en un portal de ingeniería industrial se publicó Balanceo de Líneas, donde se cita al Dr. Eliyahu Goldratt, diciendo “Una hora perdida en el cuello de botella, es una hora perdida en todo el sistema”, pero en el artículo faltó analizar las líneas como sistemas.

La conclusión de ese artículo es que balancear líneas de fabricación o ensamble reduce los costos unitarios, y dice además que “El balance o balanceo de línea es una de las herramientas más importantes para la gestión de la producción, dado que de una línea de fabricación equilibrada depende de la optimización de ciertas variables que afectan la productividad de un proceso, (…)”

En el presente artículo iniciaré la exposición precisamente desde la frase del Dr. Goldratt, quien hizo diversos experimentos para demostrar que balancear las capacidades en una línea reduce la productividad del sistema, incrementando el costo de producción.

Líneas de fabricación o ensamble como sistemas

Un sistema es un conjunto de elementos interdependientes con un propósito. Una línea de fabricación o ensamble se ajusta a esta definición: cada estación de trabajo es dependiente de otra y entre todas tienen el propósito de crear un producto a partir de materia prima.

Una de las características principales de un sistema es que se requiere de la sincronización de todas las partes para que se produzca el resultado. En este sentido, la producción de un producto es un resultado emergente del sistema como un todo. Ninguna de las partes es capaz de producirlo por sí misma, ni siquiera un subconjunto de ellas. Esto es fácil de demostrar. Si lo anterior fuera cierto, ese subconjunto es nuestro sistema y el resto sobra.

En este sentido, necesitamos a todas las partes para que se genere el producto. Esto era obvio, sin embargo lo que no es tan obvio es entender cómo logramos la máxima productividad de un sistema.

En la realidad existe la variabilidad

Para hacer la demostración requerida para refutar el citado artículo, empezaré por establecer un hecho de la realidad. El tiempo de proceso de una unidad en una estación de trabajo es un tiempo dentro de un rango, no es una cantidad específica de minutos.

Por ejemplo, cuando en una estación decimos que un producto demora 2 minutos, sabemos que eso es un promedio, pero que podría ser 1 minuto o 5 minutos.

Respecto de los tiempos de proceso sabemos que tienen una asimetría marcada hacia la derecha. Vea el siguiente gráfico:

Al hacer nuestras mediciones de tiempos de proceso en una estación de trabajo, considerando el proceso de partes idénticas, después de un gran número de casos obtenemos una tabla de resultados con una gran dispersión.

Nunca se pudo procesar en 0 segundos o menos, lo que era evidente. En unos pocos casos se logró el proceso en 50-70 segundos, la mayoría de los casos está entre 70 y 120 segundos, pero no pocos casos están en el rango entre 120 y 250 segundos. En realidad, vemos que la mitad de los casos está en el último rango.

En mi experiencia de más de quince años, este gráfico representa la realidad de la gran mayoría de los procesos en todo tipo de fábricas.

Aunque sé que existe una diferencia entre la mediana y la media (o promedio), usaré el promedio para simplificar. Y podemos decir que un proceso tiene una probabilidad de 50% de estar funcionando en su promedio o más rápido. Esto lo usaré a continuación en la siguiente demostración.

Efecto de la dependencia de los procesos

La variabilidad afecta a todos los recursos. Vamos a distinguir la variabilidad por causas comunes de la que tiene causas especiales. Las causas especiales son todas esas que son identificables fácilmente, por ejemplo, un corte de energía.

Las causas comunes son muchas y variadas, y para todos los efectos prácticos, las causas que detienen a un proceso no necesariamente afectan a otros procesos. Por lo tanto, la productividad de un proceso en un instante puede estar por encima de su promedio mientras que la de otro está por debajo.

Consideremos ahora una línea genérica (de fabricación o de ensamble):

Tenemos una dirección de flujo y sabemos que un recurso no puede procesar nada si no ha recibido material desde el anterior.

Diseñemos nuestro proceso para que produzca 10 unidades por hora. Después de un rato, el proceso ya está en régimen y todos los recursos están procesando lo que pueden.

Veamos qué pasa si balanceamos la línea, es decir, todos los recursos tienen una capacidad promedio de 10 u/h (o un tiempo promedio de 6 minutos por unidad).

Ya sabemos que la probabilidad de producir 10 u/h o más es un 50%. Miremos lo que ocurre en los dos primeros recursos en las tres primeras horas:

Periodos

Recurso 1

Recurso 2

Producción total

Primera hora

7 u/h

15 u/h

7 u/h

Segunda hora

14 u/h

6 u/h

6 u/h

Tercera hora

9 u/h

9 u/h

9 u/h

A pesar de que en promedio cada uno de los recursos si es capaz de hacer 10 u/h, al combinarlos en cada periodo, al no sincronizarse las capacidades, se cumple lo que decía el Dr. Goldratt: el sistema se mueve al ritmo del más lento.

¿Acaso no sabíamos esto ya? ¡Claro que sí!, pero el balanceo de capacidad, que es una de las técnicas enseñadas en muchos cursos universitarios, ignora el efecto sistémico de la combinación.

Al extender este efecto al resto de los recursos, podemos fácilmente ver que la probabilidad de que una línea balanceada produzca a la velocidad promedio de diseño es aproximadamente 0.5n, siendo n el número de recursos encadenados en la línea. En este caso, con 7 recursos, la probabilidad de lograr 10 u/h de producto terminado es ~ 0.8%, es decir, de un año de 300 días de trabajo, solo 2 se alcanzaría la productividad de diseño de la línea.

Mientras mejor sea el balanceo, peor el desempeño.

¿Qué le ocurre al costo al balancear las líneas?

De la conclusión anterior, ahora sabemos que tendremos un ~20% menos de productos terminados comparado con el plan original (o peor), por lo que todo el costo de producción asociado a operar la línea (descontada la materia prima) se dividirá en menos productos, lo que hará crecer al costo real unitario en 25% (o más).

Entonces, para reducir el costo unitario total (el único que es relevante) hay que lograr que el sistema maximice su productividad como un todo, y no la productividad de cada uno de los recursos.

¿Y si es una línea de montaje?

Normalmente uno ve fábricas donde los recursos están aislados unos de otros y el material (WIP por work in progress) debe trasladarse de un centro a otro. Pero con la idea de acelerar el proceso, y siguiendo el modelo atribuido a Ford, algunas líneas se disponen de un modo donde no hay espacio para acumular WIP y toda la línea avanza al mismo tiempo.

Ahora que ya sabe lo que ocurre al balancear una línea, mire lo que ocurre con una línea de montaje ¡aunque no esté balanceada!

Al no poder acumular WIP entre recursos, la línea completa avanza al ritmo del más lento. Pero, ¿cuál es el más lento? Miremos nuevamente el gráfico:

Hacia el lado derecho tenemos “la cola” de la distribución, y ya vimos que no es para nada improbable que un recurso esté en ese ciclo productivo.

A diferencia del caso general, donde el poco WIP que se puede acumular sí le permite a algunos recursos amortiguar algo el efecto de la dependencia, en el caso de la línea de montaje esto no es posible. En este caso, la línea completa se mueve al ritmo del recurso que esté operando en su cola.

Si uno tiene 7 recursos acoplados, ya sabemos que la probabilidad de que al menos uno esté en la cola es 99%. Si la línea tiene algunas decenas de estaciones (como son las ensambladoras de productos voluminosos, como automóviles), es seguro de que están operando muy por debajo de sus posibilidades.

En una línea de montaje se vuelve increíblemente relevante reducir la variabilidad, lo que lleva a la empresa a un maremagnum de proyectos de mejora que cuestan mucho tiempo y dinero. Y tampoco se logra eliminar las colas de la distribución. Parece una tarea sisífea mejorar la productividad.

Hasta Elon Musk se arrepiente de tanta automatización en la línea de Tesla, aunque no estoy seguro de sí advirtió ya el efecto que acabo de describir o tiene otras razones, pero ve que sus resultados están por debajo de lo planeado.

La solución es encontrar al recurso que sea la restricción de todo el sistema (tenga la menor capacidad promedio) y aislarlo, permitiendo que se acumule WIP antes y después. Esto elevará bastante la productividad total del sistema. Y sí, me doy cuenta de la inversión que se requiere para modificar layout, pero con un incremento de tan solo 10% en productividad total, estoy seguro de que ese proyecto es rentable.

“Si no balanceamos la línea, hay mucho desperdicio”

En nuestro ejemplo, supongamos que el tercer recurso es nuestra restricción, el que tiene una capacidad promedio de 10 u/h, y el resto tiene 20 u/h o más.

Primero aclarar que el doble no es una exageración. La capacidad de la línea para recuperarse cuando hay bajas, o en otras palabras, para absorber la variabilidad, depende de esta capacidad extra. Si es poco el exceso respecto de la restricción, todavía tenemos un problema con la variabilidad. En mi experiencia, esta capacidad extra, que en jerga de Teoría de Restricciones (TOC) se llama capacidad protectiva, debe superar el 30-50% y a veces más.

Entonces vemos que si alimentamos a la línea con todo el material que es capaz de procesar el primero, en poco tiempo tenemos una acumulación intolerable de WIP en los pasillos de la planta, porque la restricción no es capaz de drenar ese WIP. De hecho, lo que ocurre es que uno tiene la sensación de que el cuello de botella se está moviendo dentro de la planta. Esto último es uno de los síntomas de lo contrario, de que hay capacidad en exceso. Y cuando hay exceso de WIP, son varios los efectos por los cuales se desperdicia capacidad, incluso en la restricción. Y aquí aplica la frase “una hora perdida en el cuello de botella, es una hora perdida en todo el sistema”.

Debemos controlar la cantidad de WIP para lograr que la restricción siempre tenga trabajo pero que no sea tanto que desperdicie capacidad. En otro artículo profundizaré en cómo se desperdicia capacidad con el exceso de WIP.

Este mecanismo de control de WIP debe liberar material a proceso al ritmo que dicte la restricción, por lo que todos los demás recursos tendrán tiempos ociosos. Pero estos tiempos ociosos no son reales desperdicios de capacidad; son en realidad tiempos de espera para que el sistema se sincronice al ritmo de la restricción. En jerga de TOC esto es un amortiguador, que es el mecanismo para lograr la máxima productividad.

Por eso he escrito que, muchas veces, las implementaciones de LEAN, entendidas como reducción de desperdicio, son enemigas de la productividad.

Además, un operario recibe el mismo sueldo si opera una máquina de mayor o menor capacidad. Por lo que el gasto en sueldo no cambia si uno tiene máquinas de más capacidad. Mire los precios de las máquinas y verá que aumentar al doble de capacidad no cuesta el doble de inversión.

Todos los tiempos que se generan así no son desperdicios, y son excelentes para practicar las 5S o para hacer el mantenimiento preventivo.

Ahora puede ser un buen momento para reformular el indicador de productividad. Si las órdenes de producción son las que se necesitan y no más, cuando aumenta el tiempo “ocioso” es signo de que aumentó la productividad.

“No sé, algo no me convence…”

Para demostrar el efecto del balanceo de línea le sugiero un experimento que puede hacer en su casa o con su equipo de trabajo.

Consiga 100 fichas y 7 dados, y arme una línea de producción con 7 estaciones. A cada estación se le asigna un dado, que será nuestra simulación de variabilidad. Note que el dado no es asimétrico, porque es uniforme entre 1 y 6, aunque puede ser que exagere la dispersión. Pero es un buen simulador de capacidad variable.

Si se hace la simulación de un día de trabajo, cada estación lanza su dado y produce como máximo el número que sacó. Si saca un 5 y tiene tres fichas, solo puede pasarle al siguiente 3 fichas. No se pueden usar las fichas que me van a pasar en el mismo turno. El primer recurso “produce” lo que sacó el dado porque tiene suministro ilimitado de fichas.

¿Cuánto es la capacidad promedio de un dado? Es el promedio de todos sus números. La suma es 1+2+3…+6 = 21 y eso dividido en seis da 3.5. O sea que cada estación tiene una capacidad promedio de 3.5 unidades/día. En 20 días deben ser capaces de hacer 70 unidades.

Para empezar el experimento en régimen, reparta 4 fichas a cada uno, y ahora hagan 20 días de producción.

Compare lo que obtuvo con las 70 unidades esperadas.

Este experimento ahorra horas de discusión y de demostraciones matemáticas, y es mucho más divertido. Después se pueden hacer variaciones para demostrar otras cosas, como que estar cambiando personas de un sitio a otro solo incrementa la variabilidad pero no consigue más capacidad.

Conclusión

Balancear la línea de producción solo reduce la capacidad total de la línea. Y peor todavía, la capacidad real es bastante menor que la planeada, por lo que va a incumplir en una gran proporción de los pedidos, además del obvio efecto sobre las ventas facturadas.

Entregar tarde no es solo mal servicio: es vender menos

Photo by Nandhu Kumar on Unsplash

Cuando uno promete un plazo de entrega debe tener en cuenta la capacidad de producción. Eso significa que ha previsto entregar, facturar y cobrar una cantidad de pedidos en los plazos prometidos.

Cuando entregamos tarde un pedido, eso significa que el tiempo que habíamos previsto destinar a ese pedido se usó en otro pedido, por lo tanto, al final del mes, con varios pedidos atrasados, hemos entregado menos pedidos de los que habíamos planeado. Esto también impide facturarlos y cobrarlos.

Esto por sí mismo ya es una reducción de las ventas presupuestadas, por lo que lograr un 100% de OTIF (On Time in Full), es decir, lograr entregar a tiempo y completo siempre, es lo mismo que cumplir el plan de ventas.

El tiempo perdido no se recupera nunca más. Este es el efecto sobre las ventas presentes.

Recordaré también aquí las consecuencias sobre las ventas futuras. Las entregas tarde generan tal cantidad de problemas a nuestros clientes, que tarde o temprano nuestra reputación sufre.

Termino esta breve reflexión repitiendo una cita que vi hoy:

Agradecido a Jorge Arias Galeas por compartirla en LinkedIn.

Otra razón más para lograr el 100% de OTIF.

Cada empresa necesita su adaptación

Photo by SinAbrochar Photo on Unsplash

Hace un par de semanas empezamos a conversar con una fábrica de muebles. No daré más detalles todavía porque no tenemos permiso para divulgar más información.

Sin embargo, con una sola conversación supimos inmediatamente que esa fábrica está sufriendo de entregar tarde sus pedidos, y desde ahí hicimos una serie de conjeturas.

El caso más frecuente es que estas fábricas no usan el concepto de amortiguador de tiempo para controlar el trabajo en proceso (WIP), y es por eso que su capacidad fluctúa, haciendo imposible estimar fechas de entrega con suficiente precisión. (Más detalles acerca de este concepto en https://otif100.com/the-3-keys).

Sin embargo, en una segunda conversación, ahora con el jefe de producción, aprendimos cosas muy valiosas. No fue sorpresa que no tuviera identificada la restricción del proceso, que consta de cuatro pasos de fabricación. Y de toda esa conversación, nuestro equipo dedujo dónde convenía que estuviera la restricción, que en este caso resultó ser el segundo recurso.

Pero eso fue el primer paso. El análisis nos dijo también que el primer recurso podía convertirse en cuello de botella, pero es muy caro elevar su capacidad, porque requiere otra máquina de corte.

Recordando el artículo anterior, acerca de los amrtiguadores como sincronizadores, diseñamos el modelo de operación para esta fábrica. Resultó ser una combinación de amortiguador de tiempo con amortiguador de inventario para asegurar amortiguador de capacidad.

El amortiguador de inventario al que me refiero no es solo el tradicional inventario de materias primas. En este caso es un inventario de piezas ya cortadas para un conjunto de piezas que se repiten en varios modelos. El proveedor cobra muy poco más por dimensionar, por lo que este inventario es el amortiguador que construye el amortiguador de capacidad para corte.

El sistema se verá así: las órdenes de los clientes consumen piezas cortadas del inventario (y se repone con el método de TOC), y piezas personalizadas (por color o tamaño o forma) que deben cortarse. El segundo recurso procesa ambos tipos de piezas, y los dos últimos recursos, con capacidad extra, van terminando los muebles, mateniendo un WIP bajo en todo momento.

Los conceptos son siempre los mismos, pero deben adaptarse a cada empresa como lo hace un sastre con un traje a la medida.

Esta semana empezaremos con este nuevo diseño. Espero reprtar los buenos resultados en otro artículo dentro de poco tiempo. Por ahora es solo teoría… ¡pero es una buena teoría!

Amortiguadores: sincronizadores de flujo

Photo by Edvin Johansson on Unsplash

A Peter Senge le escuché que antes de cumplir 20 años, él ya estaba casi obsesionado con la interdependencia. Y al investigar más acerca de pensamiento sistémico, todos los autores coinciden en la visión holística, donde el todo es más que la suma de sus partes.

Los sistemas no son solo grupos de elementos. Son también las interacciones entre sus elementos. Y lo que un sistema produce se genera como un flujo a través de estas interacciones, como una característica emergente del sistema como un todo, y que no puede obtenerse de otro modo, aunque tengamos todas las partes disponibles sin interactuar.

En su libro La Quinta Disciplina, Senge dice que la quinta disciplina es el pensamiento sistémico. Y esto es muy relevante para las empresas porque las empresas son sistemas, por lo tanto, los gerentes deben procurar acelerar el flujo como primera consideración. Flujo de materiales o servicios hacia los clientes, flujo bi-direccional de información y flujo de dinero desde los clientes.

Sabiendo esto, el siguiente paso es preguntarse cómo lograr mejor flujo. En mi libro Sincronización, yo digo que lo principal es elevar la sincronización entre los distintos flujos que ocurren dentro de la empresa. En ese libro explico que las contradicciones sistémicas reducen la sincronización y muestro cómo se pueden ir eliminando metódicamente. Pero hay otro aspecto de la sincronización del que quiero hablar aquí.

Primero definamos la palabra. Sincronizar es lograr que dos o más cosas ocurran al mismo tiempo.

En los sistemas complejos, como son las empresas, hay varios flujos que están ocurriendo y debemos sincronizarlos para lograr producir. ¿Qué pasa si un flujo tiene un ritmo distinto que otro? Uno de los flujos tiene ciclos de días mientras que el otro tiene ciclos de horas, ¿cómo lograr que lo que uno necesita lo entregue el otro en el momento adecuado?

Pensando en este tema de los ritmos distintos se me ocurrió el caso de un campo que necesita riego. Hay días de lluvia, y esos días el campo recibe la lluvia y no necesita más. Para los días que no llueve podemos usar el agua del arroyo que se forma cuando llueve. En este caso, los días de lluvia no necesitamos el arroyo, pero es precisamente esos días lluviosos que hay arroyo, pero si no llueve no existe el arroyo que necesitamos.

¿Cómo podríamos sincronizar el agua del arroyo con los días no lluviosos? En otras palabras, ¿cómo podemos sincronizar el riego cuando el ritmo de lluvias es intermitente pero la necesidad es continua? La solución es conocida: un embalse que acumula agua los días lluviosos y que se puede usar los días no lluviosos para regar.

El embalse desacopló ambos flujos, y nos permitió controlar la sincronización entre esos dos flujos de distinto ritmo.

En las empresas tenemos flujos de demanda, de producción, de abastecimiento, de efectivo. Y cada uno de esos flujos tiene distintos ritmos. La manera de lograr la sincronización es con embalses. En Teoría de Restricciones (TOC) los llamamos amortiguadores.

Los amortiguadores pueden ser de inventario físico, pueden ser de tiempo o pueden ser de capacidad instalada, o una combinación entre esas posibilidades.

Por ejemplo, si uno fabrica productos de consumo masivo, la manera de sincronizar la demanda con la producción es con inventario para entrega inmediata. Otro ejemplo; si uno fabrica a pedido, y recibe pedidos que ocupan varios días de capacidad, la manera de sincronizar la producción con las ventas es dando plazos de entrega.

Los amortiguadores son detenciones de flujo, por eso es deseable tener el mínimo posible que garantice la sincronización. No es bueno tener muchos amortiguadores. La guía aquí es poner amortiguadores solo entre flujos con ritmos muy distintos.

Las aplicaciones de TOC para administrar flujos se basan en amortiguadores y han probado ser las más efectivas a lo largo de décadas de experiencia. Y los métodos incluyen la manera de administrar el tamaño de los amortiguadores en función de los cambios en los ritmos.

¿Tiene síntomas de falta de sincronización en su empresa? Tal vez el remedio sea construir y administrar unos pocos amortiguadores dentro de sus procesos.

Decisiones macro y micro – parte 2/2

Photo by Remy Gieling on Unsplash

Repito la pregunta del artículo anterior: ¿De qué dependen los resultados de las empresas? De las decisiones: las macro decisiones fijan un norte, las micro decisiones son la ejecución.

En el artículo anterior afirmé que una decisión macro que debería guiar a las empresas es cumplir la promesa que se hace a los clientes.

Las dos promesas típicas de empresas manufactureras son:

  1. Prometen entrega inmediata.
  2. Prometen un plazo de entrega.

Ya examiné cómo la promesa 1 se incumple con frecuencia. Y también ofrecí la solución simple de Teoría de Restricciones, que ha tenido una historia larga de éxitos. Es una idea muy simple y se puede automatizar (ver https://fillrate100.com).

La promesa 2, la de entregar a tiempo en el plazo prometido, sin sacrificar calidad, es también de esas promesas que todas las empresas hacen pero pocas cumplen.

Si usted produce a pedido, sabe que debe prometer un plazo de entrega. Y tal vez cumpla esa promesa en un 80%-85% de las ocasiones.

Este era el caso de una empresa en Chile, que facturaba cerca de USD 500 millones al año. En 2008 o 2009 me reuní con el gerente de operaciones y el gerente de producción de esta empresa, para explorar si estarían interesados en lo que tenemos para ofrecer. Después de intercambiar algunos datos, les pregunté si medían la entrega a tiempo, a lo que respondieron que sí. Ellos medían OTIF – On Time In Full y, añadieron, tenían 79.4% en ese indicador, lo que consideraban bueno.

Extrañado, les pregunté por qué lo consideraban bueno. Su respuesta me sorprendió más: “¡porque está muy cerca del 85%, que es el límite teórico!

¿Recuerdan el 94% de fill rate del artículo anterior? Ese límite práctico que no puede mejorarse sin un alto costo, lo que lo hace menos rentable. Ya mostré cómo se puede lograr un fill rate cercano al 100% con menos inventario y menos costo.

Este es también el mismo caso. Más de 85% de OTIF, me explicaron, no es rentable; se puede lograr, pero a un costo demasiado alto.

Como les ofrecía incrementar el OTIF sobre 98% con menores costos, no lo creyeron posible y no seguimos conversando.

Me quiero detener un poco a reflexionar qué significa un 90% o menos de OTIF. Cuando uno declara que tiene una entrega a tiempo de 85%, está diciendo que hay un 15% de probabilidades de atrasarse en el plazo.

La mayoría de las veces, los atrasos provocan grandes perjuicios a los clientes. Son tan grandes que una probabilidad baja de ocurrencia representa un riesgo moderado a alto. Un riesgo que vale la pena mitigar; es decir, si uno elimina ese riesgo, está generando un gran valor al cliente. Esto queda, además, de manifiesto, observando la reacción de los clientes ante los atrasos.

En la práctica, si el daño es apreciable, un 10% o un 40% son similares. Para el cliente son ambas probabilidades demasiado altas. Considere el juego de la ruleta rusa. Si tiene 6 balas, la probabilidad de sobrevivir es 14%. Si tiene 10 balas, baja a 10%. ¿Le parece aceptable el riesgo en el segundo caso? ¿Y si tiene 20 balas?

A mí me parece que la entrega a tiempo es aceptable desde 95%-98% hacia arriba.

¿Por qué las empresas no son capaces de cumplir mejor sus plazos de entrega? Pensemos un poco en esto: tenemos una cola de pedidos, y tenemos una capacidad instalada. En simple, la capacidad se mide en unidades por hora, por lo que la cantidad conocida de los pedidos en cola representa una cantidad de horas bastante exacta, suponiendo que conocemos la capacidad, claro. Y sabiendo cuántas horas diarias trabaja nuestra empresa, ya sabemos cuál es la siguiente fecha que podríamos prometer.

Muchas empresas se equivocan en esa estimación. Debe ser equivocación, porque si prometen las fechas sabiendo que no cumplirán, demuestran total ignorancia respecto de lo que valoran los clientes. ¿Dónde se equivocan? Tenemos solo dos factores para hacer el cálculo de fecha: la carga ya comprometida y la capacidad. La carga comprometida es una cantidad conocida, sin ninguna variabilidad. Solo queda la capacidad.

¿Por qué se equivocan tanto con la capacidad? ¿Acaso no conocen su planta los planificadores? ¿No saben cuántas horas diarias trabajan y qué días son feriados?

La explicación que queda es que la capacidad efectiva de producción de una planta no solo depende de la capacidad instalada. Hay otro factor que incide fuertemente en la capacidad: es el WIP por work in progress, o trabajo en proceso.

Voy a apelar a su intuición. La capacidad de una autopista para “procesar” automóviles se puede medir en la cantidad de autos que pasan por un punto al final de la autopista. Y esta cantidad va a depender de la velocidad promedio de los autos. La cantidad de autos en la autopista es el WIP. Si el WIP es muy poco, la producción también (no importa que los autos puedan ir a máxima velocidad; son pocos autos por hora). Cuando va creciendo el WIP, más autos por kilómetro, la producción también va creciendo, porque la velocidad sigue siendo la máxima, pero ahora son más autos. Si el WIP sigue creciendo, como el último día de vacaciones y todos vuelven al mismo tiempo, sabemos por experiencia que la velocidad promedio es mucho menor, por lo que la producción de autos por hora también es menor.

Es decir, la capacidad de un sistema está determinada por el WIP. Si controlo el WIP, controlo la capacidad.

En el ejemplo de la autopista, si nos organizamos y controlamos la cantidad de autos que ingresan a la autopista, todos llegarían más rápido a destino.

Tenemos ya suficiente información para diseñar la primera micro decisión diaria que hará posible cumplir la promesa de entregar en un plazo.

La micro decisión número 1: decidir qué órdenes de producción deben estar en proceso.

Esto significa también que hemos decidido que el resto de las órdenes van a esperar algunos días. Incluso si el primer recurso queda desocupado…

Como en el artículo anterior, las micro decisiones diarias de la mayoría de las empresas se toman sobre una base equivocada. En la mayoría de las empresas intentan mantener a todos los recursos ocupados, bajo la creencia de que todo tiempo ocioso en la línea de producción es un desperdicio. Y también, lanzan a producción todas las órdenes lo antes posible por la creencia de “mientras antes empiezo, antes termino”.

Ambas creencias son falsas. No me voy a extender aquí para demostrarlo, porque hay abundante material para aprender de esto.

La micro decisión número 2: decidir en qué secuencia deben procesarse las órdenes en cada recurso.

Como queremos cumplir el plazo, el criterio primario es la fecha de entrega. Sin embargo, hay varias consideraciones que aconsejan procesar una orden antes que otra, incluso si debe entregarse después. Por eso, necesitamos un sistema simple y robusto que permita decidir a cada persona en la planta qué hacer.

La micro decisión número 3: con el WIP controlado, se puede decidir qué fechas prometer para cumplir siempre.

Sin el control de WIP, no se puede hacer el control de la carga para predecir las fechas. Pero ya establecido, es simple calcular las fechas más probables que se pueden prometer. Estas tres micro decisiones diarias determinan el OTIF de las empresas. Se puede aprender más acerca de los detalles en https://otif100.com.

No se conforme con una entrega a tiempo de menos de 95%: es posible y se logra a un costo menor.

Decisiones macro y micro – parte 1/2

Photo by Nana Smirnova on https://unsplash.com

¿De qué dependen los resultados de las empresas? De las decisiones: las macro decisiones fijan un norte, las micro decisiones son la ejecución.

Si usted trabaja en una empresa que fabrica o comercializa algo, estoy seguro de que está de acuerdo conmigo en una decisión macro: mantener un alto nivel de servicio al cliente es la más alta prioridad.

Esa es una decisión de alto nivel, macro. Una alternativa sería: “la más alta prioridad de nuestra empresa es reducir los costos, aunque eso signifique atender mal a algunos clientes”. Supongo que usted ya tiene la experiencia suficiente para saber que esta decisión tiene mayores costos en el mediano y largo plazo, por lo que me quedaré con la primera decisión macro: cumplir la promesa a los clientes es la primera prioridad.

Ahora miremos las posibles promesas que hacen un gran proporción de empresas. Son básicamente dos posibles promesas:

  1. Prometen entrega inmediata.
  2. Prometen un plazo de entrega.

La promesa 1 la hacen empresas que producen productos estandarizados, donde los clientes no tienen tolerancia para esperar el tiempo de suministro (producción y/o transporte) porque hay otros proveedores que tienen entrega inmediata. Y para cumplir con esa promesa de entrega inmediata es necesario mantener inventario.

Cada vez que un cliente hace un pedido y usted no tiene inventario, esto es una venta perdida. A eso le decimos stock out o quiebre de inventario o faltante. Suponga que usted mantiene un portafolio de 150 ítems, y 35 de ellos están en quiebre de stock. Eso da 23% de stock outs. ¿Qué cantidad de ventas perdidas va a tener debido a esto? Para responder a esa pregunta, que es la relevante, debemos entender que no todos los ítems se venden en el mismo volumen. Pareto describió este fenómeno como una asimetría 80/20; el 80% de las ventas se hacen con el 20% de los ítems. Sabemos que 80/20 es solo una indicación de la asimetría. A veces es 70/30 y otras veces es 90/10.

Lo importante es que si dentro de nuestro 23% hay varios ítems de alta rotación, las ventas perdidas son más que 23%, a veces mucho más. Conocí un caso hace años, donde una empresa con unos 250 SKU (ítems) tenía un 5% de quiebres. Cada semana eran ítems distintos, pero los quiebres se mantenían en 5%. Ellos decidieron algo realmente atrevido: decidieron eliminar los quiebres teniendo exceso de inventario. Y lo lograron. Después de ocho meses de mantener esa acción, las ventas se incrementaron 40%. Este es un experimento que no recomiendo, pero que demuestra lo que estoy diciendo. Habitualmente el error fue subestimar la venta de los ítems que se agotan, por lo que su rotación es mayor que la estimada originalmente.

La historia de esa empresa no termina bien. El primer año incrementaron las ventas 40%, pero el exceso de inventario les provocó problemas desde el segundo año:

  • Agotó espacio de almacenamiento y empezó a ser muy caro seguir creciendo en inventario, sobre todo si se requiere pagar por espacio adicional. Fíjese que el problema es que los ítems que se produjeron y no se venden, se acumulan. Y uno sigue produciendo más rápido de lo que desocupa espacio.
  • El dinero para seguir creciendo en inventario también es limitado, y después tampoco pudieron mantener los quiebres en cero.
  • Muchos de los productos en exceso eran perecibles y debieron afrontar una gran pérdida por mermas.

En este caso vemos que la decisión macro es la misma que yo habría tomado: máxima prioridad para cumplir la promesa de entrega inmediata.

Y cada día, ¿qué decisiones micro tomó esa empresa para alinearse con la decisión macro? En este caso fue fabricar en exceso, lo que importa es no perder ventas. Es con esta decisión que yo no estoy de acuerdo.

Los resultados observados en quiebres y en inventario son producto de las decisiones micro, de esas decisiones de cada día. Concretamente, para cada ítem hay que decidir cada día si se produce o no, y en qué cantidad. Lo mismo es aplicable para decidir si se despacha a otros nodos de la cadena de suministro.

Es un lugar común decir que no importa que tan buena sea una estrategia si falla en la ejecución. Es decir, las decisiones macro son normalmente muy buenas. Son las decisiones micro las que conducen a un resultado distinto al esperado. Muchas personas piensan que no es posible lograr un fill rate de más de 94% permanentemente, porque el costo lo hace inviable, y se conforman con un nivel “aceptable” de quiebres.

Aprendí del Dr. Goldratt directamente a no conformarme con un resultado de transigencia. Y en este tema, la solución de Teoría de Restricciones ha logrado reducir inventarios y costos al mismo tiempo que la disponibilidad se acerca al 100% en miles de empresas, de todos los tamaños y de las más diversas industrias, a lo largo de décadas.

¿Por qué las micro decisiones de la mayoría de las empresas producen esos resultados subóptimos? Es porque se basan en supuestos equivocados. Todo proviene de que el tiempo entre las reposiciones (órdenes de producción, o de compra, o de despacho) es variable y es más largo del necesario. Ese tiempo es el factor principal en la cantidad de inventario necesario para tener disponibilidad, resultando en una cantidad más grande de la que se pueden permitir las empresas, por sus limitaciones de espacio y/o de capital.

¿Por qué el tiempo entre reposiciones es largo y variable? Porque resulta de calcular EOQ (economic order quantity – cantidad económica de orden) y de usar técnicas de MIN/MAX o punto de reorden. Ambos conceptos considerados la base de la administración óptima de inventarios. Y se basan en el supuesto equivocado de que los costos de operación se absorben uniformemente en cada unidad de producto al producirla, comprarla o transportarla.

Si uno fija la frecuencia y ese tiempo lo hace pequeño, la cantidad de inventario para garantizar disponibilidad es menor, al punto de que ni espacio ni capital son restricciones activas, por lo tanto se logra el doble objetivo de reducir el inventario y de elevar el fill rate hasta cerca de 100%.

La próxima vez que le digan que es imposible lograr un fill rate de más de 94-96%, piense de nuevo y más profundamente acerca de las relaciones causales en su sistema.

La promesa 2 la examino en el siguiente artículo.

es_ES