Cómo interpretar y manipular los resultados del pronóstico con diferentes métodos de pronóstico

Smart IP&O funciona con el motor de pronóstico SmartForecasts® que selecciona automáticamente el método más apropiado para cada artículo. Los métodos de Smart Forecast se enumeran a continuación:

  • Promedio móvil simple y suavizado exponencial único para datos planos y ruidosos
  • Promedio móvil lineal y suavizado exponencial doble para datos de tendencias
  • Winters Aditivo y Winters Multiplicativo para datos estacionales y estacionales y de tendencias.

Este blog explica cómo funciona cada modelo utilizando diagramas de tiempo de datos históricos y de pronóstico. Describe cómo elegir qué modelo usar. Los ejemplos a continuación muestran el mismo historial, en rojo, pronosticado con cada método, en verde oscuro, en comparación con el método ganador elegido por Smart, en verde claro.

 

Estacionalidad
Si desea forzar (o evitar) que se muestre la estacionalidad en el pronóstico, elija los modelos Winters. Ambos métodos requieren 2 años completos de historial.

Multiplicativo de Winters determinará el tamaño de los picos o valles de los efectos estacionales en función de una diferencia porcentual de un volumen promedio de tendencia. No es una buena opción para artículos de muy bajo volumen debido a la división por cero al determinar ese porcentaje. Observe en la imagen a continuación que se proyecta que la gran caída porcentual en la demanda estacional en el historial continúe durante el horizonte de pronóstico, lo que hace que parezca que no hay demanda estacional a pesar de usar un método estacional.

 

Software de método de pronóstico multiplicativo de Winter

Pronóstico estadístico elaborado con el método multiplicativo de Winter. 

 

Aditivo de Winters determinará el tamaño de los picos o valles de los efectos estacionales con base en una unidad de diferencia del volumen promedio. No es un buen ajuste si hay una tendencia significativa en los datos. Tenga en cuenta en la imagen de abajo que sla estacionalidad ahora se pronostica con base en el cambio unitario promedio en la estacionalidad. Por lo tanto, el pronóstico aún refleja claramente el patrón estacional a pesar de la tendencia a la baja tanto en el nivel como en los picos/valles estacionales.

Software de método de pronóstico aditivo de Winter

Pronóstico estadístico producido con el método aditivo de Winter.

 

Tendencia

Si desea forzar (o evitar) que la tendencia hacia arriba o hacia abajo se muestre en el pronóstico, restrinja los métodos elegidos a (o elimine los métodos de) Promedio móvil lineal y Suavizado exponencial doble.

 Suavizado exponencial doble retomará una tendencia a largo plazo. No es una buena opción si hay pocos puntos de datos históricos.

Suavizado exponencial doble Software de método de pronóstico

Pronóstico estadístico producido con Doble Suavización Exponencial

 

Media móvil lineal recogerá las tendencias a corto plazo. No es una buena opción para datos altamente volátiles.

Software de método de pronóstico de promedio móvil lineal

 

Datos no de tendencia y no estacionales
Si desea forzar (o evitar) que se muestre un promedio en el pronóstico, restrinja los métodos elegidos a (o elimine los métodos de) Promedio móvil simple y Suavizado exponencial único.

Suavizado exponencial simple sopesará más los datos más recientes y producirá un pronóstico de línea plana. No es una buena opción para datos de tendencias o estacionales.

Software de método de pronóstico de suavizado exponencial simple

Pronóstico estadístico utilizando Suavización Exponencial Simple

media móvil simple encontrará un promedio para cada período, a veces pareciendo moverse, y mejor para el promedio a más largo plazo. No es una buena opción para datos de tendencias o estacionales.

Software de método de pronóstico de promedio móvil simple

Pronóstico estadístico utilizando la media móvil simple

 

 

 

Qué hacer cuando un pronóstico estadístico no tiene sentido

A veces, un pronóstico estadístico simplemente no tiene sentido. Todos los pronosticadores han estado allí. Pueden volver a verificar que los datos se ingresaron correctamente o revisar la configuración del modelo, pero todavía se quedan pensando por qué el pronóstico se ve muy diferente al historial de demanda. Cuando el pronóstico ocasional no tiene sentido, puede erosionar la confianza en todo el proceso de pronóstico estadístico.

Este blog ayudará a un profano a comprender qué son los modelos estadísticos inteligentes y cómo se eligen automáticamente. Abordará cómo esa elección a veces falla, cómo puede saber si lo hizo y qué puede hacer para garantizar que los pronósticos siempre puedan justificarse. Es importante saber esperar y cómo detectar las excepciones para que pueda confiar en su sistema de pronóstico.

 

Cómo se eligen los métodos automáticamente

El criterio para elegir automáticamente un método estadístico de un conjunto se basa en qué método estuvo más cerca de predecir correctamente el historial retenido. El historial anterior se pasa a cada método y el resultado se compara con los datos reales para encontrar el que más se acercó en general. Ese método elegido automáticamente se alimenta de todo el historial para producir el pronóstico. Consulte este blog para obtener más información sobre la selección de modelos. https://smartcorp.com/uncategorized/statistical-forecasting-how-automatic-method-selection-works/

Para la mayoría de las series temporales, este proceso puede capturar tendencias, estacionalidad y volumen promedio con precisión. Pero a veces, un método elegido se acerca matemáticamente a la predicción del historial retenido, pero no lo proyecta hacia adelante de una manera que tenga sentido. Eso significa que el método seleccionado por el sistema no es el mejor y, para algunos, es "difícil de pronosticar".

 

Artículos difíciles de pronosticar

Los artículos difíciles de pronosticar pueden tener picos grandes e impredecibles en la demanda, o por lo general no hay demanda pero hay irregularidades aleatorias o actividad reciente inusual. El ruido en los datos a veces se desplaza aleatoriamente hacia arriba o hacia abajo, y el método automatizado de mejor selección podría pronosticar una tendencia desbocada o una reducción a cero. Lo hará peor que el sentido común y en un pequeño porcentaje de cualquier grupo razonablemente variado de elementos. Por lo tanto, deberá identificar estos casos y responder anulando el pronóstico o cambiando las entradas del pronóstico.

 

Cómo encontrar las excepciones

La mejor práctica es filtrar u ordenar los elementos pronosticados para identificar aquellos en los que la suma del pronóstico durante el próximo año es significativamente diferente al historial correspondiente del año pasado. La suma del pronóstico puede ser mucho más baja que el historial o viceversa. Utilice las métricas proporcionadas para identificar estos elementos; luego puede optar por aplicar anulaciones al pronóstico o modificar la configuración del pronóstico.

 

Cómo arreglar las excepciones

A menudo, cuando el pronóstico parece extraño, un método de promediación, como el suavizado exponencial único o incluso un promedio simple con estilo libre, producirá un pronóstico más razonable. Si la tendencia es posiblemente válida, puede eliminar solo los métodos estacionales para evitar un resultado falsamente estacional. O haga lo contrario y use solo métodos estacionales si se espera estacionalidad pero no se proyectó en el pronóstico predeterminado. Puede usar las funciones hipotéticas para crear cualquier cantidad de pronósticos, evaluar y comparar, y continuar ajustando la configuración hasta que se sienta cómodo con el pronóstico.

Limpiar el historial, con o sin cambiar la selección automática del método, también es efectivo para producir pronósticos razonables. Puede incrustar parámetros de previsión para reducir la cantidad de historial utilizado para pronosticar esos elementos o la cantidad de períodos pasados en el algoritmo, de modo que ya no se tenga en cuenta el historial anterior y desactualizado. Puede editar picos o caídas en el historial de demanda que son anomalías conocidas para que no influyan en el resultado. También puede trabajar con el equipo de Smart para implementar la detección y eliminación automática de valores atípicos para que los datos antes de ser pronosticados ya estén limpios de estas anomalías.

Si la demanda es realmente intermitente, será casi imposible pronosticar "con precisión" por período. Si un promedio de nivel de carga no es aceptable, el manejo del artículo mediante el establecimiento de una política de inventario con un pronóstico de tiempo de entrega puede ser efectivo. Alternativamente, puede optar por utilizar modelos "igual que el año pasado" que, si bien no son propensos a la precisión, serán generalmente aceptados por la empresa dadas las previsiones alternativas.

Finalmente, si el elemento se introdujo tan recientemente que los algoritmos no tienen suficiente entrada para pronosticar con precisión, lo mejor puede ser un promedio simple o un pronóstico manual. Puede identificar elementos nuevos filtrando por el número de períodos históricos.

 

Selección manual de métodos.

Una vez que haya identificado las filas en las que el pronóstico no tiene sentido para el ojo humano, puede elegir un subconjunto más pequeño de todos los métodos para permitir la ejecución del pronóstico y compararlo con el historial. Smart le permitirá usar un conjunto restringido de métodos solo para una ejecución de pronóstico o incrustar el conjunto restringido para usarlo en todas las ejecuciones de pronóstico en el futuro. Diferentes métodos proyectarán la historia hacia el futuro de diferentes maneras. Tener una idea de cómo funciona cada uno lo ayudará a elegir cuál permitir.

 

Confíe en su herramienta de previsión

Cuanto más utilice Smart period over period para incorporar sus decisiones sobre cómo pronosticar y qué datos históricos considerar, menos a menudo se enfrentará a las excepciones que se describen en este blog. Ingresar parámetros de pronóstico es una tarea manejable cuando se comienza con artículos críticos o de alto impacto. Incluso si no integra ninguna decisión manual en los métodos de pronóstico, el pronóstico se vuelve a ejecutar cada período con nuevos datos. Por lo tanto, un artículo con un resultado extraño hoy puede volverse fácilmente predecible en el tiempo.

 

 

El papel de la confianza en el proceso de pronóstico de la demanda Parte 2: ¿En qué confías?

“Independientemente de cuánto esfuerzo se invierta en capacitar a los pronosticadores y desarrollar sistemas elaborados de apoyo a los pronósticos, los tomadores de decisiones modificarán o descartarán las predicciones si no confían en ellas”. — Dilek Onkal, International Journal of Forecasting 38:3 (julio-septiembre de 2022), p.802.

Las palabras citadas arriba me llamaron la atención y provocaron esta publicación. Aquellos con una persuasión geek, como su blogger, se inclinan a pensar en los pronósticos como un problema estadístico. Si bien eso es obviamente cierto, aquellos de cierta edad, como tu blogger, entienden que la previsión también es una actividad social y, por lo tanto, tiene un gran componente humano.

¿En qué confías?

Hay una dimensión relacionada con la confianza: no en quién confías sino en qué confías. Con esto me refiero tanto a los datos como al software.

Confianza en los datos

La confianza en los datos sustenta la confianza en el pronosticador que utiliza los datos. La mayoría de nuestros clientes tienen sus datos en un sistema ERP. Estos datos deben entenderse como un activo corporativo clave. Para que los datos sean confiables, deben tener las “tres C”, es decir, deben ser correctos, completos y actuales.

La corrección es obviamente fundamental. Una vez tuvimos un cliente que estaba implementando un proceso de pronóstico nuevo y sólido, pero encontró que los resultados estaban completamente en desacuerdo con su sentido de lo que estaba sucediendo en el negocio. Resultó que varios de sus flujos de datos eran incorrectos por un factor de dos, lo cual es un gran error. Por supuesto, esto retrasó el proceso de implementación hasta que pudieron identificar y corregir todos los errores graves en sus datos de demanda.

Hay un punto menos obvio que hacer sobre la corrección. Es decir, los datos son aleatorios, por lo que lo que ve ahora no es probable que sea lo que verá a continuación. Planificar la producción basándose en la suposición de que la demanda de la próxima semana será exactamente la misma que la demanda de esta semana es claramente una tontería, pero los modelos clásicos de pronóstico basados en fórmulas, como el suavizado exponencial mencionado anteriormente, proyectarán el mismo número a lo largo del horizonte de pronóstico. Aquí es donde planificación basada en escenarios es esencial para hacer frente a las inevitables fluctuaciones de variables clave como las demandas de los clientes y los plazos de reposición de los proveedores.

La integridad es el segundo requisito para que los datos sean confiables. En última instancia, nuestro software obtiene gran parte de su valor al exponer los vínculos entre las decisiones operativas (p. ej., seleccionar los puntos de pedido que rigen la reposición de existencias) y las métricas relacionadas con el negocio, como los costos de inventario. Sin embargo, a menudo la implementación del software de pronóstico se retrasa porque la información sobre la demanda de artículos está disponible en algún lugar, pero no así los costos de mantenimiento, pedido y/o escasez. O, para citar otro ejemplo reciente, un cliente pudo dimensionar adecuadamente solo la mitad de su inventario de repuestos para piezas reparables porque nadie había estado rastreando cuándo se averiaba la otra mitad, lo que significa que no había información sobre el tiempo medio antes de la falla (MTBF) , por lo que no fue posible modelar el comportamiento ante averías de la mitad de la flota de repuestos reparables.

Finalmente, la vigencia de los datos es importante. A medida que aumenta la velocidad de los negocios y los ciclos de planificación de la empresa pasan de un ritmo trimestral o mensual a un ritmo semanal o diario, se vuelve deseable explotar la agilidad que brindan las cargas nocturnas de datos transaccionales diarios en la nube. Esto permite ajustes de alta frecuencia de pronósticos y/o parámetros de control de inventario para artículos que experimentan alta volatilidad y cambios repentinos en la demanda. Cuanto más frescos sean los datos, más fiable será el análisis.

Confíe en el software de previsión de la demanda

Incluso con datos de alta calidad, los pronosticadores aún deben confiar en el software analítico que procesa los datos. Esta confianza debe extenderse tanto al propio software como al entorno informático en el que funciona.

Si los pronosticadores usaron software local, deben confiar en sus propios departamentos de TI para salvaguardar los datos y mantenerlos disponibles para su uso. Si, en cambio, desean explotar el poder de los análisis basados en la nube, los clientes deben confiar su información confidencial a sus proveedores de software. El software de nivel profesional, como el nuestro, justifica la confianza de los clientes a través de la certificación SOC 2. La certificación SOC 2 fue desarrollada por el Instituto Americano de CPA y define los criterios para administrar los datos de los clientes en función de cinco "principios de servicio de confianza": seguridad, disponibilidad, integridad de procesamiento, confidencialidad y privacidad.

¿Qué pasa con el software en sí? ¿Qué se necesita para que sea confiable? Los criterios principales aquí son la corrección de los algoritmos y la fiabilidad funcional. Si el proveedor tiene un proceso de desarrollo de programas profesional, habrá pocas posibilidades de que el software termine calculando los números incorrectos debido a un error de programación. Y si el proveedor tiene un riguroso proceso de aseguramiento de la calidad, habrá pocas posibilidades de que el software se bloquee justo cuando el pronosticador tiene una fecha límite o debe lidiar con un análisis emergente para una situación especial.

Resumen

Para ser útiles, los responsables de la toma de decisiones deben confiar en los pronosticadores y sus pronósticos. Esa confianza depende de las características de los pronosticadores y sus procesos y comunicación. También depende de la calidad de los datos y el software utilizado para crear los pronósticos.

 

Lee la 1ra parte de este Blog “En quién confías” aquí: https://smartcorp.com/forecasting/the-role-of-trust-in-the-demand-forecasting-process-part-1-who/

 

 

 

El papel de la confianza en el proceso de previsión de la demanda Parte 1: En quién confiar

 

“Independientemente de cuánto esfuerzo se invierta en capacitar a los pronosticadores y desarrollar sistemas elaborados de apoyo a los pronósticos, los tomadores de decisiones modificarán o descartarán las predicciones si no confían en ellas”. — Dilek Onkal, International Journal of Forecasting 38:3 (julio-septiembre de 2022), p.802.

Las palabras citadas arriba me llamaron la atención y provocaron esta publicación. Aquellos con una persuasión geek, como su blogger, se inclinan a pensar en los pronósticos como un problema estadístico. Si bien eso es obviamente cierto, aquellos de cierta edad, como tu blogger, entienden que la previsión también es una actividad social y, por lo tanto, tiene un gran componente humano.

¿En quién confías?

La confianza es siempre una calle de doble sentido, pero permanezcamos del lado del pronosticador de la demanda. ¿Qué características y acciones de los pronosticadores y planificadores de la demanda generan confianza en su trabajo? La profesora Onkal citada anteriormente revisó la investigación académica sobre este tema que se remonta a 2006. Resumió los resultados de encuestas a profesionales que identificaron factores clave de confianza relacionados con las características del pronosticador, el proceso de pronóstico y la comunicación del pronóstico.

Características del pronosticador

La clave para generar confianza entre los usuarios de los pronósticos son las percepciones de la competencia y objetividad del pronosticador y del planificador de la demanda. La competencia tiene un componente matemático, pero muchos gerentes confunden las habilidades informáticas con las habilidades analíticas, por lo que los usuarios de software de pronóstico generalmente pueden superar este obstáculo. Sin embargo, dado que los dos no son lo mismo, vale la pena absorber la capacitación de su proveedor y aprender no solo las matemáticas sino también la jerga de su software de pronóstico. En mi observación, la confianza también puede incrementarse mostrando conocimiento del negocio de la empresa.

La objetividad es también una clave para la confiabilidad. Puede ser incómodo para el pronosticador estar en medio de disputas departamentales ocasionales, pero surgirán y deben manejarse con tacto. ¿Peleas? Bueno, los silos existen y se inclinan en diferentes direcciones. Los departamentos de ventas favorecen las previsiones de demanda más altas que impulsan los aumentos de producción, de modo que nunca tengan que decir "Lo siento, acabamos de salir de eso". Los gerentes de inventario desconfían de los pronósticos de alta demanda, porque el "exceso de entusiasmo" puede dejarlos con la bolsa en la mano, sentados sobre un inventario inflado.

A veces el pronosticador se convierte en un de facto árbitro, y en este papel debe mostrar signos evidentes de objetividad. Eso puede significar primero reconocer que cada decisión de gestión implica compensaciones de cosas buenas contra otras cosas buenas, por ejemplo, disponibilidad del producto versus operaciones ajustadas, y luego ayudar a las partes a lograr un equilibrio doloroso pero tolerable al mostrar los vínculos entre las decisiones operativas y las métricas clave de rendimiento. que le importan a personas como los directores financieros.

El proceso de previsión

Se puede pensar que el proceso de pronóstico tiene tres fases: entradas de datos, cálculos y salidas. Se pueden tomar acciones para aumentar la confianza en cada fase.

 

En cuanto a las entradas:

La confianza se puede aumentar si las entradas obviamente relevantes se reconocen al menos si no se usan directamente en los cálculos. Por lo tanto, factores como el sentimiento de las redes sociales y los instintos de los gerentes de ventas regionales pueden ser partes legítimas de un proceso de consenso de pronóstico. Sin embargo, la objetividad requiere que estos predictores putativos de ganancias sean probados objetivamente. Por ejemplo, un proceso de pronóstico de nivel profesional bien puede incluir un ajuste subjetivo a los pronósticos estadísticos, pero luego también debe evaluar si los ajustes realmente terminan mejorando la precisión, no solo haciendo que algunas personas se sientan escuchadas.

En cuanto a la segunda fase, los cálculos:

Se confiará en el pronosticador en la medida en que pueda implementar más de una forma de calcular los pronósticos y luego articular una buena razón por la que eligió el método finalmente utilizado. Además, el pronosticador debe ser capaz de explicar en un lenguaje accesible cómo funcionan incluso las técnicas más complicadas. Es difícil confiar en un método de “caja negra” tan opaco que resulta inescrutable. La importancia de la explicabilidad se amplifica por el hecho de que el superior del pronosticador debe ser capaz de justificar la elección de la técnica para su supervisor.

Por ejemplo, el suavizado exponencial usa esta ecuación: S(t) = αX(t)+(1-α)S(t-1). Muchos pronosticadores están familiarizados con esta ecuación, pero muchos usuarios de pronósticos no. Hay una historia que explica la ecuación en términos de promediar el "ruido" irrelevante en el historial de demanda de un artículo y la necesidad de lograr un equilibrio entre suavizar el ruido y ser capaz de reaccionar ante cambios repentinos en el nivel de demanda. El pronosticador que pueda contar esa historia será más creíble. (Mi propia versión de esa historia usa frases de los deportes, es decir, "falsificaciones de cabeza" y "jukes". Encontrar análogos campechanos apropiados para su audiencia específica siempre paga dividendos).

Un punto final: las mejores prácticas exigen que cualquier pronóstico vaya acompañado de una evaluación honesta de su incertidumbre. Un pronosticador que trata de generar confianza siendo demasiado específico ("Las ventas del próximo trimestre serán de 12,184 unidades") siempre fallará. Un pronosticador que dice "Las ventas del próximo trimestre tendrán una probabilidad de 90% de caer entre 12,000 y 12,300 unidades" será correcto con más frecuencia y también más útil para los tomadores de decisiones. Después de todo, la previsión es esencialmente un trabajo de gestión de riesgos, por lo que la mejor forma de tomar decisiones es conocer los riesgos.

Comunicación de previsión:

Finalmente, considere la tercera fase, la comunicación de los resultados del pronóstico. La investigación sugiere que la comunicación continua con los usuarios del pronóstico genera confianza. Evita esos horribles y desalentadores momentos en los que un informe con un buen formato es derribado debido a algún defecto fatal que podría haberse previsto: "Esto no es bueno porque no tuvo en cuenta X, Y o Z" o "Realmente queríamos presentar los resultados acumulados en la parte superior de las jerarquías de productos (o por región de ventas o por línea de productos o…)”.

Incluso cuando todos están alineados en cuanto a lo que se espera, la confianza aumenta al presentar los resultados mediante gráficos bien elaborados, con tablas numéricas masivas proporcionadas como respaldo, pero no como la forma principal de comunicar los resultados. Mi experiencia ha sido que, al igual que un dispositivo de control de reuniones, un gráfico suele ser mucho mejor que una gran tabla numérica. Con un gráfico, la atención de todos se centra en lo mismo y muchos aspectos del análisis son inmediatamente (y literalmente) visibles. Con una tabla de resultados, la mesa de participantes a menudo se divide en conversaciones paralelas en las que cada voz se enfoca en diferentes piezas de la mesa.

Onkal resume la investigación de esta manera: "Las conclusiones para quienes hacen pronósticos y quienes los utilizan convergen en torno a la claridad de la comunicación, así como a las percepciones de competencia e integridad".

¿En qué confías?

Hay una dimensión relacionada con la confianza: no en quién confías sino en qué confías. Con esto me refiero tanto a los datos como al software….  Lee la 2da parte de este Blog “En qué Confías” aquí  https://smartcorp.com/forecasting/the-role-of-trust-in-the-demand-forecasting-process-part-2-what/

 

 

 

 

Implementación de software de planificación de demanda y optimización de inventario con los datos correctos

La verificación y validación de datos son esenciales para el éxito de la implementación de software que realiza análisis estadísticos de datos, como Smart IP&O. Este artículo describe el problema y sirve como una guía práctica para hacer el trabajo correctamente, especialmente para el usuario de la nueva aplicación.

Cuanta menos experiencia tenga su organización en la validación de transacciones históricas o atributos maestros de artículos, más probable es que haya problemas o errores con la entrada de datos en el ERP que hasta ahora han pasado desapercibidos. La regla de basura que entra, basura que sale significa que debe priorizar este paso del proceso de incorporación del software o correr el riesgo de demoras y posibles fallas en la generación de retorno de la inversión.

En última instancia, la mejor persona para confirmar que los datos en su ERP se ingresan correctamente es la persona que conoce el negocio y puede afirmar, por ejemplo, "esta parte no pertenece a ese grupo de productos". Esa suele ser la misma persona que abrirá y usará Smart. Aunque un administrador de base de datos o soporte de TI también puede desempeñar un papel clave al poder decir: "Esta parte fue asignada a ese grupo de productos en diciembre pasado por Jane Smith". Asegurarse de que los datos sean correctos puede no ser una parte habitual de su trabajo diario, pero se puede dividir en pequeñas tareas manejables para las que un buen director de proyectos asignará el tiempo y los recursos para completar.

El proveedor del software de planificación de la demanda que recibe los datos también tiene una función. Confirmarán que los datos sin procesar se ingirieron sin problemas. El proveedor también puede identificar anomalías en los archivos de datos sin procesar que apuntan a la necesidad de validación. Pero confiar en el proveedor de software para asegurarle que los datos se ven bien no es suficiente. No desea descubrir, después de la puesta en marcha, que no puede confiar en la salida porque algunos de los datos "no tienen sentido".

Cada paso en el flujo de datos necesita verificación y validación.  La verificación significa que los datos en un paso siguen siendo los mismos después de pasar al siguiente paso. La validación significa que los datos son correctos y utilizables para el análisis

El flujo de datos más común se ve así:

Implementación de software de optimización de inventario y planificación de la demanda con el conjunto de datos adecuado

Con menos frecuencia, el primer paso entre los datos maestros de ERP y los archivos de interfaz a veces se puede omitir, donde los archivos no se utilizan como interfaz. En cambio, una API creada por TI o el proveedor de software de optimización de inventario es responsable de que los datos se escriban directamente desde el ERP a la base de datos reflejada en la nube. El proveedor trabajaría con TI para confirmar que la API funciona como se esperaba. Pero el primer paso de validación, incluso en ese caso, todavía se puede realizar. Después de ingerir los datos, el proveedor puede hacer que los datos reflejados estén disponibles en archivos para la verificación de DBA/TI y la validación comercial.

La confirmación de que los datos duplicados en la nube completan el flujo hacia la aplicación es responsabilidad del proveedor del software como servicio. Los proveedores de SaaS prueban continuamente que el software funcione correctamente entre la aplicación de front-end que ven sus suscriptores y los datos de back-end en la base de datos en la nube. Si los suscriptores todavía piensan que los datos no tienen sentido en la aplicación incluso después de validar los archivos de interfaz antes de ponerlos en marcha, ese es un problema que se debe plantear con el servicio de atención al cliente del proveedor.

Independientemente de cómo se obtengan los archivos de interfaz, la mayor parte de la verificación y validación recae en el director del proyecto y su equipo. Deben realizar una prueba de los archivos de interfaz para confirmar:

  1. Coinciden con los datos del ERP. Y que se extrajeron todos y solo los datos del ERP que era necesario extraer para su uso en la aplicación.
  2. Nada “salta” a la empresa como incorrecto para cada uno de los tipos de información en los datos
  3. Están formateados como se esperaba.

 

Tareas de verificación de DBA/TI

  1. Probar el extracto:

El paso de verificación de TI se puede realizar con varias herramientas, comparando archivos o importando archivos a la base de datos como tablas temporales y uniéndolos con los datos originales para confirmar una coincidencia. TI puede depender de una consulta para extraer los datos solicitados en un archivo, pero ese archivo puede no coincidir. La existencia de delimitadores o retornos de línea dentro de los valores de datos puede hacer que un archivo sea diferente de su tabla de base de datos original. Esto se debe a que el archivo se basa en gran medida en delimitadores y retornos de línea para identificar campos y registros, mientras que la tabla no se basa en esos caracteres para definir su estructura.

  1. Sin malos personajes:

Los campos de entrada de datos de forma libre en el ERP, como las descripciones de productos, a veces pueden contener retornos de línea, tabuladores, comas y/o comillas dobles que pueden afectar la estructura del archivo de salida. No se deben permitir retornos de línea en valores que se extraerán a un archivo. Los caracteres iguales al delimitador se deben eliminar durante la extracción o, de lo contrario, se debe usar un delimitador diferente.

Consejo: si las comas son el delimitador de archivo, los números superiores a 999 no se pueden extraer con una coma. Use "1000" en lugar de "1,000".

  1. Confirmar los filtros:

La otra forma en que los extractos de consulta pueden arrojar resultados inesperados es si las condiciones de la consulta se ingresan incorrectamente. La forma más sencilla de evitar las cláusulas "where" erróneas es no usarlas. Extraiga todos los datos y permita que el proveedor filtre algunos registros de acuerdo con las reglas proporcionadas por la empresa. Si esto produce archivos de extracción tan grandes que se dedica demasiado tiempo informático al intercambio de datos, el equipo de DBA/TI debe reunirse con la empresa para confirmar exactamente qué filtros en los datos se pueden aplicar para evitar el intercambio de registros que no tienen sentido para el solicitud.

Consejo: Tenga en cuenta que la información de activo/inactivo o del ciclo de vida del elemento no debe utilizarse para filtrar registros. Esta información debe enviarse a la aplicación para que sepa cuándo un elemento se vuelve inactivo.

  1. Se consistente:

El proceso de extracción debe producir archivos de formato consistente cada vez que se ejecuta. Los nombres de archivo, los nombres de campo y la posición, el delimitador y el nombre de la hoja de Excel si se usa Excel, los formatos numéricos y los formatos de fecha, y el uso de comillas alrededor de los valores nunca deben diferir de una ejecución del extracto de un día a otro. Se debe preparar y utilizar un informe de no intervención o un procedimiento almacenado para cada ejecución del extracto.

 

Fondo de validación comercial

A continuación se desglosa cada paso de validación en consideraciones, específicamente en el caso en que el proveedor haya proporcionado un formato de plantilla para los archivos de interfaz donde cada tipo de información se proporciona en su propio archivo. Los archivos enviados desde su ERP a Smart están formateados para exportarlos fácilmente desde el ERP. Ese tipo de formato hace que la comparación con el ERP sea un trabajo relativamente simple para TI, pero puede ser más difícil de interpretar para el negocio. La mejor práctica es manipular los datos del ERP, ya sea mediante el uso de tablas dinámicas o similar en una hoja de cálculo. TI puede ayudar proporcionando archivos de datos reformateados para que la empresa los revise.

Para profundizar en los archivos de interfaz, deberá comprenderlos. El proveedor proporcionará una plantilla precisa, pero generalmente los archivos de interfaz consisten en tres tipos: datos de catálogo, atributos de artículos y datos transaccionales.

  • Los datos del catálogo contienen identificadores y sus atributos. Los identificadores suelen ser para productos, ubicaciones (que podrían ser plantas o almacenes), sus clientes y sus proveedores.
  • Los atributos de artículo contienen información sobre productos en ubicaciones que se necesitan para el análisis de la combinación de producto y ubicación. Tal como:
    • Política de reabastecimiento actual en forma de mínimo y máximo, punto de reorden o período de revisión y orden hasta el valor o stock de seguridad
    • Asignación de proveedor principal y tiempo de entrega nominal y costo por unidad de ese proveedor
    • Requisitos de cantidad de pedido, como cantidad mínima de pedido, tamaño de lote de fabricación o múltiplos de pedido
    • Estado activo/inactivo de la combinación de producto/ubicación o indicadores que identifican su estado en su ciclo de vida, como pre-obsoleto
    • Atributos para agrupar o filtrar, como comprador/planificador asignado o categoría de producto
    • Información de inventario actual, como cantidades disponibles, en pedido y en tránsito.
  • Los datos transaccionales contienen referencias a identificadores junto con fechas y cantidades. Como la cantidad vendida en una orden de venta de un producto, en una ubicación, para un cliente, en una fecha. O la cantidad colocada en la orden de compra de un producto, en una ubicación, de un proveedor, en una fecha. O la cantidad utilizada en una orden de trabajo de un producto componente en una ubicación en una fecha.

 

Validación de datos del catálogo

Teniendo en cuenta primero los datos del catálogo, es posible que tenga archivos de catálogo similares a estos ejemplos:

Implementación del software de optimización de inventario y planificación de la demanda 111

Identificador de ubicación Descripción Región Ubicación de origen  etc…
Ubicación1 Primera ubicación Norte    
Ubicación2 Segunda ubicación Sur Ubicación1  
Ubicación3 Tercera ubicación Sur Ubicación1  
…etc…        

 

Identificador de cliente Descripción Vendedor Enviar desde la ubicación  etc…
Cliente1 primer cliente jane Ubicación1  
Cliente2 segundo cliente jane Ubicación3  
Cliente3 tercer cliente José Ubicación2  
…etc…        

 

Identificador de proveedor Descripción Estado Días típicos de tiempo de entrega  etc…
Proveedor1 primer proveedor Activo 18  
Proveedor2 Segundo proveedor Activo 60  
Proveedor3 Tercer Proveedor Activo 5  
…etc…        

 

1: Comprobar un recuento razonable de registros de catálogo

Para cada archivo de datos del catálogo, ábralo en una herramienta de hoja de cálculo como Hojas de cálculo de Google o MS Excel. Responde estas preguntas:

  1. ¿Está el récord en el estadio de béisbol? Si tiene alrededor de 50 000 productos, no debería haber solo 10 000 filas en su archivo.
  2. Si es un archivo corto, tal vez el archivo de ubicación, puede confirmar exactamente que todos los Iidentificadores esperados están en él.
  3. Filtre por cada valor de atributo y confirme nuevamente que el recuento de registros con ese valor de atributo tenga sentido.

2: Comprobar la exactitud de los valores en cada campo de atributo

Alguien que sepa cuáles son los productos y qué significan los grupos necesita tomarse el tiempo para confirmar que realmente es correcto, para todos los atributos de todos los datos del catálogo.

Por lo tanto, si su archivo de producto contiene los atributos como en el ejemplo anterior, filtraría por Estado de activo y verificaría que todos los productos resultantes estén realmente activos. Luego filtre por Estado de Inactivo y verifique que todos los productos resultantes estén realmente inactivos. Luego filtre por el primer valor de Grupo y confirme que todos los productos resultantes estén en ese grupo. Repita para Group2 y Group3, etc. Luego repita para cada atributo en cada archivo.

Puede ayudar hacer esta validación con una comparación con un informe ya existente y confiable. Si tiene otra hoja de cálculo que muestra productos por grupo por cualquier motivo, puede comparar los archivos de interfaz con ella. Es posible que deba familiarizarse con la función BUSCARV que ayuda con la comparación de hojas de cálculo.

Validación de datos de atributos de artículos

1: Comprobar un recuento razonable de registros de artículos

La confirmación de los datos de los atributos del artículo es similar a los datos del catálogo. Confirme que el conteo de combinación de producto/ubicación tenga sentido en total y para cada uno de los atributos únicos del artículo, uno por uno. Este es un archivo de datos de elementos de ejemplo:

Implementación del software de planificación de la demanda y optimización del inventario 22

2: Encuentra y explica números raros en el archivo del artículo

Suele haber muchos valores numéricos en los atributos del artículo, por lo que los números "raros" merecen una revisión. Para validar los datos de un atributo numérico en cualquier archivo, busque dónde está el número:

  • falta por completo
  • igual a cero
  • Menos que cero
  • Más que la mayoría de los demás, o menos que la mayoría de los demás (ordenar por esa columna)
  • No es un número en absoluto, cuando debería ser

Una consideración especial de los archivos que no son archivos de catálogo es que es posible que no muestren las descripciones de los productos y ubicaciones, solo sus identificadores, lo que puede no tener sentido para usted. Puede insertar columnas para contener los descriptores de productos y ubicaciones que está acostumbrado a ver y completarlos en la hoja de cálculo para ayudarlo en su trabajo. La función BUSCARV también funciona para esto. Ya sea que tenga o no otro informe para comparar el archivo de artículos, tiene los archivos de catálogo para productos y ubicación que muestran tanto el identificador como la descripción de cada fila.

3: Verificación al azar

Si le frustra descubrir que hay demasiados valores de atributo para verificar manualmente en un período de tiempo razonable, la verificación puntual es una solución. Se puede hacer de una manera que pueda detectar cualquier problema. Para cada atributo, obtenga una lista de los valores únicos en cada columna. Puede copiar una columna en una hoja nueva y luego usar la función Eliminar duplicados para ver la lista de valores posibles. Con eso:

  1. Confirme que no hay valores de atributos presentes que no deberían estar presentes.
  2. Puede ser más difícil recordar qué valores de atributo faltan que deberían estar allí, por lo que puede ser útil buscar otra fuente para recordarlo. Por ejemplo, si están presentes los grupos 1 a 12, puede consultar otra fuente para recordar si estos son todos los grupos posibles. Incluso si no se requiere para los archivos de interfaz para la aplicación, puede ser fácil para TI extraer una lista de todos los grupos posibles que están en su ERP que puede usar para el ejercicio de validación. Si encuentra valores adicionales o faltantes que no espera, lleve un ejemplo de cada uno a TI para investigar.
  3. Ordene alfabéticamente y explore hacia abajo para ver si dos valores son similares pero ligeramente diferentes, tal vez solo en la puntuación, lo que podría significar que un registro tenía los datos del atributo ingresados incorrectamente.

Para cada tipo de artículo, tal vez uno de cada grupo de productos y/o ubicación, verifique que todos sus atributos en cada archivo sean correctos o al menos pase una verificación de cordura. Cuanto más pueda verificar al azar de una amplia gama de elementos, es menos probable que tenga problemas después de la puesta en marcha.

 

Validación de datos transaccionales

Todos los archivos transaccionales pueden tener un formato similar a este:

Implementación del software de planificación de la demanda y optimización del inventario 333

 

1: Encuentra y explica números extraños en cada archivo transaccional

Estos deben verificarse en busca de números "raros" en el campo Cantidad. Luego puede proceder a:

  1. Filtre las fechas fuera del rango que espera o las que faltan por completo.
  2. Encuentre dónde faltan los identificadores de transacción y los números de línea. No deberían serlo.
  3. Si hay más de un registro para una determinada combinación de ID de transacción y número de línea de transacción, ¿es un error? Dicho de otra manera, ¿deberían sumarse las cantidades de los registros duplicados o se trata de una doble contabilización?

2: Cantidades sumadas de verificación de cordura

Realice una verificación de cordura filtrando a un producto en particular con el que esté familiarizado, y filtre a un rango de fechas relacionado, como el mes pasado o el año pasado, y sume las cantidades. ¿Es esa cantidad total lo que esperaba para ese producto en ese período de tiempo? Si tiene información sobre el uso total de una ubicación, puede dividir los datos de esa manera para sumar las cantidades y compararlas con lo que espera. Las tablas dinámicas son útiles para la verificación de datos transaccionales. Con ellos, puede ver los datos como:

Producto Año Cantidad Total
prod1 2022 9,034
prod1 2021 8,837
etc.    

 

El total anual de los productos puede ser fácil de verificar si conoce bien los productos. O puede BUSCARV para agregar atributos, como un grupo de productos, y pivotar sobre eso para ver un nivel superior que le resulte más familiar:

Grupo de productos Año Cantidad Total
Grupo 1 2022 22,091
Grupo 2 2021 17,494
etc.    

 

3: Conteo de verificación de cordura de los registros

Puede ser útil mostrar un recuento de transacciones en lugar de una suma de cantidades, especialmente para datos de órdenes de compra. Tal como:

Producto Año Número de órdenes de compra
prod1 2022 4
prod1 2021 1
etc.    

 

Y/o el mismo resumen en un nivel superior, como:

Grupo de productos Año Número de órdenes de compra
Grupo 1 2022 609
Grupo 2 2021 40
etc.    

 

4: Comprobación puntual

La verificación puntual de la corrección de una sola transacción, para cada tipo de artículo y cada tipo de transacción, completa la diligencia debida. Preste especial atención a qué fecha está vinculada a la transacción y si es adecuada para el análisis. Las fechas pueden ser una fecha de creación, como la fecha en que un cliente le hizo un pedido, o una fecha de promesa, como la fecha en que esperaba entregar el pedido del cliente en el momento de crearlo, o una fecha de cumplimiento, cuando realmente entregó en el orden. A veces, una fecha prometida se modifica días después de crear el pedido si no se puede cumplir. Asegúrese de que la fecha de uso refleje más fielmente la demanda real del producto por parte del cliente.

Qué hacer con los datos incorrectos 

Si las entradas erróneas son pocas o únicas, puede editar los registros de ERP a mano a medida que se encuentran, limpiando los atributos de su catálogo, incluso después de la puesta en marcha de la aplicación. Pero si grandes franjas de atributos o cantidades de transacciones están desactivadas, esto puede impulsar un proyecto interno para volver a ingresar los datos correctamente y posiblemente cambiar o comenzar a documentar el proceso que debe seguirse cuando se ingresan nuevos registros en su ERP.

Se debe tener cuidado para evitar un retraso demasiado prolongado en la implementación de la aplicación SaaS mientras se esperan atributos limpios. Divida el trabajo en partes y use la aplicación para analizar primero los datos limpios, de modo que el proyecto de limpieza de datos ocurra en paralelo con la obtención de valor de la nueva aplicación.