Hoe voorspellingsresultaten te interpreteren en te manipuleren met verschillende voorspellingsmethoden

Smart IP&O wordt mogelijk gemaakt door de SmartForecasts®-prognose-engine die automatisch de meest geschikte methode voor elk item selecteert. Smart Forecast-methoden worden hieronder vermeld:

  • Eenvoudig voortschrijdend gemiddelde en enkele exponentiële afvlakking voor platte, ruisige gegevens
  • Lineair voortschrijdend gemiddelde en dubbele exponentiële afvlakking voor trendgegevens
  • Winters Additief en Winters Multiplicatief voor seizoens- en seizoens- en trendgegevens.

Deze blog legt uit hoe elk model werkt met behulp van tijdgrafieken van historische en voorspelde gegevens. Het schetst hoe te kiezen welk model te gebruiken. De onderstaande voorbeelden tonen dezelfde geschiedenis, in rood, voorspeld met elke methode, in donkergroen, vergeleken met de Slim gekozen winnende methode, in lichtgroen.

 

Seizoensgebondenheid
Als u seizoensinvloeden wilt forceren (of voorkomen) in de prognose, kies dan voor Winters-modellen. Beide methoden vereisen 2 volle jaren geschiedenis.

'Winter is multiplicatief zal de grootte van de pieken of dalen van seizoenseffecten bepalen op basis van een procentueel verschil met een trending gemiddeld volume. Het past niet goed bij items met een zeer laag volume vanwege deling door nul bij het bepalen van dat percentage. Merk in de onderstaande afbeelding op dat de grote procentuele daling van de seizoensgebonden vraag in de geschiedenis naar verwachting zal voortduren gedurende de prognosehorizon, waardoor het lijkt alsof er geen seizoensgebonden vraag is, ondanks het gebruik van een seizoensmethode.

 

Winter's software voor multiplicatieve voorspellingsmethode

Statistische voorspelling gemaakt met de multiplicatieve methode van Winter. 

 

Toevoeging voor de winter zal de grootte van de pieken of dalen van seizoenseffecten bepalen op basis van een eenheidsverschil met het gemiddelde volume. Het past niet goed als er een significante trend in de gegevens is. Let op in de afbeelding hieronder dat seasonaliteit wordt nu voorspeld op basis van de gemiddelde eenheidsverandering in seizoensgebondenheid. De voorspelling geeft dus nog steeds duidelijk het seizoenspatroon weer ondanks de neerwaartse trend in zowel het niveau als de seizoenspieken/dalen.

Software voor additieve voorspellingsmethode van Winter

Statistische voorspelling gemaakt met de additieve methode van Winter.

 

Trend

Als u trend omhoog of omlaag wilt forceren (of voorkomen) om in de prognose te tonen, beperk dan de gekozen methoden tot (of verwijder de methoden van) Lineair voortschrijdend gemiddelde en Double Exponential Smoothing.

 Dubbele exponentiële afvlakking zal een langetermijntrend oppikken. Het past niet goed als er weinig historische datapunten zijn.

Double exponential smoothing Prognosemethode software

Statistische voorspelling geproduceerd met Double Exponential Smoothing

 

Lineair voortschrijdend gemiddelde zal trends op kortere termijn oppikken. Het is niet geschikt voor zeer volatiele gegevens

Lineair voortschrijdend gemiddelde Prognosemethode software

 

Niet-trending en niet-seizoensgebonden gegevens
Als u wilt forceren (of voorkomen) dat een gemiddelde wordt weergegeven in de prognose, beperk dan de gekozen methoden tot (of verwijder de methoden van) Eenvoudig voortschrijdend gemiddelde en Enkelvoudig exponentieel effenen.

Enkele exponentiële afvlakking zal de meest recente gegevens zwaarder wegen en een vlakke lijnprognose produceren. Het is niet geschikt voor trending- of seizoensgegevens.

Single exponential smoothing Prognosemethode software

Statistische voorspelling met Single Exponential Smoothing

Eenvoudig voortschrijdend gemiddelde zal voor elke periode een gemiddelde vinden, dat soms lijkt te wiebelen, en beter voor middelingen op langere termijn. Het is niet geschikt voor trending- of seizoensgegevens.

Eenvoudige software voor voortschrijdend gemiddelde Voorspellingsmethode

Statistische voorspelling met behulp van eenvoudig voortschrijdend gemiddelde

 

 

 

Wat te doen als een statistische prognose geen steek houdt

Soms slaat een statistische prognose gewoon nergens op. Elke voorspeller is er geweest. Ze kunnen dubbel controleren of de gegevens correct zijn ingevoerd of de modelinstellingen bekijken, maar ze blijven zich afvragen waarom de voorspelling er zo anders uitziet dan de vraaggeschiedenis. Wanneer de incidentele voorspelling nergens op slaat, kan dit het vertrouwen in het hele statistische prognoseproces aantasten.

Deze blog zal een leek helpen begrijpen wat de slimme statistische modellen zijn en hoe ze automatisch worden gekozen. Er wordt ingegaan op hoe die keuze soms mislukt, hoe u kunt weten of dat zo is en wat u kunt doen om ervoor te zorgen dat de prognoses altijd gerechtvaardigd kunnen worden. Het is belangrijk om te weten wat u kunt verwachten en hoe u de uitzonderingen kunt opvangen, zodat u kunt vertrouwen op uw prognosesysteem.

 

Hoe methoden automatisch worden gekozen

De criteria om automatisch één statistische methode uit een set te kiezen, zijn gebaseerd op welke methode het dichtst bij het correct voorspellen van de achtergehouden geschiedenis kwam. De eerdere geschiedenis wordt aan elke methode doorgegeven en het resultaat wordt vergeleken met de werkelijke waarden om de methode te vinden die er het dichtst bij in de buurt kwam. Die automatisch gekozen methode krijgt dan alle geschiedenis om de voorspelling te produceren. Bekijk deze blog voor meer informatie over de modelselectie https://smartcorp.com/uncategorized/statistical-forecasting-how-automatic-method-selection-works/

Voor de meeste tijdreeksen kan dit proces trends, seizoensgebondenheid en gemiddeld volume nauwkeurig vastleggen. Maar soms komt een gekozen methode wiskundig het dichtst in de buurt van het voorspellen van de achtergehouden geschiedenis, maar projecteert deze niet op een logische manier. Dat betekent dat de door het systeem geselecteerde methode niet de beste is en voor sommigen "moeilijk te voorspellen"

 

Moeilijk te voorspellen items

Moeilijk te voorspellen items kunnen grote, onvoorspelbare pieken in de vraag hebben, of meestal geen vraag maar willekeurige onregelmatige pieken, of ongebruikelijke recente activiteit. Ruis in de gegevens dwaalt soms willekeurig omhoog of omlaag, en de geautomatiseerde best-pick-methode kan een op hol geslagen trend of een nulpunt voorspellen. Het zal het slechter doen dan gezond verstand en in een klein percentage van een redelijk gevarieerde groep items. U moet deze gevallen dus identificeren en reageren door de prognose te negeren of de invoer van de prognose te wijzigen.

 

Hoe de uitzonderingen te vinden

De beste werkwijze is om de voorspelde items te filteren of te sorteren om de items te identificeren waarvan de som van de prognose voor het volgende jaar aanzienlijk afwijkt van de overeenkomstige geschiedenis van vorig jaar. De prognosesom kan veel lager zijn dan de historie of andersom. Gebruik de meegeleverde statistieken om deze items te identificeren; vervolgens kunt u ervoor kiezen om overschrijvingen toe te passen op de prognose of de prognose-instellingen te wijzigen.

 

Hoe de uitzonderingen op te lossen

Wanneer de voorspelling vreemd lijkt, zal een middelingsmethode, zoals Single Exponential Smoothing of zelfs een eenvoudig gemiddelde met behulp van Freestyle, vaak een redelijkere voorspelling opleveren. Als de trend mogelijk geldig is, kunt u alleen seizoensmethoden verwijderen om een onjuist seizoensresultaat te voorkomen. Of doe het tegenovergestelde en gebruik alleen seizoensmethoden als seizoensgebondenheid wordt verwacht maar niet was geprojecteerd in de standaardprognose. U kunt de wat-als-functies gebruiken om een onbeperkt aantal prognoses te maken, te evalueren en te vergelijken en de instellingen verder te verfijnen totdat u vertrouwd bent met de prognose.

Het opschonen van de geschiedenis, met of zonder wijziging van de automatische methodeselectie, is ook effectief bij het produceren van redelijke voorspellingen. U kunt prognoseparameters insluiten om de hoeveelheid geschiedenis die wordt gebruikt om die items te voorspellen of het aantal perioden dat aan het algoritme is doorgegeven, te verminderen, zodat eerdere, verouderde geschiedenis niet langer in aanmerking wordt genomen. U kunt pieken of dalen in de vraaggeschiedenis bewerken die bekende afwijkingen zijn, zodat ze de uitkomst niet beïnvloeden. U kunt ook samenwerken met het Smart-team om automatische detectie en verwijdering van uitschieters te implementeren, zodat gegevens voordat ze worden voorspeld al zijn opgeschoond van deze afwijkingen.

Als de vraag echt intermitterend is, wordt het bijna onmogelijk om "nauwkeurig" per periode te voorspellen. Als een level-loading-gemiddelde niet acceptabel is, kan het effectief zijn om het artikel af te handelen door een voorraadbeleid in te stellen met een doorlooptijdprognose. U kunt er ook voor kiezen om 'hetzelfde als vorig jaar'-modellen te gebruiken die, hoewel ze niet gevoelig zijn voor nauwkeurigheid, algemeen worden geaccepteerd door het bedrijf gezien de alternatieve prognoses.

Ten slotte, als het item zo recent is geïntroduceerd dat de algoritmen niet genoeg input hebben om nauwkeurig te voorspellen, is een eenvoudige gemiddelde of handmatige voorspelling wellicht het beste. U kunt nieuwe items identificeren door te filteren op het aantal historische perioden.

 

Handmatige selectie van methoden

Zodra u rijen hebt geïdentificeerd waar de prognose niet logisch is voor het menselijk oog, kunt u een kleinere subset van alle methoden kiezen om de prognoserun toe te laten en te vergelijken met de geschiedenis. Met Smart kunt u een beperkte set methoden gebruiken voor slechts één prognoserun of de beperkte set insluiten om te gebruiken voor alle prognoseruns in de toekomst. Verschillende methoden zullen de geschiedenis op verschillende manieren in de toekomst projecteren. Als u een idee heeft van hoe elk werkt, kunt u kiezen welke u wilt toestaan.

 

Vertrouw op uw prognosetool

Hoe meer u Slimme periode-over-periode gebruikt om uw beslissingen over hoe te voorspellen en welke historische gegevens u in overweging moet nemen, vast te leggen, hoe minder vaak u uitzonderingen zult tegenkomen, zoals beschreven in deze blog. Het invoeren van prognoseparameters is een beheersbare taak wanneer u begint met kritieke items of items met een hoge impact. Zelfs als u geen handmatige beslissingen over prognosemethoden insluit, wordt de prognose elke periode opnieuw uitgevoerd met nieuwe gegevens. Dus een item met een oneven resultaat vandaag kan in de loop van de tijd gemakkelijk voorspelbaar worden.

 

 

De rol van vertrouwen in het vraagvoorspellingsproces Deel 2: Wat vertrouwt u

"Ongeacht hoeveel moeite er wordt gestoken in het opleiden van voorspellers en het ontwikkelen van uitgebreide ondersteuningssystemen voor prognoses, besluitvormers zullen de voorspellingen wijzigen of negeren als ze ze niet vertrouwen." — Dilek Onkal, International Journal of Forecasting 38:3 (juli-september 2022), p.802.

De hierboven geciteerde woorden trokken mijn aandacht en leidden tot dit bericht. Degenen met een nerdachtige overtuiging, zoals uw blogger, zijn geneigd prognoses als een statistisch probleem te beschouwen. Hoewel dat duidelijk waar is, begrijpen degenen van een bepaalde leeftijd, zoals uw blogger, dat prognoses ook een sociale activiteit zijn en daarom een grote menselijke component heeft.

Waar vertrouw je op?

Er is een verwante dimensie van vertrouwen: niet wie vertrouw je, maar wat vertrouw je? Hiermee bedoel ik zowel data als software.

Vertrouw op gegevens

Vertrouwen in data ondersteunt het vertrouwen in de voorspeller die de data gebruikt. De meeste van onze klanten hebben hun gegevens in een ERP-systeem staan. Deze gegevens moeten worden begrepen als een belangrijk bedrijfsmiddel. Om de gegevens betrouwbaar te laten zijn, moeten ze de "drie C's" hebben, dwz ze moeten correct, volledig en actueel zijn.

Correctheid is uiteraard fundamenteel. We hadden eens een klant die een nieuw, sterk prognoseproces aan het implementeren was, maar vond dat de resultaten volledig haaks stonden op hun gevoel voor wat er in het bedrijf gebeurde. Het bleek dat verschillende van hun datastromen een factor twee onjuist waren, wat een enorme fout is. Dit vertraagde natuurlijk het implementatieproces totdat ze alle grove fouten in hun vraaggegevens konden identificeren en corrigeren.

Er is een minder voor de hand liggend punt over correctheid. Dat wil zeggen, gegevens zijn willekeurig, dus wat u nu ziet, is waarschijnlijk niet wat u hierna ziet. Het plannen van de productie op basis van de veronderstelling dat de vraag van volgende week precies hetzelfde zal zijn als de vraag van deze week is duidelijk dwaas, maar klassieke op formules gebaseerde voorspellingsmodellen zoals de hierboven genoemde exponentiële afvlakking zullen hetzelfde aantal projecteren over de hele prognosehorizon. Dit is waar op scenario's gebaseerde planning is essentieel om het hoofd te bieden aan de onvermijdelijke fluctuaties in belangrijke variabelen zoals de eisen van klanten en de doorlooptijden van leveranciers.

Volledigheid is de tweede vereiste om gegevens te kunnen vertrouwen. Onze software haalt uiteindelijk veel van zijn waarde uit het blootleggen van de verbanden tussen operationele beslissingen (bijvoorbeeld het selecteren van bestelpunten voor het aanvullen van voorraad) en bedrijfsgerelateerde statistieken zoals voorraadkosten. Toch loopt de implementatie van prognosesoftware vaak vertraging op omdat ergens vraaginformatie beschikbaar is, maar voorraad-, bestel- en/of tekortkosten niet. Of, om nog een recent voorbeeld te noemen: een klant kon slechts de helft van zijn voorraad reserveonderdelen voor repareerbare onderdelen op de juiste maat houden, omdat niemand had bijgehouden wanneer de andere helft kapot ging, wat betekent dat er geen informatie was over de gemiddelde tijd vóór storing (MTBF). , wat betekent dat het niet mogelijk was om het pechgedrag van de helft van de vloot van repareerbare reserveonderdelen te modelleren.

Ten slotte is de valuta van gegevens van belang. Naarmate de snelheid van zakendoen toeneemt en bedrijfsplanningscycli afnemen van een driemaandelijks of maandelijks tempo naar een wekelijks of dagelijks tempo, wordt het wenselijk om de flexibiliteit te benutten die wordt geboden door 's nachts uploads van dagelijkse transactiegegevens naar de cloud. Dit maakt hoogfrequente aanpassingen van prognoses en/of voorraadbeheerparameters mogelijk voor artikelen met een hoge volatiliteit en plotselinge verschuivingen in de vraag. Hoe verser de gegevens, hoe betrouwbaarder de analyse.

Vertrouw op software voor vraagvoorspelling

Zelfs met gegevens van hoge kwaliteit moeten voorspellers nog steeds vertrouwen op de analytische software die de gegevens verwerkt. Dit vertrouwen moet zich uitstrekken tot zowel de software zelf als de computationele omgeving waarin deze functioneert.

Als voorspellers lokale software gebruiken, moeten ze vertrouwen op hun eigen IT-afdelingen om de gegevens te beschermen en beschikbaar te houden voor gebruik. Als ze in plaats daarvan de kracht van cloudgebaseerde analyses willen benutten, moeten klanten hun vertrouwelijke informatie toevertrouwen aan hun softwareleveranciers. Software op professioneel niveau, zoals de onze, rechtvaardigt het vertrouwen van klanten door middel van SOC 2-certificering. SOC 2-certificering is ontwikkeld door het American Institute of CPA's en definieert criteria voor het beheer van klantgegevens op basis van vijf "trustservice-principes": beveiliging, beschikbaarheid, verwerkingsintegriteit, vertrouwelijkheid en privacy.

Hoe zit het met de software zelf? Wat is er nodig om het betrouwbaar te maken? De belangrijkste criteria hierbij zijn de juistheid van algoritmen en functionele betrouwbaarheid. Als de leverancier een professioneel programma-ontwikkelingsproces heeft, is de kans klein dat de software door een programmeerfout uiteindelijk de verkeerde cijfers berekent. En als de leverancier een rigoureus kwaliteitsborgingsproces heeft, is de kans klein dat de software crasht net wanneer de voorspeller een deadline heeft of een pop-upanalyse voor een speciale situatie moet verwerken.

Overzicht

Om bruikbaar te zijn, moeten voorspellers en hun voorspellingen worden vertrouwd door besluitvormers. Dat vertrouwen is afhankelijk van kenmerken van voorspellers en hun processen en communicatie. Het hangt ook af van de kwaliteit van de gegevens en software die worden gebruikt bij het maken van de prognoses.

 

Lees hier het 1e deel van deze Blog “Who do you Trust”: https://smartcorp.com/forecasting/the-role-of-trust-in-the-demand-forecasting-process-part-1-who/

 

 

 

De rol van vertrouwen in het vraagvoorspellingsproces Deel 1: Wie vertrouwt u

 

"Ongeacht hoeveel moeite er wordt gestoken in het opleiden van voorspellers en het ontwikkelen van uitgebreide ondersteuningssystemen voor prognoses, besluitvormers zullen de voorspellingen wijzigen of negeren als ze ze niet vertrouwen." — Dilek Onkal, International Journal of Forecasting 38:3 (juli-september 2022), p.802.

De hierboven geciteerde woorden trokken mijn aandacht en leidden tot dit bericht. Degenen met een nerdachtige overtuiging, zoals uw blogger, zijn geneigd prognoses als een statistisch probleem te beschouwen. Hoewel dat duidelijk waar is, begrijpen degenen van een bepaalde leeftijd, zoals uw blogger, dat prognoses ook een sociale activiteit zijn en daarom een grote menselijke component heeft.

Wie vertrouw je?

Vertrouwen is altijd tweerichtingsverkeer, maar laten we aan de kant van de vraagvoorspeller blijven. Welke kenmerken van en acties van voorspellers en vraagplanners bouwen vertrouwen op in hun werk? De hierboven geciteerde professor Onkal besprak academisch onderzoek over dit onderwerp dat teruggaat tot 2006. Ze vatte de resultaten samen van praktijkonderzoeken die belangrijke vertrouwensfactoren identificeerden met betrekking tot de kenmerken van de voorspeller, het prognoseproces en de communicatie over prognoses.

Voorspeller kenmerken

De sleutel tot het opbouwen van vertrouwen onder de gebruikers van prognoses is de perceptie van de competentie en objectiviteit van de voorspeller en vraagplanner. Competentie heeft een wiskundige component, maar veel managers verwarren computervaardigheden met analytische vaardigheden, dus gebruikers van prognosesoftware kunnen deze hindernis meestal nemen. Aangezien de twee echter niet hetzelfde zijn, loont het om de training van uw leverancier op u te nemen en niet alleen de wiskunde maar ook het jargon van uw prognosesoftware te leren. Vertrouwen kan mijns inziens ook worden vergroot door kennis te tonen van de business van het bedrijf.

Objectiviteit is ook een sleutel tot betrouwbaarheid. Het kan ongemakkelijk zijn voor de voorspeller om af en toe in afdelingsruzies terecht te komen, maar die komen naar boven en moeten met tact worden behandeld. Ruzies? Nou, silo's bestaan en kantelen in verschillende richtingen. Verkoopafdelingen geven de voorkeur aan hogere vraagprognoses die de productie verhogen, zodat ze nooit hoeven te zeggen: "Sorry, we zijn vers van dat." Voorraadbeheerders zijn op hun hoede voor prognoses met een hoge vraag, omdat "overmatig enthousiasme" ervoor kan zorgen dat ze de zak vasthouden en op een opgeblazen voorraad zitten.

Soms wordt de voorspeller een de facto scheidsrechter, en moet in deze rol openlijke tekenen van objectiviteit vertonen. Dat kan betekenen dat eerst moet worden erkend dat bij elke managementbeslissing goede dingen moeten worden afgewogen tegen andere goede dingen, bijvoorbeeld productbeschikbaarheid versus gestroomlijnde operaties, en dat de partijen vervolgens moeten worden geholpen om een pijnlijke maar aanvaardbare balans te vinden door de verbanden tussen operationele beslissingen en de belangrijkste prestatiestatistieken aan het licht te brengen. die belangrijk zijn voor mensen als Chief Financial Officers.

Het prognoseproces

Het prognoseproces kan worden beschouwd als drie fasen: gegevensinvoer, berekeningen en uitvoer. In elke fase kunnen acties worden ondernomen om het vertrouwen te vergroten.

 

Wat betreft ingangen:

Het vertrouwen kan worden vergroot als duidelijk relevante invoer op zijn minst wordt erkend als deze niet direct in berekeningen wordt gebruikt. Factoren zoals het sentiment op sociale media en het onderbuikgevoel van regionale verkoopmanagers kunnen dus legitieme onderdelen zijn van een consensusproces voor prognoses. Objectiviteit vereist echter dat deze vermeende winstvoorspellers objectief worden getoetst. Een professioneel prognoseproces kan bijvoorbeeld heel goed een subjectieve aanpassing van statistische prognoses omvatten, maar moet dan ook beoordelen of de aanpassingen uiteindelijk de nauwkeurigheid verbeteren en niet alleen dat sommige mensen zich gehoord voelen.

Wat betreft de tweede fase, berekeningen:

De voorspeller zal worden vertrouwd in de mate dat hij in staat is om meer dan één manier te gebruiken om prognoses te berekenen en vervolgens een goede reden kan verwoorden waarom hij voor de uiteindelijk gebruikte methode heeft gekozen. Daarnaast moet de voorspeller in toegankelijke taal kunnen uitleggen hoe zelfs ingewikkelde technieken hun werk doen. Het is moeilijk om vertrouwen te stellen in een 'black box'-methode die zo ondoorzichtig is dat hij ondoorgrondelijk is. Het belang van verklaarbaarheid wordt nog versterkt door het feit dat de leidinggevende van de voorspeller op zijn beurt in staat moet zijn om de keuze van de gebruikte techniek te verantwoorden. hun leidinggevende.

Exponentiële afvlakking gebruikt bijvoorbeeld deze vergelijking: S(t) = αX(t)+(1-α)S(t-1). Veel voorspellers zijn bekend met deze vergelijking, maar veel voorspellingsgebruikers niet. Er is een verhaal dat de vergelijking verklaart in termen van het gemiddelde van irrelevante "ruis" in de vraaggeschiedenis van een artikel en de noodzaak om een balans te vinden tussen het wegwerken van ruis en het vermogen om te reageren op plotselinge verschuivingen in het niveau van de vraag. De voorspeller die dat verhaal kan vertellen, zal geloofwaardiger zijn. (Mijn eigen versie van dat verhaal gebruikt uitdrukkingen uit de sport, dwz "hoofdvervalsingen" en "jukes". Het vinden van folkachtige analogen die geschikt zijn voor uw specifieke publiek, loont altijd.)

Een laatste punt: best practice vereist dat elke voorspelling vergezeld gaat van een eerlijke beoordeling van de onzekerheid ervan. Een voorspeller die vertrouwen probeert op te bouwen door te specifiek te zijn ("Verkoop volgend kwartaal zal 12.184 eenheden zijn") zal altijd falen. Een voorspeller die zegt: "De verkoop in het volgende kwartaal heeft een kans dat de 90% tussen de 12.000 en 12.300 eenheden valt", zal zowel vaker correct zijn als ook nuttiger voor besluitvormers. Per slot van rekening is prognoses in wezen een taak van risicobeheer, dus de besluitvormer is er het beste mee gediend als hij de risico's kent.

Prognose communicatie:

Overweeg ten slotte de derde fase, communicatie van prognoseresultaten. Onderzoek wijst uit dat voortdurende communicatie met prognosegebruikers vertrouwen opbouwt. Het vermijdt die afschuwelijke, leeglopende momenten waarop een mooi opgemaakt rapport wordt neergeschoten vanwege een fatale fout die had kunnen worden voorzien: "Dit is niet goed omdat je geen rekening hebt gehouden met X, Y of Z" of "We wilden echt u om resultaten opgerold te presenteren naar de top van de producthiërarchieën (of per verkoopregio of per productlijn of…)”.

Zelfs als iedereen op één lijn zit met wat er wordt verwacht, wordt het vertrouwen vergroot door resultaten te presenteren met behulp van goed gemaakte grafische afbeeldingen, met enorme numerieke tabellen als back-up, maar niet als de belangrijkste manier om resultaten te communiceren. Mijn ervaring is dat, net als een apparaat om vergaderingen te controleren, een grafiek meestal veel beter is dan een grote numerieke tabel. Bij een grafiek is ieders aandacht op hetzelfde gericht en zijn veel aspecten van de analyse direct (en letterlijk) zichtbaar. Bij een resultatentabel valt de deelnemerstafel vaak uiteen in nevengesprekken waarin elke stem zich richt op verschillende delen van de tafel.

Onkal vat het onderzoek als volgt samen: "Take-aways voor degenen die prognoses maken en degenen die ze gebruiken, komen samen rond duidelijkheid van communicatie en percepties van competentie en integriteit."

Waar vertrouw je op?

Er is een verwante dimensie van vertrouwen: niet wie vertrouw je, maar wat vertrouw je? Hiermee bedoel ik zowel data als software….  Lees hier het 2e deel van deze Blog “Wat vertrouw je”.  https://smartcorp.com/forecasting/the-role-of-trust-in-the-demand-forecasting-process-part-2-what/

 

 

 

 

Software voor vraagplanning en voorraadoptimalisatie implementeren met de juiste gegevens

Gegevensverificatie en -validatie zijn essentieel voor het succes van de implementatie van software die statistische analyse van gegevens uitvoert, zoals Smart IP&O. Dit artikel beschrijft het probleem en dient als een praktische gids om het werk goed te doen, vooral voor de gebruiker van de nieuwe applicatie.

Hoe minder ervaring uw organisatie heeft met het valideren van historische transacties of artikelstamkenmerken, hoe waarschijnlijker het is dat er problemen of fouten zijn opgetreden bij het invoeren van gegevens in het ERP die tot nu toe onopgemerkt zijn gebleven. De 'garbage in, garbage out'-regel betekent dat u prioriteit moet geven aan deze stap van het software-onboardingproces, anders loopt u het risico vertraging op te lopen en mogelijk geen ROI te genereren.

De beste persoon om te bevestigen dat gegevens in uw ERP correct zijn ingevoerd, is uiteindelijk de persoon die de business kent en bijvoorbeeld kan beweren “dit onderdeel behoort niet tot die productgroep”. Dat is meestal dezelfde persoon die Smart opent en gebruikt. Maar ook een databasebeheerder of IT-support kan een sleutelrol spelen door te kunnen zeggen: “Dit onderdeel is afgelopen december door Jane Smith aan die productgroep toegewezen.” Ervoor zorgen dat gegevens correct zijn, is misschien geen vast onderdeel van uw dagelijkse werk, maar kan worden opgesplitst in beheersbare kleine taken waarvoor een goede projectmanager tijd en middelen zal uittrekken.

De softwareleverancier voor vraagplanning die de gegevens ontvangt, speelt ook een rol. Ze zullen bevestigen dat de onbewerkte gegevens zonder problemen zijn opgenomen. De leverancier kan ook afwijkingen in de onbewerkte gegevensbestanden identificeren die wijzen op de noodzaak van validatie. Maar vertrouwen op de softwareleverancier om u gerust te stellen dat de gegevens er goed uitzien, is niet genoeg. U wilt na de livegang niet ontdekken dat u de output niet kunt vertrouwen omdat sommige gegevens "niet kloppen".

Elke stap in de gegevensstroom heeft verificatie en validatie nodig.  Verificatie betekent dat de gegevens in de ene stap nog steeds hetzelfde zijn nadat ze naar de volgende stap zijn gegaan. Validatie betekent dat de gegevens correct en bruikbaar zijn voor analyse

De meest voorkomende gegevensstroom ziet er als volgt uit:

Software voor vraagplanning en voorraadoptimalisatie implementeren met de juiste dataset

Minder vaak wordt de eerste stap tussen ERP-stamgegevens en de gekoppelde bestanden soms overgeslagen, waarbij bestanden niet als interface worden gebruikt. In plaats daarvan is een API die is gebouwd door IT of de leverancier van software voor inventarisoptimalisatie verantwoordelijk voor het rechtstreeks schrijven van gegevens vanuit de ERP naar de gespiegelde database in de cloud. De leverancier zou samenwerken met IT om te bevestigen dat de API werkt zoals verwacht. Maar zelfs in dat geval kan de eerste validatiestap nog steeds worden uitgevoerd. Na opname van de gegevens kan de leverancier de gespiegelde gegevens beschikbaar maken in bestanden voor de DBA/IT-verificatie en bedrijfsvalidatie.

De bevestiging dat de gespiegelde data in de cloud de stroom naar de applicatie voltooit, is de verantwoordelijkheid van de leverancier van software-as-a-service. SaaS-leveranciers testen voortdurend of de software correct werkt tussen de front-end-applicatie die hun abonnees zien en de back-end-gegevens in de clouddatabase. Als de abonnees nog steeds denken dat de gegevens niet kloppen in de applicatie, zelfs nadat ze de interfacing-bestanden hebben gevalideerd voordat ze live gaan, is dat een probleem dat ze moeten bespreken met de klantenondersteuning van de leverancier.

Hoe de interfacing-bestanden ook worden verkregen, het grootste deel van de verificatie en validatie komt toe aan de projectmanager en zijn team. Ze moeten een test van de interfacing-bestanden uitvoeren om te bevestigen:

  1. Ze matchen de gegevens in het ERP. En dat alle en alleen de ERP-gegevens die nodig waren om te extraheren voor gebruik in de applicatie, werden geëxtraheerd.
  2. Niets "springt eruit" voor het bedrijf als onjuist voor elk van de soorten informatie in de gegevens
  3. Ze zijn geformatteerd zoals verwacht.

 

DBA/IT Verificatie Taken

  1. Test het uittreksel:

IT's verificatiestap kan worden gedaan met verschillende tools, waarbij bestanden worden vergeleken of bestanden worden terug geïmporteerd naar de database als tijdelijke tabellen en ze worden samengevoegd met de originele gegevens om een match te bevestigen. IT kan afhankelijk zijn van een query om de gevraagde gegevens naar een bestand te halen, maar dat bestand kan niet overeenkomen. Het bestaan van scheidingstekens of regelretouren binnen de gegevenswaarden kan ertoe leiden dat een bestand afwijkt van de oorspronkelijke databasetabel. Het is omdat het bestand sterk afhankelijk is van scheidingstekens en regelterugloop om velden en records te identificeren, terwijl de tabel niet afhankelijk is van die tekens om de structuur te definiëren.

  1. Geen slechte karakters:

Vrije gegevensinvoervelden in het ERP, zoals productbeschrijvingen, kunnen soms zelf regeleinden, tabs, komma's en/of dubbele aanhalingstekens bevatten die de structuur van het uitvoerbestand kunnen beïnvloeden. Regelretouren mogen niet worden toegestaan in waarden die naar een bestand worden geëxtraheerd. Tekens die gelijk zijn aan het scheidingsteken moeten tijdens het extraheren worden verwijderd of er moet een ander scheidingsteken worden gebruikt.

Tip: als komma's het bestandsscheidingsteken zijn, kunnen getallen groter dan 999 niet worden geëxtraheerd met een komma. Gebruik "1000" in plaats van "1000".

  1. Bevestig de filters:

De andere manier waarop query-extracten onverwachte resultaten kunnen opleveren, is als voorwaarden voor de query onjuist zijn ingevoerd. De eenvoudigste manier om verkeerde "where-clausules" te voorkomen, is door ze niet te gebruiken. Extraheer alle gegevens en laat de leverancier enkele records eruit filteren volgens de regels die door het bedrijf zijn verstrekt. Als dit leidt tot uittrekbestanden die zo groot zijn dat er te veel rekentijd wordt besteed aan de gegevensuitwisseling, moet het DBA/IT-team met het bedrijf overleggen om precies te bevestigen welke filters op de gegevens kunnen worden toegepast om te voorkomen dat records worden uitgewisseld die geen betekenis hebben voor de gegevensuitwisseling. sollicitatie.

Tip: Houd er rekening mee dat actief/inactief of informatie over de levenscyclus van items niet mag worden gebruikt om records uit te filteren. Deze informatie moet naar de applicatie worden gestuurd, zodat deze weet wanneer een item inactief wordt.

  1. Wees consistent:

Het extractieproces moet elke keer dat het wordt uitgevoerd, bestanden met een consistent formaat produceren. Bestandsnamen, veldnamen en positie, scheidingsteken en Excel-bladnaam als Excel wordt gebruikt, numerieke formaten en datumnotaties, en het gebruik van aanhalingstekens rond waarden mogen nooit verschillen van de ene uitvoering van het extract van dag tot dag. Voor elke uitvoering van het uittreksel moet een hands-off rapport of opgeslagen procedure worden opgesteld en gebruikt.

 

Zakelijke validatie achtergrond

Hieronder vindt u een uitsplitsing van elke validatiestap in overwegingen, met name in het geval dat de leverancier een sjabloonformaat heeft verstrekt voor de gekoppelde bestanden, waarbij elk type informatie in een eigen bestand wordt verstrekt. Bestanden die vanuit uw ERP naar Smart worden verzonden, zijn geformatteerd zodat ze eenvoudig vanuit het ERP kunnen worden geëxporteerd. Dat soort formaat maakt de vergelijking terug naar het ERP een relatief eenvoudige taak voor IT, maar het kan moeilijker zijn voor het bedrijf om te interpreteren. De beste praktijk is om de ERP-gegevens te manipuleren, hetzij door draaitabellen of iets dergelijks in een spreadsheet te gebruiken. IT kan helpen door geherformatteerde gegevensbestanden aan te bieden voor beoordeling door het bedrijf.

Als u zich wilt verdiepen in de interfacing-bestanden, moet u ze begrijpen. De leverancier zal een nauwkeurig sjabloon leveren, maar over het algemeen bestaan de interfacebestanden uit drie typen: catalogusgegevens, artikelkenmerken en transactiegegevens.

  • Catalogusgegevens bevatten identifiers en hun attributen. Identificaties zijn typisch voor producten, locaties (dit kunnen fabrieken of magazijnen zijn), uw klanten en uw leveranciers.
  • Artikelkenmerken bevatten informatie over producten op locaties die nodig zijn voor analyse van de product- en locatiecombinatie. Zoals:
    • Huidig bevoorradingsbeleid in de vorm van een Min en Max, Bestelpunt, of Herzieningsperiode en Bestelling tot waarde, of Veiligheidsvoorraad
    • Toewijzing primaire leverancier en nominale doorlooptijd en kosten per eenheid van die leverancier
    • Vereisten voor de bestelhoeveelheid, zoals de minimale bestelhoeveelheid, de grootte van de productieserie of veelvouden van bestellingen
    • Actieve/inactieve status van de combinatie product/locatie of vlaggen die de status ervan in de levenscyclus aangeven, zoals pre-obsolete
    • Attributen voor groepering of filtering, zoals toegewezen inkoper/planner of productcategorie
    • Actuele voorraadinformatie zoals bij de hand, op bestelling en in transithoeveelheden.
  • Transactiegegevens bevatten verwijzingen naar identifiers samen met datums en hoeveelheden. Zoals de verkochte hoeveelheid in een verkooporder van een product, op een locatie, voor een klant, op een datum. Of hoeveelheid geplaatst op inkooporder van een product, naar een locatie, van een leverancier, op een datum. Of hoeveelheid gebruikt in een werkorder van een componentproduct op een locatie op een datum.

 

Catalogusgegevens valideren

Als u eerst de catalogusgegevens bekijkt, hebt u mogelijk catalogusbestanden die lijken op deze voorbeelden:

Software voor vraagplanning en voorraadoptimalisatie implementeren 111

Locatie-ID Beschrijving Regio Bron Locatie  enz…
Locatie1 Eerste locatie noorden    
Locatie2 Tweede locatie zuiden Locatie1  
Locatie3 Derde locatie zuiden Locatie1  
…enz…        

 

Klantidentificatie Beschrijving Verkoper Verzenden vanaf locatie  enz…
Klant1 Eerste klant Jane Locatie1  
Klant2 Tweede klant Jane Locatie3  
Klant3 Derde klant Jo Locatie2  
…enz…        

 

Identificatie van de leverancier Beschrijving Toestand Typische doorlooptijddagen  enz…
Leverancier1 Eerste leverancier Actief 18  
Leverancier2 Tweede leverancier Actief 60  
Leverancier3 Derde leverancier Actief 5  
…enz…        

 

1: Controleer op een redelijk aantal catalogusrecords

Open elk bestand met catalogusgegevens in een spreadsheetprogramma zoals Google Spreadsheets of MS Excel. Beantwoord deze vragen:

  1. Is het recordaantal in de marge? Als u ongeveer 50.000 producten heeft, zouden er niet slechts 10.000 rijen in het bestand moeten staan.
  2. Als het een kort bestand is, bijvoorbeeld het locatiebestand, kunt u precies bevestigen dat alle verwachte identifiers erin staan.
  3. Filter op elke attribuutwaarde en bevestig nogmaals dat het aantal records met die attribuutwaarde zinvol is.

2: Controleer de juistheid van waarden in elk attribuutveld

Iemand die weet wat de producten zijn en wat de groepen betekenen, moet de tijd nemen om te bevestigen dat het echt goed is, voor alle attributen van alle catalogusgegevens.

Dus als uw productbestand de attributen bevat zoals in het bovenstaande voorbeeld, zou u filteren op Status van Actief en controleren of alle resulterende producten daadwerkelijk actief zijn. Filter vervolgens op Status van Inactief en controleer of alle resulterende producten daadwerkelijk inactief zijn. Filter vervolgens op de eerste groepswaarde en bevestig dat alle resulterende producten in die groep zitten. Herhaal dit voor Groep2 en Groep3, enz. Herhaal dit voor elk attribuut in elk bestand.

Het kan helpen om deze validatie uit te voeren met een vergelijking met een reeds bestaand en vertrouwd rapport. Als u om welke reden dan ook een andere spreadsheet heeft die producten per groep weergeeft, kunt u de interfacing-bestanden daarmee vergelijken. Mogelijk moet u vertrouwd raken met de functie VERT.ZOEKEN die helpt bij het vergelijken van spreadsheets.

Artikelkenmerkgegevens valideren

1: Controleer op een redelijk aantal itemrecords

De bevestiging van de itemattribuutgegevens is vergelijkbaar met de catalogusgegevens. Bevestig dat het aantal product/locatie-combinaties logisch is in totaal en voor elk van de unieke itemkenmerken, één voor één. Dit is een voorbeeldbestand met artikelgegevens:

Software voor vraagplanning en voorraadoptimalisatie implementeren 22

2: Zoek en verklaar rare getallen in het itembestand

Er zijn meestal veel numerieke waarden in de itemattributen, dus "rare" cijfers verdienen een beoordeling. Om gegevens voor een numeriek attribuut in een willekeurig bestand te valideren, zoekt u waar het nummer is:

  • Ontbreekt volledig
  • Gelijk aan nul
  • Minder dan nul
  • Meer dan de meeste anderen, of minder dan de meeste anderen (sorteer op die kolom)
  • Helemaal geen nummer, terwijl het zou moeten zijn

Een speciale overweging van bestanden die geen catalogusbestanden zijn, is dat ze mogelijk niet de beschrijvingen van de producten en locaties tonen, alleen hun identifiers, die voor u betekenisloos kunnen zijn. U kunt kolommen invoegen voor de product- en locatiebeschrijvingen die u gewend bent te zien en deze in de spreadsheet invullen om u te helpen bij uw werk. De VLOOKUP-functie werkt hier ook voor. Of u nu wel of niet een ander rapport hebt om het Items-bestand mee te vergelijken, u hebt de catalogusbestanden voor Producten en Locatie met zowel de identifier als de beschrijving voor elke rij.

3: Controle ter plaatse

Als u gefrustreerd bent dat er te veel attribuutwaarden zijn om binnen een redelijke tijd handmatig te controleren, is steekproefsgewijze controle een oplossing. Het kan worden gedaan op een manier die waarschijnlijk problemen oppikt. Haal voor elk attribuut een lijst op met de unieke waarden in elke kolom. U kunt een kolom naar een nieuw blad kopiëren en vervolgens de functie Duplicaten verwijderen gebruiken om de lijst met mogelijke waarden te bekijken. Met het:

  1. Bevestig dat er geen attribuutwaarden aanwezig zijn die dat niet zouden moeten zijn.
  2. Het kan moeilijker zijn om te onthouden welke attribuutwaarden ontbreken die er zouden moeten zijn, dus het kan helpen om naar een andere bron te kijken om u eraan te herinneren. Als bijvoorbeeld Groep1 tot en met Groep12 aanwezig zijn, kunt u een andere bron controleren om te onthouden of dit alle mogelijke groepen zijn. Zelfs als het niet vereist is voor de interfacing-bestanden voor de applicatie, kan het voor IT gemakkelijk zijn om een lijst te extraheren van alle mogelijke groepen die in uw ERP staan, die u kunt gebruiken voor de validatie. Als u extra of ontbrekende waarden vindt die u niet verwacht, breng dan een voorbeeld van elk naar IT om te onderzoeken.
  3. Sorteer alfabetisch en scan naar beneden om te zien of twee waarden vergelijkbaar zijn, maar enigszins verschillen, misschien alleen in interpunctie, wat zou kunnen betekenen dat in één record de attribuutgegevens onjuist zijn ingevoerd.

Controleer voor elk type item, misschien één van elke productgroep en/of locatie, of alle attributen in elk bestand correct zijn of op zijn minst een sanity check doorstaan. Hoe meer u een breed scala aan items kunt controleren, hoe kleiner de kans dat u problemen zult hebben nadat ze live zijn gegaan.

 

Transactiegegevens valideren

Transactiebestanden kunnen allemaal een vergelijkbare indeling hebben:

Software voor vraagplanning en voorraadoptimalisatie implementeren 333

 

1: Vind rare getallen in elk transactiebestand en leg ze uit

Deze moeten worden gecontroleerd op "rare" getallen in het veld Hoeveelheid. Dan kunt u doorgaan naar:

  1. Filter op datums buiten het verwachte bereik of ontbrekende verwachte datums.
  2. Zoek waar transactie-ID's en regelnummers ontbreken. Dat zouden ze niet moeten zijn.
  3. Als er meer dan één record is voor een bepaalde combinatie van transactie-ID en transactieregelnummer, is dat dan een vergissing? Anders gezegd, moeten dubbele records hun hoeveelheden bij elkaar optellen of is dat dubbeltelling?

2: Sanity check opgetelde hoeveelheden

Voer een gezond verstand uit door te filteren op een bepaald product waarmee u bekend bent, en filter op een herkenbare periode zoals vorige maand of vorig jaar, en som de hoeveelheden op. Is dat totale bedrag wat u voor dat product in dat tijdsbestek verwachtte? Als u informatie heeft over het totale gebruik buiten een locatie, kunt u de gegevens op die manier splitsen om de hoeveelheden op te tellen en te vergelijken met wat u verwacht. Draaitabellen zijn handig voor verificatie van transactiegegevens. Met hen kunt u de gegevens bekijken zoals:

Product Jaar Hoeveelheid Totaal
Prod1 2022 9,034
Prod1 2021 8,837
enz    

 

Het jaarlijkse totaal van de producten kan eenvoudig te controleren zijn als u de producten goed kent. Of u kunt VERT.ZOEKEN gebruiken om attributen toe te voegen, zoals een productgroep, en daarop draaien om een hoger niveau te zien dat vertrouwder is:

Productgroep Jaar Hoeveelheid Totaal
Groep 1 2022 22,091
Groep2 2021 17,494
enz    

 

3: Sanity check telling van records

Het kan helpen om een aantal transacties weer te geven in plaats van een som van de hoeveelheden, vooral voor inkoopordergegevens. Zoals:

Product Jaar Aantal PO's
Prod1 2022 4
Prod1 2021 1
enz    

 

En/of dezelfde samenvatting op een hoger niveau, zoals:

Productgroep Jaar Aantal PO's
Groep 1 2022 609
Groep2 2021 40
enz    

 

4: Controle ter plaatse

Steekproefsgewijs controleren van de juistheid van een enkele transactie, voor elk type artikel en elk type transactie, voltooit de due diligence. Besteed speciale aandacht aan welke datum aan de transactie is gekoppeld en of deze geschikt is voor de analyse. Datums kunnen een aanmaakdatum zijn, zoals de datum waarop een klant een bestelling bij u heeft geplaatst, of een beloftedatum, zoals de datum waarop u verwachtte te leveren op de bestelling van de klant op het moment dat u deze aanmaakte, of een uitvoeringsdatum, wanneer u daadwerkelijk heeft geleverd op de bestelling. Soms wordt een beloftedatum gewijzigd dagen nadat de bestelling is gemaakt als deze niet kan worden gehaald. Zorg ervoor dat de gebruiksdatum de werkelijke vraag van de klant naar het product zo goed mogelijk weergeeft.

Wat te doen met slechte gegevens 

Als er weinig of eenmalig foutieve invoer is, kunt u de ERP-records met de hand bewerken zodra ze worden gevonden, waardoor uw cataloguskenmerken worden opgeschoond, zelfs nadat de applicatie live is gegaan. Maar als grote hoeveelheden attributen of transactiehoeveelheden niet kloppen, kan dit een intern project ertoe aanzetten om gegevens opnieuw correct in te voeren en mogelijk om het proces te wijzigen of te documenteren dat moet worden gevolgd wanneer nieuwe records in uw ERP worden ingevoerd.

Er moet voor worden gezorgd dat de implementatie van de SaaS-applicatie niet te lang op zich laat wachten tijdens het wachten op schone attributen. Verdeel het werk in brokken en gebruik de applicatie om eerst de opgeschoonde gegevens te analyseren, zodat het gegevensopschoningsproject parallel loopt met het halen van waarde uit de nieuwe applicatie.