Vijftien vragen die laten zien hoe prognoses in uw bedrijf worden berekend

In een recente LinkedIn na, heb ik vier vragen uitgewerkt die, wanneer ze worden beantwoord, zullen onthullen hoe de prognoses zijn gebruikt worden in uw bedrijf. In dit artikel hebben we vragen opgesomd die u kunt stellen om te onthullen hoe de prognoses zijn gemaakt.

1. Als we gebruikers vragen hoe ze prognoses maken, is hun antwoord vaak "we gebruiken geschiedenis". Dit is duidelijk niet genoeg informatie, aangezien er verschillende soorten vraaggeschiedenis zijn die verschillende prognosemethoden vereisen. Als u historische gegevens gebruikt, zorg er dan voor dat u erachter komt of u een middelingsmodel, een trendmodel, een seizoensmodel of iets anders gebruikt om te voorspellen.

2. Zodra u het gebruikte model kent, vraagt u naar de parameterwaarden van die modellen. De prognose-output van een "gemiddelde" zal verschillen, soms aanzienlijk, afhankelijk van het aantal perioden dat u middelt. Zoek dus uit of u een gemiddelde gebruikt van de afgelopen 3 maanden, 6 maanden, 12 maanden, enz.

3. Als u trending-modellen gebruikt, vraag dan hoe de modelgewichten zijn ingesteld. In een trendingmodel, zoals dubbele exponentiële afvlakking, zullen de prognoses bijvoorbeeld aanzienlijk verschillen, afhankelijk van hoe de berekeningen recente gegevens wegen in vergelijking met oudere gegevens (hogere gewichten leggen meer nadruk op de recente gegevens).

4. Als u seizoensmodellen gebruikt, zullen de prognoseresultaten worden beïnvloed door het gebruikte "niveau" en "trendgewicht". U moet ook bepalen of seizoensperioden worden voorspeld met multiplicatieve of additieve seizoensinvloeden. (Additieve seizoensinvloeden zeggen bijvoorbeeld: "Voeg 100 eenheden toe voor juli", terwijl multiplicatieve seizoensinvloeden zeggen "Vermenigvuldig met 1,25 voor juli".) Ten slotte gebruikt u dit soort methoden misschien helemaal niet. Sommige beoefenaars zullen een voorspellingsmethode gebruiken die simpelweg het gemiddelde neemt van voorgaande perioden (dat wil zeggen, komende juni zal worden voorspeld op basis van het gemiddelde van de voorgaande drie junis).

5. Hoe kiest u het ene model boven het andere? Hangt de keuze van de techniek af van het type vraaggegevens of wanneer er nieuwe vraaggegevens beschikbaar zijn? Is dit proces geautomatiseerd? Of als een planner subjectief een trendmodel kiest, wordt dat item dan voorspeld met dat model totdat de planner het weer verandert?

6. Zijn uw prognoses 'volledig automatisch', zodat trends en/of seizoensinvloeden automatisch worden gedetecteerd? Of zijn uw prognoses afhankelijk van artikelclassificaties die door gebruikers moeten worden bijgehouden? Dit laatste vereist meer tijd en aandacht van planners om te definiëren welk gedrag een trend, seizoensinvloeden, enz. is.

7. Welke regels voor artikelclassificatie worden gebruikt? Een artikel kan bijvoorbeeld worden beschouwd als een trending artikel als de vraag met meer dan 5% periode-over-periode toeneemt. Een artikel kan als seizoensgebonden worden beschouwd als 70% of meer van de jaarlijkse vraag in vier of minder perioden plaatsvindt. Dergelijke regels worden door de gebruiker gedefinieerd en vereisen vaak te brede aannames. Soms zijn ze geconfigureerd toen een systeem oorspronkelijk werd geïmplementeerd, maar nooit herzien, zelfs niet als de omstandigheden veranderen. Het is belangrijk om ervoor te zorgen dat eventuele classificatieregels worden begrepen en, indien nodig, worden bijgewerkt.

8. Wordt de prognose automatisch opnieuw gegenereerd wanneer er nieuwe gegevens beschikbaar zijn, of moet u de prognoses handmatig opnieuw genereren?

9. Controleert u of de prognose van de ene periode op de andere verandert voordat u beslist of u de nieuwe prognose wilt gebruiken? Of ga je standaard naar de nieuwe prognose?

10. Hoe worden prognose-overschrijvingen die in eerdere planningscycli zijn gemaakt, behandeld wanneer een nieuwe prognose wordt gemaakt? Worden ze hergebruikt of vervangen?

11. Hoe verwerkt u prognoses van uw verkoopteam of van uw klanten? Vervangen deze prognoses de basislijnprognose, of gebruikt u deze invoer om planner-overrides te maken voor de basislijnprognose?

12. Onder welke omstandigheden zou u de basisprognose negeren en precies gebruiken wat verkopen of klanten u vertellen?

13. Als u vertrouwt op klantprognoses, wat doet u dan met klanten die geen prognoses geven?

14. Hoe documenteert u de effectiviteit van uw prognosebenadering? De meeste bedrijven meten alleen de nauwkeurigheid van de definitieve prognose die naar het ERP-systeem wordt gestuurd, als ze al iets meten. Maar ze beoordelen geen alternatieve voorspellingen die mogelijk zijn gebruikt. Het is belangrijk om wat je doet te vergelijken met benchmarks. Presteren de methoden die u gebruikt bijvoorbeeld beter dan een naïeve voorspelling (dwz 'morgen is gelijk aan vandaag', waar u niet bij hoeft na te denken), of wat u vorig jaar zag, of het gemiddelde van de afgelopen 12 maanden. Door uw basisprognose te benchmarken, weet u zeker dat u zoveel mogelijk nauwkeurigheid uit de gegevens haalt.

15. Meet je of overrides van sales, klanten en planners de prognose beter of slechter maken? Dit is net zo belangrijk als meten of uw statistische benaderingen beter presteren dan de naïeve methode. Als u niet weet of overrides helpen of schaden, kan het bedrijf niet beter worden in prognoses. U moet weten welke stappen waarde toevoegen, zodat u er meer van kunt doen en nog beter kunt worden. Als u de nauwkeurigheid van de prognoses niet documenteert en geen analyse van de toegevoegde waarde van de prognose uitvoert, kunt u niet goed beoordelen of de geproduceerde prognoses de beste zijn die u kunt maken. U mist kansen om het proces te verbeteren, de nauwkeurigheid te vergroten en het bedrijf te leren welk type voorspellingsfout te verwachten is.

 

 

Hoe voorspellingsresultaten te interpreteren en te manipuleren met verschillende voorspellingsmethoden

Smart IP&O wordt mogelijk gemaakt door de SmartForecasts®-prognose-engine die automatisch de meest geschikte methode voor elk item selecteert. Smart Forecast-methoden worden hieronder vermeld:

  • Eenvoudig voortschrijdend gemiddelde en enkele exponentiële afvlakking voor platte, ruisige gegevens
  • Lineair voortschrijdend gemiddelde en dubbele exponentiële afvlakking voor trendgegevens
  • Winters Additief en Winters Multiplicatief voor seizoens- en seizoens- en trendgegevens.

Deze blog legt uit hoe elk model werkt met behulp van tijdgrafieken van historische en voorspelde gegevens. Het schetst hoe te kiezen welk model te gebruiken. De onderstaande voorbeelden tonen dezelfde geschiedenis, in rood, voorspeld met elke methode, in donkergroen, vergeleken met de Slim gekozen winnende methode, in lichtgroen.

 

Seizoensgebondenheid
Als u seizoensinvloeden wilt forceren (of voorkomen) in de prognose, kies dan voor Winters-modellen. Beide methoden vereisen 2 volle jaren geschiedenis.

'Winter is multiplicatief zal de grootte van de pieken of dalen van seizoenseffecten bepalen op basis van een procentueel verschil met een trending gemiddeld volume. Het past niet goed bij items met een zeer laag volume vanwege deling door nul bij het bepalen van dat percentage. Merk in de onderstaande afbeelding op dat de grote procentuele daling van de seizoensgebonden vraag in de geschiedenis naar verwachting zal voortduren gedurende de prognosehorizon, waardoor het lijkt alsof er geen seizoensgebonden vraag is, ondanks het gebruik van een seizoensmethode.

 

Winter's software voor multiplicatieve voorspellingsmethode

Statistische voorspelling gemaakt met de multiplicatieve methode van Winter. 

 

Toevoeging voor de winter zal de grootte van de pieken of dalen van seizoenseffecten bepalen op basis van een eenheidsverschil met het gemiddelde volume. Het past niet goed als er een significante trend in de gegevens is. Let op in de afbeelding hieronder dat seasonaliteit wordt nu voorspeld op basis van de gemiddelde eenheidsverandering in seizoensgebondenheid. De voorspelling geeft dus nog steeds duidelijk het seizoenspatroon weer ondanks de neerwaartse trend in zowel het niveau als de seizoenspieken/dalen.

Software voor additieve voorspellingsmethode van Winter

Statistische voorspelling gemaakt met de additieve methode van Winter.

 

Trend

Als u trend omhoog of omlaag wilt forceren (of voorkomen) om in de prognose te tonen, beperk dan de gekozen methoden tot (of verwijder de methoden van) Lineair voortschrijdend gemiddelde en Double Exponential Smoothing.

 Dubbele exponentiële afvlakking zal een langetermijntrend oppikken. Het past niet goed als er weinig historische datapunten zijn.

Double exponential smoothing Prognosemethode software

Statistische voorspelling geproduceerd met Double Exponential Smoothing

 

Lineair voortschrijdend gemiddelde zal trends op kortere termijn oppikken. Het is niet geschikt voor zeer volatiele gegevens

Lineair voortschrijdend gemiddelde Prognosemethode software

 

Niet-trending en niet-seizoensgebonden gegevens
Als u wilt forceren (of voorkomen) dat een gemiddelde wordt weergegeven in de prognose, beperk dan de gekozen methoden tot (of verwijder de methoden van) Eenvoudig voortschrijdend gemiddelde en Enkelvoudig exponentieel effenen.

Enkele exponentiële afvlakking zal de meest recente gegevens zwaarder wegen en een vlakke lijnprognose produceren. Het is niet geschikt voor trending- of seizoensgegevens.

Single exponential smoothing Prognosemethode software

Statistische voorspelling met Single Exponential Smoothing

Eenvoudig voortschrijdend gemiddelde zal voor elke periode een gemiddelde vinden, dat soms lijkt te wiebelen, en beter voor middelingen op langere termijn. Het is niet geschikt voor trending- of seizoensgegevens.

Eenvoudige software voor voortschrijdend gemiddelde Voorspellingsmethode

Statistische voorspelling met behulp van eenvoudig voortschrijdend gemiddelde

 

 

 

Wat te doen als een statistische prognose geen steek houdt

Soms slaat een statistische prognose gewoon nergens op. Elke voorspeller is er geweest. Ze kunnen dubbel controleren of de gegevens correct zijn ingevoerd of de modelinstellingen bekijken, maar ze blijven zich afvragen waarom de voorspelling er zo anders uitziet dan de vraaggeschiedenis. Wanneer de incidentele voorspelling nergens op slaat, kan dit het vertrouwen in het hele statistische prognoseproces aantasten.

Deze blog zal een leek helpen begrijpen wat de slimme statistische modellen zijn en hoe ze automatisch worden gekozen. Er wordt ingegaan op hoe die keuze soms mislukt, hoe u kunt weten of dat zo is en wat u kunt doen om ervoor te zorgen dat de prognoses altijd gerechtvaardigd kunnen worden. Het is belangrijk om te weten wat u kunt verwachten en hoe u de uitzonderingen kunt opvangen, zodat u kunt vertrouwen op uw prognosesysteem.

 

Hoe methoden automatisch worden gekozen

De criteria om automatisch één statistische methode uit een set te kiezen, zijn gebaseerd op welke methode het dichtst bij het correct voorspellen van de achtergehouden geschiedenis kwam. De eerdere geschiedenis wordt aan elke methode doorgegeven en het resultaat wordt vergeleken met de werkelijke waarden om de methode te vinden die er het dichtst bij in de buurt kwam. Die automatisch gekozen methode krijgt dan alle geschiedenis om de voorspelling te produceren. Bekijk deze blog voor meer informatie over de modelselectie https://smartcorp.com/uncategorized/statistical-forecasting-how-automatic-method-selection-works/

Voor de meeste tijdreeksen kan dit proces trends, seizoensgebondenheid en gemiddeld volume nauwkeurig vastleggen. Maar soms komt een gekozen methode wiskundig het dichtst in de buurt van het voorspellen van de achtergehouden geschiedenis, maar projecteert deze niet op een logische manier. Dat betekent dat de door het systeem geselecteerde methode niet de beste is en voor sommigen "moeilijk te voorspellen"

 

Moeilijk te voorspellen items

Moeilijk te voorspellen items kunnen grote, onvoorspelbare pieken in de vraag hebben, of meestal geen vraag maar willekeurige onregelmatige pieken, of ongebruikelijke recente activiteit. Ruis in de gegevens dwaalt soms willekeurig omhoog of omlaag, en de geautomatiseerde best-pick-methode kan een op hol geslagen trend of een nulpunt voorspellen. Het zal het slechter doen dan gezond verstand en in een klein percentage van een redelijk gevarieerde groep items. U moet deze gevallen dus identificeren en reageren door de prognose te negeren of de invoer van de prognose te wijzigen.

 

Hoe de uitzonderingen te vinden

De beste werkwijze is om de voorspelde items te filteren of te sorteren om de items te identificeren waarvan de som van de prognose voor het volgende jaar aanzienlijk afwijkt van de overeenkomstige geschiedenis van vorig jaar. De prognosesom kan veel lager zijn dan de historie of andersom. Gebruik de meegeleverde statistieken om deze items te identificeren; vervolgens kunt u ervoor kiezen om overschrijvingen toe te passen op de prognose of de prognose-instellingen te wijzigen.

 

Hoe de uitzonderingen op te lossen

Wanneer de voorspelling vreemd lijkt, zal een middelingsmethode, zoals Single Exponential Smoothing of zelfs een eenvoudig gemiddelde met behulp van Freestyle, vaak een redelijkere voorspelling opleveren. Als de trend mogelijk geldig is, kunt u alleen seizoensmethoden verwijderen om een onjuist seizoensresultaat te voorkomen. Of doe het tegenovergestelde en gebruik alleen seizoensmethoden als seizoensgebondenheid wordt verwacht maar niet was geprojecteerd in de standaardprognose. U kunt de wat-als-functies gebruiken om een onbeperkt aantal prognoses te maken, te evalueren en te vergelijken en de instellingen verder te verfijnen totdat u vertrouwd bent met de prognose.

Het opschonen van de geschiedenis, met of zonder wijziging van de automatische methodeselectie, is ook effectief bij het produceren van redelijke voorspellingen. U kunt prognoseparameters insluiten om de hoeveelheid geschiedenis die wordt gebruikt om die items te voorspellen of het aantal perioden dat aan het algoritme is doorgegeven, te verminderen, zodat eerdere, verouderde geschiedenis niet langer in aanmerking wordt genomen. U kunt pieken of dalen in de vraaggeschiedenis bewerken die bekende afwijkingen zijn, zodat ze de uitkomst niet beïnvloeden. U kunt ook samenwerken met het Smart-team om automatische detectie en verwijdering van uitschieters te implementeren, zodat gegevens voordat ze worden voorspeld al zijn opgeschoond van deze afwijkingen.

Als de vraag echt intermitterend is, wordt het bijna onmogelijk om "nauwkeurig" per periode te voorspellen. Als een level-loading-gemiddelde niet acceptabel is, kan het effectief zijn om het artikel af te handelen door een voorraadbeleid in te stellen met een doorlooptijdprognose. U kunt er ook voor kiezen om 'hetzelfde als vorig jaar'-modellen te gebruiken die, hoewel ze niet gevoelig zijn voor nauwkeurigheid, algemeen worden geaccepteerd door het bedrijf gezien de alternatieve prognoses.

Ten slotte, als het item zo recent is geïntroduceerd dat de algoritmen niet genoeg input hebben om nauwkeurig te voorspellen, is een eenvoudige gemiddelde of handmatige voorspelling wellicht het beste. U kunt nieuwe items identificeren door te filteren op het aantal historische perioden.

 

Handmatige selectie van methoden

Zodra u rijen hebt geïdentificeerd waar de prognose niet logisch is voor het menselijk oog, kunt u een kleinere subset van alle methoden kiezen om de prognoserun toe te laten en te vergelijken met de geschiedenis. Met Smart kunt u een beperkte set methoden gebruiken voor slechts één prognoserun of de beperkte set insluiten om te gebruiken voor alle prognoseruns in de toekomst. Verschillende methoden zullen de geschiedenis op verschillende manieren in de toekomst projecteren. Als u een idee heeft van hoe elk werkt, kunt u kiezen welke u wilt toestaan.

 

Vertrouw op uw prognosetool

Hoe meer u Slimme periode-over-periode gebruikt om uw beslissingen over hoe te voorspellen en welke historische gegevens u in overweging moet nemen, vast te leggen, hoe minder vaak u uitzonderingen zult tegenkomen, zoals beschreven in deze blog. Het invoeren van prognoseparameters is een beheersbare taak wanneer u begint met kritieke items of items met een hoge impact. Zelfs als u geen handmatige beslissingen over prognosemethoden insluit, wordt de prognose elke periode opnieuw uitgevoerd met nieuwe gegevens. Dus een item met een oneven resultaat vandaag kan in de loop van de tijd gemakkelijk voorspelbaar worden.

 

 

Software voor vraagplanning en voorraadoptimalisatie implementeren met de juiste gegevens

Gegevensverificatie en -validatie zijn essentieel voor het succes van de implementatie van software die statistische analyse van gegevens uitvoert, zoals Smart IP&O. Dit artikel beschrijft het probleem en dient als een praktische gids om het werk goed te doen, vooral voor de gebruiker van de nieuwe applicatie.

Hoe minder ervaring uw organisatie heeft met het valideren van historische transacties of artikelstamkenmerken, hoe waarschijnlijker het is dat er problemen of fouten zijn opgetreden bij het invoeren van gegevens in het ERP die tot nu toe onopgemerkt zijn gebleven. De 'garbage in, garbage out'-regel betekent dat u prioriteit moet geven aan deze stap van het software-onboardingproces, anders loopt u het risico vertraging op te lopen en mogelijk geen ROI te genereren.

De beste persoon om te bevestigen dat gegevens in uw ERP correct zijn ingevoerd, is uiteindelijk de persoon die de business kent en bijvoorbeeld kan beweren “dit onderdeel behoort niet tot die productgroep”. Dat is meestal dezelfde persoon die Smart opent en gebruikt. Maar ook een databasebeheerder of IT-support kan een sleutelrol spelen door te kunnen zeggen: “Dit onderdeel is afgelopen december door Jane Smith aan die productgroep toegewezen.” Ervoor zorgen dat gegevens correct zijn, is misschien geen vast onderdeel van uw dagelijkse werk, maar kan worden opgesplitst in beheersbare kleine taken waarvoor een goede projectmanager tijd en middelen zal uittrekken.

De softwareleverancier voor vraagplanning die de gegevens ontvangt, speelt ook een rol. Ze zullen bevestigen dat de onbewerkte gegevens zonder problemen zijn opgenomen. De leverancier kan ook afwijkingen in de onbewerkte gegevensbestanden identificeren die wijzen op de noodzaak van validatie. Maar vertrouwen op de softwareleverancier om u gerust te stellen dat de gegevens er goed uitzien, is niet genoeg. U wilt na de livegang niet ontdekken dat u de output niet kunt vertrouwen omdat sommige gegevens "niet kloppen".

Elke stap in de gegevensstroom heeft verificatie en validatie nodig.  Verificatie betekent dat de gegevens in de ene stap nog steeds hetzelfde zijn nadat ze naar de volgende stap zijn gegaan. Validatie betekent dat de gegevens correct en bruikbaar zijn voor analyse

De meest voorkomende gegevensstroom ziet er als volgt uit:

Software voor vraagplanning en voorraadoptimalisatie implementeren met de juiste dataset

Minder vaak wordt de eerste stap tussen ERP-stamgegevens en de gekoppelde bestanden soms overgeslagen, waarbij bestanden niet als interface worden gebruikt. In plaats daarvan is een API die is gebouwd door IT of de leverancier van software voor inventarisoptimalisatie verantwoordelijk voor het rechtstreeks schrijven van gegevens vanuit de ERP naar de gespiegelde database in de cloud. De leverancier zou samenwerken met IT om te bevestigen dat de API werkt zoals verwacht. Maar zelfs in dat geval kan de eerste validatiestap nog steeds worden uitgevoerd. Na opname van de gegevens kan de leverancier de gespiegelde gegevens beschikbaar maken in bestanden voor de DBA/IT-verificatie en bedrijfsvalidatie.

De bevestiging dat de gespiegelde data in de cloud de stroom naar de applicatie voltooit, is de verantwoordelijkheid van de leverancier van software-as-a-service. SaaS-leveranciers testen voortdurend of de software correct werkt tussen de front-end-applicatie die hun abonnees zien en de back-end-gegevens in de clouddatabase. Als de abonnees nog steeds denken dat de gegevens niet kloppen in de applicatie, zelfs nadat ze de interfacing-bestanden hebben gevalideerd voordat ze live gaan, is dat een probleem dat ze moeten bespreken met de klantenondersteuning van de leverancier.

Hoe de interfacing-bestanden ook worden verkregen, het grootste deel van de verificatie en validatie komt toe aan de projectmanager en zijn team. Ze moeten een test van de interfacing-bestanden uitvoeren om te bevestigen:

  1. Ze matchen de gegevens in het ERP. En dat alle en alleen de ERP-gegevens die nodig waren om te extraheren voor gebruik in de applicatie, werden geëxtraheerd.
  2. Niets "springt eruit" voor het bedrijf als onjuist voor elk van de soorten informatie in de gegevens
  3. Ze zijn geformatteerd zoals verwacht.

 

DBA/IT Verificatie Taken

  1. Test het uittreksel:

IT's verificatiestap kan worden gedaan met verschillende tools, waarbij bestanden worden vergeleken of bestanden worden terug geïmporteerd naar de database als tijdelijke tabellen en ze worden samengevoegd met de originele gegevens om een match te bevestigen. IT kan afhankelijk zijn van een query om de gevraagde gegevens naar een bestand te halen, maar dat bestand kan niet overeenkomen. Het bestaan van scheidingstekens of regelretouren binnen de gegevenswaarden kan ertoe leiden dat een bestand afwijkt van de oorspronkelijke databasetabel. Het is omdat het bestand sterk afhankelijk is van scheidingstekens en regelterugloop om velden en records te identificeren, terwijl de tabel niet afhankelijk is van die tekens om de structuur te definiëren.

  1. Geen slechte karakters:

Vrije gegevensinvoervelden in het ERP, zoals productbeschrijvingen, kunnen soms zelf regeleinden, tabs, komma's en/of dubbele aanhalingstekens bevatten die de structuur van het uitvoerbestand kunnen beïnvloeden. Regelretouren mogen niet worden toegestaan in waarden die naar een bestand worden geëxtraheerd. Tekens die gelijk zijn aan het scheidingsteken moeten tijdens het extraheren worden verwijderd of er moet een ander scheidingsteken worden gebruikt.

Tip: als komma's het bestandsscheidingsteken zijn, kunnen getallen groter dan 999 niet worden geëxtraheerd met een komma. Gebruik "1000" in plaats van "1000".

  1. Bevestig de filters:

De andere manier waarop query-extracten onverwachte resultaten kunnen opleveren, is als voorwaarden voor de query onjuist zijn ingevoerd. De eenvoudigste manier om verkeerde "where-clausules" te voorkomen, is door ze niet te gebruiken. Extraheer alle gegevens en laat de leverancier enkele records eruit filteren volgens de regels die door het bedrijf zijn verstrekt. Als dit leidt tot uittrekbestanden die zo groot zijn dat er te veel rekentijd wordt besteed aan de gegevensuitwisseling, moet het DBA/IT-team met het bedrijf overleggen om precies te bevestigen welke filters op de gegevens kunnen worden toegepast om te voorkomen dat records worden uitgewisseld die geen betekenis hebben voor de gegevensuitwisseling. sollicitatie.

Tip: Houd er rekening mee dat actief/inactief of informatie over de levenscyclus van items niet mag worden gebruikt om records uit te filteren. Deze informatie moet naar de applicatie worden gestuurd, zodat deze weet wanneer een item inactief wordt.

  1. Wees consistent:

Het extractieproces moet elke keer dat het wordt uitgevoerd, bestanden met een consistent formaat produceren. Bestandsnamen, veldnamen en positie, scheidingsteken en Excel-bladnaam als Excel wordt gebruikt, numerieke formaten en datumnotaties, en het gebruik van aanhalingstekens rond waarden mogen nooit verschillen van de ene uitvoering van het extract van dag tot dag. Voor elke uitvoering van het uittreksel moet een hands-off rapport of opgeslagen procedure worden opgesteld en gebruikt.

 

Zakelijke validatie achtergrond

Hieronder vindt u een uitsplitsing van elke validatiestap in overwegingen, met name in het geval dat de leverancier een sjabloonformaat heeft verstrekt voor de gekoppelde bestanden, waarbij elk type informatie in een eigen bestand wordt verstrekt. Bestanden die vanuit uw ERP naar Smart worden verzonden, zijn geformatteerd zodat ze eenvoudig vanuit het ERP kunnen worden geëxporteerd. Dat soort formaat maakt de vergelijking terug naar het ERP een relatief eenvoudige taak voor IT, maar het kan moeilijker zijn voor het bedrijf om te interpreteren. De beste praktijk is om de ERP-gegevens te manipuleren, hetzij door draaitabellen of iets dergelijks in een spreadsheet te gebruiken. IT kan helpen door geherformatteerde gegevensbestanden aan te bieden voor beoordeling door het bedrijf.

Als u zich wilt verdiepen in de interfacing-bestanden, moet u ze begrijpen. De leverancier zal een nauwkeurig sjabloon leveren, maar over het algemeen bestaan de interfacebestanden uit drie typen: catalogusgegevens, artikelkenmerken en transactiegegevens.

  • Catalogusgegevens bevatten identifiers en hun attributen. Identificaties zijn typisch voor producten, locaties (dit kunnen fabrieken of magazijnen zijn), uw klanten en uw leveranciers.
  • Artikelkenmerken bevatten informatie over producten op locaties die nodig zijn voor analyse van de product- en locatiecombinatie. Zoals:
    • Huidig bevoorradingsbeleid in de vorm van een Min en Max, Bestelpunt, of Herzieningsperiode en Bestelling tot waarde, of Veiligheidsvoorraad
    • Toewijzing primaire leverancier en nominale doorlooptijd en kosten per eenheid van die leverancier
    • Vereisten voor de bestelhoeveelheid, zoals de minimale bestelhoeveelheid, de grootte van de productieserie of veelvouden van bestellingen
    • Actieve/inactieve status van de combinatie product/locatie of vlaggen die de status ervan in de levenscyclus aangeven, zoals pre-obsolete
    • Attributen voor groepering of filtering, zoals toegewezen inkoper/planner of productcategorie
    • Actuele voorraadinformatie zoals bij de hand, op bestelling en in transithoeveelheden.
  • Transactiegegevens bevatten verwijzingen naar identifiers samen met datums en hoeveelheden. Zoals de verkochte hoeveelheid in een verkooporder van een product, op een locatie, voor een klant, op een datum. Of hoeveelheid geplaatst op inkooporder van een product, naar een locatie, van een leverancier, op een datum. Of hoeveelheid gebruikt in een werkorder van een componentproduct op een locatie op een datum.

 

Catalogusgegevens valideren

Als u eerst de catalogusgegevens bekijkt, hebt u mogelijk catalogusbestanden die lijken op deze voorbeelden:

Software voor vraagplanning en voorraadoptimalisatie implementeren 111

Locatie-ID Beschrijving Regio Bron Locatie  enz…
Locatie1 Eerste locatie noorden    
Locatie2 Tweede locatie zuiden Locatie1  
Locatie3 Derde locatie zuiden Locatie1  
…enz…        

 

Klantidentificatie Beschrijving Verkoper Verzenden vanaf locatie  enz…
Klant1 Eerste klant Jane Locatie1  
Klant2 Tweede klant Jane Locatie3  
Klant3 Derde klant Jo Locatie2  
…enz…        

 

Identificatie van de leverancier Beschrijving Toestand Typische doorlooptijddagen  enz…
Leverancier1 Eerste leverancier Actief 18  
Leverancier2 Tweede leverancier Actief 60  
Leverancier3 Derde leverancier Actief 5  
…enz…        

 

1: Controleer op een redelijk aantal catalogusrecords

Open elk bestand met catalogusgegevens in een spreadsheetprogramma zoals Google Spreadsheets of MS Excel. Beantwoord deze vragen:

  1. Is het recordaantal in de marge? Als u ongeveer 50.000 producten heeft, zouden er niet slechts 10.000 rijen in het bestand moeten staan.
  2. Als het een kort bestand is, bijvoorbeeld het locatiebestand, kunt u precies bevestigen dat alle verwachte identifiers erin staan.
  3. Filter op elke attribuutwaarde en bevestig nogmaals dat het aantal records met die attribuutwaarde zinvol is.

2: Controleer de juistheid van waarden in elk attribuutveld

Iemand die weet wat de producten zijn en wat de groepen betekenen, moet de tijd nemen om te bevestigen dat het echt goed is, voor alle attributen van alle catalogusgegevens.

Dus als uw productbestand de attributen bevat zoals in het bovenstaande voorbeeld, zou u filteren op Status van Actief en controleren of alle resulterende producten daadwerkelijk actief zijn. Filter vervolgens op Status van Inactief en controleer of alle resulterende producten daadwerkelijk inactief zijn. Filter vervolgens op de eerste groepswaarde en bevestig dat alle resulterende producten in die groep zitten. Herhaal dit voor Groep2 en Groep3, enz. Herhaal dit voor elk attribuut in elk bestand.

Het kan helpen om deze validatie uit te voeren met een vergelijking met een reeds bestaand en vertrouwd rapport. Als u om welke reden dan ook een andere spreadsheet heeft die producten per groep weergeeft, kunt u de interfacing-bestanden daarmee vergelijken. Mogelijk moet u vertrouwd raken met de functie VERT.ZOEKEN die helpt bij het vergelijken van spreadsheets.

Artikelkenmerkgegevens valideren

1: Controleer op een redelijk aantal itemrecords

De bevestiging van de itemattribuutgegevens is vergelijkbaar met de catalogusgegevens. Bevestig dat het aantal product/locatie-combinaties logisch is in totaal en voor elk van de unieke itemkenmerken, één voor één. Dit is een voorbeeldbestand met artikelgegevens:

Software voor vraagplanning en voorraadoptimalisatie implementeren 22

2: Zoek en verklaar rare getallen in het itembestand

Er zijn meestal veel numerieke waarden in de itemattributen, dus "rare" cijfers verdienen een beoordeling. Om gegevens voor een numeriek attribuut in een willekeurig bestand te valideren, zoekt u waar het nummer is:

  • Ontbreekt volledig
  • Gelijk aan nul
  • Minder dan nul
  • Meer dan de meeste anderen, of minder dan de meeste anderen (sorteer op die kolom)
  • Helemaal geen nummer, terwijl het zou moeten zijn

Een speciale overweging van bestanden die geen catalogusbestanden zijn, is dat ze mogelijk niet de beschrijvingen van de producten en locaties tonen, alleen hun identifiers, die voor u betekenisloos kunnen zijn. U kunt kolommen invoegen voor de product- en locatiebeschrijvingen die u gewend bent te zien en deze in de spreadsheet invullen om u te helpen bij uw werk. De VLOOKUP-functie werkt hier ook voor. Of u nu wel of niet een ander rapport hebt om het Items-bestand mee te vergelijken, u hebt de catalogusbestanden voor Producten en Locatie met zowel de identifier als de beschrijving voor elke rij.

3: Controle ter plaatse

Als u gefrustreerd bent dat er te veel attribuutwaarden zijn om binnen een redelijke tijd handmatig te controleren, is steekproefsgewijze controle een oplossing. Het kan worden gedaan op een manier die waarschijnlijk problemen oppikt. Haal voor elk attribuut een lijst op met de unieke waarden in elke kolom. U kunt een kolom naar een nieuw blad kopiëren en vervolgens de functie Duplicaten verwijderen gebruiken om de lijst met mogelijke waarden te bekijken. Met het:

  1. Bevestig dat er geen attribuutwaarden aanwezig zijn die dat niet zouden moeten zijn.
  2. Het kan moeilijker zijn om te onthouden welke attribuutwaarden ontbreken die er zouden moeten zijn, dus het kan helpen om naar een andere bron te kijken om u eraan te herinneren. Als bijvoorbeeld Groep1 tot en met Groep12 aanwezig zijn, kunt u een andere bron controleren om te onthouden of dit alle mogelijke groepen zijn. Zelfs als het niet vereist is voor de interfacing-bestanden voor de applicatie, kan het voor IT gemakkelijk zijn om een lijst te extraheren van alle mogelijke groepen die in uw ERP staan, die u kunt gebruiken voor de validatie. Als u extra of ontbrekende waarden vindt die u niet verwacht, breng dan een voorbeeld van elk naar IT om te onderzoeken.
  3. Sorteer alfabetisch en scan naar beneden om te zien of twee waarden vergelijkbaar zijn, maar enigszins verschillen, misschien alleen in interpunctie, wat zou kunnen betekenen dat in één record de attribuutgegevens onjuist zijn ingevoerd.

Controleer voor elk type item, misschien één van elke productgroep en/of locatie, of alle attributen in elk bestand correct zijn of op zijn minst een sanity check doorstaan. Hoe meer u een breed scala aan items kunt controleren, hoe kleiner de kans dat u problemen zult hebben nadat ze live zijn gegaan.

 

Transactiegegevens valideren

Transactiebestanden kunnen allemaal een vergelijkbare indeling hebben:

Software voor vraagplanning en voorraadoptimalisatie implementeren 333

 

1: Vind rare getallen in elk transactiebestand en leg ze uit

Deze moeten worden gecontroleerd op "rare" getallen in het veld Hoeveelheid. Dan kunt u doorgaan naar:

  1. Filter op datums buiten het verwachte bereik of ontbrekende verwachte datums.
  2. Zoek waar transactie-ID's en regelnummers ontbreken. Dat zouden ze niet moeten zijn.
  3. Als er meer dan één record is voor een bepaalde combinatie van transactie-ID en transactieregelnummer, is dat dan een vergissing? Anders gezegd, moeten dubbele records hun hoeveelheden bij elkaar optellen of is dat dubbeltelling?

2: Sanity check opgetelde hoeveelheden

Voer een gezond verstand uit door te filteren op een bepaald product waarmee u bekend bent, en filter op een herkenbare periode zoals vorige maand of vorig jaar, en som de hoeveelheden op. Is dat totale bedrag wat u voor dat product in dat tijdsbestek verwachtte? Als u informatie heeft over het totale gebruik buiten een locatie, kunt u de gegevens op die manier splitsen om de hoeveelheden op te tellen en te vergelijken met wat u verwacht. Draaitabellen zijn handig voor verificatie van transactiegegevens. Met hen kunt u de gegevens bekijken zoals:

Product Jaar Hoeveelheid Totaal
Prod1 2022 9,034
Prod1 2021 8,837
enz    

 

Het jaarlijkse totaal van de producten kan eenvoudig te controleren zijn als u de producten goed kent. Of u kunt VERT.ZOEKEN gebruiken om attributen toe te voegen, zoals een productgroep, en daarop draaien om een hoger niveau te zien dat vertrouwder is:

Productgroep Jaar Hoeveelheid Totaal
Groep 1 2022 22,091
Groep2 2021 17,494
enz    

 

3: Sanity check telling van records

Het kan helpen om een aantal transacties weer te geven in plaats van een som van de hoeveelheden, vooral voor inkoopordergegevens. Zoals:

Product Jaar Aantal PO's
Prod1 2022 4
Prod1 2021 1
enz    

 

En/of dezelfde samenvatting op een hoger niveau, zoals:

Productgroep Jaar Aantal PO's
Groep 1 2022 609
Groep2 2021 40
enz    

 

4: Controle ter plaatse

Steekproefsgewijs controleren van de juistheid van een enkele transactie, voor elk type artikel en elk type transactie, voltooit de due diligence. Besteed speciale aandacht aan welke datum aan de transactie is gekoppeld en of deze geschikt is voor de analyse. Datums kunnen een aanmaakdatum zijn, zoals de datum waarop een klant een bestelling bij u heeft geplaatst, of een beloftedatum, zoals de datum waarop u verwachtte te leveren op de bestelling van de klant op het moment dat u deze aanmaakte, of een uitvoeringsdatum, wanneer u daadwerkelijk heeft geleverd op de bestelling. Soms wordt een beloftedatum gewijzigd dagen nadat de bestelling is gemaakt als deze niet kan worden gehaald. Zorg ervoor dat de gebruiksdatum de werkelijke vraag van de klant naar het product zo goed mogelijk weergeeft.

Wat te doen met slechte gegevens 

Als er weinig of eenmalig foutieve invoer is, kunt u de ERP-records met de hand bewerken zodra ze worden gevonden, waardoor uw cataloguskenmerken worden opgeschoond, zelfs nadat de applicatie live is gegaan. Maar als grote hoeveelheden attributen of transactiehoeveelheden niet kloppen, kan dit een intern project ertoe aanzetten om gegevens opnieuw correct in te voeren en mogelijk om het proces te wijzigen of te documenteren dat moet worden gevolgd wanneer nieuwe records in uw ERP worden ingevoerd.

Er moet voor worden gezorgd dat de implementatie van de SaaS-applicatie niet te lang op zich laat wachten tijdens het wachten op schone attributen. Verdeel het werk in brokken en gebruik de applicatie om eerst de opgeschoonde gegevens te analyseren, zodat het gegevensopschoningsproject parallel loopt met het halen van waarde uit de nieuwe applicatie.

 

 

Statistische prognoses: hoe automatische methodeselectie werkt in Smart IP&O

Smart IP&O biedt geautomatiseerde statistische prognoses die de juiste prognosemethode selecteren die de gegevens het beste voorspelt. Het doet dit voor elke tijdreeks in de dataset. Deze blog zal leken helpen begrijpen hoe de voorspellingsmethoden automatisch worden gekozen.

Smart stelt vele methoden beschikbaar, waaronder enkele en dubbele exponentiële afvlakking, lineair en eenvoudig voortschrijdend gemiddelde, en Winters-modellen. Elk model is ontworpen om een ander soort patroon vast te leggen. De criteria om automatisch één statistische methode uit een reeks keuzes te kiezen, zijn gebaseerd op welke methode het dichtst bij het correct voorspellen van de achtergehouden geschiedenis kwam.

Eerdere vraaggeschiedenis wordt aan elke methode doorgegeven en het resultaat wordt vergeleken met de werkelijke waarden om de methode te vinden die er in het algemeen het dichtst bij kwam. Die "winnende" automatisch gekozen methode krijgt dan alle geschiedenis voor dat item om de prognose te produceren.

De algehele aard van het vraagpatroon voor het item wordt vastgelegd door verschillende delen van de geschiedenis vast te houden, zodat een incidentele uitbijter de keuze van de methode niet onnodig beïnvloedt. U kunt het visualiseren met behulp van het onderstaande diagram, waarin elke rij een 3-periodevoorspelling in de uitgehouden geschiedenis vertegenwoordigt, gebaseerd op verschillende hoeveelheden van de rode eerdere geschiedenis. De varianties van elke pass worden samen gemiddeld om de algemene rangschikking van de methode ten opzichte van alle andere methoden te bepalen.

App voor automatische prognoses en statistische prognoses

Voor de meeste tijdreeksen kan dit proces nauwkeurig trends, seizoensinvloeden en gemiddeld volume vastleggen. Maar soms komt een gekozen methode wiskundig het dichtst in de buurt van het voorspellen van de achtergehouden geschiedenis, maar projecteert deze niet op een logische manier.

Gebruikers kunnen dit corrigeren door de uitzonderingsrapporten en filterfuncties van het systeem te gebruiken om items te identificeren die een beoordeling verdienen. Vervolgens kunnen ze de automatische prognosemethoden configureren waarmee ze voor dat item in aanmerking willen komen.