Software voor vraagplanning en voorraadoptimalisatie implementeren met de juiste gegevens

Gegevensverificatie en -validatie zijn essentieel voor het succes van de implementatie van software die statistische analyse van gegevens uitvoert, zoals Smart IP&O. Dit artikel beschrijft het probleem en dient als een praktische gids om het werk goed te doen, vooral voor de gebruiker van de nieuwe applicatie.

Hoe minder ervaring uw organisatie heeft met het valideren van historische transacties of artikelstamkenmerken, hoe waarschijnlijker het is dat er problemen of fouten zijn opgetreden bij het invoeren van gegevens in het ERP die tot nu toe onopgemerkt zijn gebleven. De 'garbage in, garbage out'-regel betekent dat u prioriteit moet geven aan deze stap van het software-onboardingproces, anders loopt u het risico vertraging op te lopen en mogelijk geen ROI te genereren.

De beste persoon om te bevestigen dat gegevens in uw ERP correct zijn ingevoerd, is uiteindelijk de persoon die de business kent en bijvoorbeeld kan beweren “dit onderdeel behoort niet tot die productgroep”. Dat is meestal dezelfde persoon die Smart opent en gebruikt. Maar ook een databasebeheerder of IT-support kan een sleutelrol spelen door te kunnen zeggen: “Dit onderdeel is afgelopen december door Jane Smith aan die productgroep toegewezen.” Ervoor zorgen dat gegevens correct zijn, is misschien geen vast onderdeel van uw dagelijkse werk, maar kan worden opgesplitst in beheersbare kleine taken waarvoor een goede projectmanager tijd en middelen zal uittrekken.

De softwareleverancier voor vraagplanning die de gegevens ontvangt, speelt ook een rol. Ze zullen bevestigen dat de onbewerkte gegevens zonder problemen zijn opgenomen. De leverancier kan ook afwijkingen in de onbewerkte gegevensbestanden identificeren die wijzen op de noodzaak van validatie. Maar vertrouwen op de softwareleverancier om u gerust te stellen dat de gegevens er goed uitzien, is niet genoeg. U wilt na de livegang niet ontdekken dat u de output niet kunt vertrouwen omdat sommige gegevens "niet kloppen".

Elke stap in de gegevensstroom heeft verificatie en validatie nodig.  Verificatie betekent dat de gegevens in de ene stap nog steeds hetzelfde zijn nadat ze naar de volgende stap zijn gegaan. Validatie betekent dat de gegevens correct en bruikbaar zijn voor analyse

De meest voorkomende gegevensstroom ziet er als volgt uit:

Software voor vraagplanning en voorraadoptimalisatie implementeren met de juiste dataset

Minder vaak wordt de eerste stap tussen ERP-stamgegevens en de gekoppelde bestanden soms overgeslagen, waarbij bestanden niet als interface worden gebruikt. In plaats daarvan is een API die is gebouwd door IT of de leverancier van software voor inventarisoptimalisatie verantwoordelijk voor het rechtstreeks schrijven van gegevens vanuit de ERP naar de gespiegelde database in de cloud. De leverancier zou samenwerken met IT om te bevestigen dat de API werkt zoals verwacht. Maar zelfs in dat geval kan de eerste validatiestap nog steeds worden uitgevoerd. Na opname van de gegevens kan de leverancier de gespiegelde gegevens beschikbaar maken in bestanden voor de DBA/IT-verificatie en bedrijfsvalidatie.

De bevestiging dat de gespiegelde data in de cloud de stroom naar de applicatie voltooit, is de verantwoordelijkheid van de leverancier van software-as-a-service. SaaS-leveranciers testen voortdurend of de software correct werkt tussen de front-end-applicatie die hun abonnees zien en de back-end-gegevens in de clouddatabase. Als de abonnees nog steeds denken dat de gegevens niet kloppen in de applicatie, zelfs nadat ze de interfacing-bestanden hebben gevalideerd voordat ze live gaan, is dat een probleem dat ze moeten bespreken met de klantenondersteuning van de leverancier.

Hoe de interfacing-bestanden ook worden verkregen, het grootste deel van de verificatie en validatie komt toe aan de projectmanager en zijn team. Ze moeten een test van de interfacing-bestanden uitvoeren om te bevestigen:

  1. Ze matchen de gegevens in het ERP. En dat alle en alleen de ERP-gegevens die nodig waren om te extraheren voor gebruik in de applicatie, werden geëxtraheerd.
  2. Niets "springt eruit" voor het bedrijf als onjuist voor elk van de soorten informatie in de gegevens
  3. Ze zijn geformatteerd zoals verwacht.

 

DBA/IT Verificatie Taken

  1. Test het uittreksel:

IT's verificatiestap kan worden gedaan met verschillende tools, waarbij bestanden worden vergeleken of bestanden worden terug geïmporteerd naar de database als tijdelijke tabellen en ze worden samengevoegd met de originele gegevens om een match te bevestigen. IT kan afhankelijk zijn van een query om de gevraagde gegevens naar een bestand te halen, maar dat bestand kan niet overeenkomen. Het bestaan van scheidingstekens of regelretouren binnen de gegevenswaarden kan ertoe leiden dat een bestand afwijkt van de oorspronkelijke databasetabel. Het is omdat het bestand sterk afhankelijk is van scheidingstekens en regelterugloop om velden en records te identificeren, terwijl de tabel niet afhankelijk is van die tekens om de structuur te definiëren.

  1. Geen slechte karakters:

Vrije gegevensinvoervelden in het ERP, zoals productbeschrijvingen, kunnen soms zelf regeleinden, tabs, komma's en/of dubbele aanhalingstekens bevatten die de structuur van het uitvoerbestand kunnen beïnvloeden. Regelretouren mogen niet worden toegestaan in waarden die naar een bestand worden geëxtraheerd. Tekens die gelijk zijn aan het scheidingsteken moeten tijdens het extraheren worden verwijderd of er moet een ander scheidingsteken worden gebruikt.

Tip: als komma's het bestandsscheidingsteken zijn, kunnen getallen groter dan 999 niet worden geëxtraheerd met een komma. Gebruik "1000" in plaats van "1000".

  1. Bevestig de filters:

De andere manier waarop query-extracten onverwachte resultaten kunnen opleveren, is als voorwaarden voor de query onjuist zijn ingevoerd. De eenvoudigste manier om verkeerde "where-clausules" te voorkomen, is door ze niet te gebruiken. Extraheer alle gegevens en laat de leverancier enkele records eruit filteren volgens de regels die door het bedrijf zijn verstrekt. Als dit leidt tot uittrekbestanden die zo groot zijn dat er te veel rekentijd wordt besteed aan de gegevensuitwisseling, moet het DBA/IT-team met het bedrijf overleggen om precies te bevestigen welke filters op de gegevens kunnen worden toegepast om te voorkomen dat records worden uitgewisseld die geen betekenis hebben voor de gegevensuitwisseling. sollicitatie.

Tip: Houd er rekening mee dat actief/inactief of informatie over de levenscyclus van items niet mag worden gebruikt om records uit te filteren. Deze informatie moet naar de applicatie worden gestuurd, zodat deze weet wanneer een item inactief wordt.

  1. Wees consistent:

Het extractieproces moet elke keer dat het wordt uitgevoerd, bestanden met een consistent formaat produceren. Bestandsnamen, veldnamen en positie, scheidingsteken en Excel-bladnaam als Excel wordt gebruikt, numerieke formaten en datumnotaties, en het gebruik van aanhalingstekens rond waarden mogen nooit verschillen van de ene uitvoering van het extract van dag tot dag. Voor elke uitvoering van het uittreksel moet een hands-off rapport of opgeslagen procedure worden opgesteld en gebruikt.

 

Zakelijke validatie achtergrond

Hieronder vindt u een uitsplitsing van elke validatiestap in overwegingen, met name in het geval dat de leverancier een sjabloonformaat heeft verstrekt voor de gekoppelde bestanden, waarbij elk type informatie in een eigen bestand wordt verstrekt. Bestanden die vanuit uw ERP naar Smart worden verzonden, zijn geformatteerd zodat ze eenvoudig vanuit het ERP kunnen worden geëxporteerd. Dat soort formaat maakt de vergelijking terug naar het ERP een relatief eenvoudige taak voor IT, maar het kan moeilijker zijn voor het bedrijf om te interpreteren. De beste praktijk is om de ERP-gegevens te manipuleren, hetzij door draaitabellen of iets dergelijks in een spreadsheet te gebruiken. IT kan helpen door geherformatteerde gegevensbestanden aan te bieden voor beoordeling door het bedrijf.

Als u zich wilt verdiepen in de interfacing-bestanden, moet u ze begrijpen. De leverancier zal een nauwkeurig sjabloon leveren, maar over het algemeen bestaan de interfacebestanden uit drie typen: catalogusgegevens, artikelkenmerken en transactiegegevens.

  • Catalogusgegevens bevatten identifiers en hun attributen. Identificaties zijn typisch voor producten, locaties (dit kunnen fabrieken of magazijnen zijn), uw klanten en uw leveranciers.
  • Artikelkenmerken bevatten informatie over producten op locaties die nodig zijn voor analyse van de product- en locatiecombinatie. Zoals:
    • Huidig bevoorradingsbeleid in de vorm van een Min en Max, Bestelpunt, of Herzieningsperiode en Bestelling tot waarde, of Veiligheidsvoorraad
    • Toewijzing primaire leverancier en nominale doorlooptijd en kosten per eenheid van die leverancier
    • Vereisten voor de bestelhoeveelheid, zoals de minimale bestelhoeveelheid, de grootte van de productieserie of veelvouden van bestellingen
    • Actieve/inactieve status van de combinatie product/locatie of vlaggen die de status ervan in de levenscyclus aangeven, zoals pre-obsolete
    • Attributen voor groepering of filtering, zoals toegewezen inkoper/planner of productcategorie
    • Actuele voorraadinformatie zoals bij de hand, op bestelling en in transithoeveelheden.
  • Transactiegegevens bevatten verwijzingen naar identifiers samen met datums en hoeveelheden. Zoals de verkochte hoeveelheid in een verkooporder van een product, op een locatie, voor een klant, op een datum. Of hoeveelheid geplaatst op inkooporder van een product, naar een locatie, van een leverancier, op een datum. Of hoeveelheid gebruikt in een werkorder van een componentproduct op een locatie op een datum.

 

Catalogusgegevens valideren

Als u eerst de catalogusgegevens bekijkt, hebt u mogelijk catalogusbestanden die lijken op deze voorbeelden:

Software voor vraagplanning en voorraadoptimalisatie implementeren 111

Locatie-ID Beschrijving Regio Bron Locatie  enz…
Locatie1 Eerste locatie noorden    
Locatie2 Tweede locatie zuiden Locatie1  
Locatie3 Derde locatie zuiden Locatie1  
…enz…        

 

Klantidentificatie Beschrijving Verkoper Verzenden vanaf locatie  enz…
Klant1 Eerste klant Jane Locatie1  
Klant2 Tweede klant Jane Locatie3  
Klant3 Derde klant Jo Locatie2  
…enz…        

 

Identificatie van de leverancier Beschrijving Toestand Typische doorlooptijddagen  enz…
Leverancier1 Eerste leverancier Actief 18  
Leverancier2 Tweede leverancier Actief 60  
Leverancier3 Derde leverancier Actief 5  
…enz…        

 

1: Controleer op een redelijk aantal catalogusrecords

Open elk bestand met catalogusgegevens in een spreadsheetprogramma zoals Google Spreadsheets of MS Excel. Beantwoord deze vragen:

  1. Is het recordaantal in de marge? Als u ongeveer 50.000 producten heeft, zouden er niet slechts 10.000 rijen in het bestand moeten staan.
  2. Als het een kort bestand is, bijvoorbeeld het locatiebestand, kunt u precies bevestigen dat alle verwachte identifiers erin staan.
  3. Filter op elke attribuutwaarde en bevestig nogmaals dat het aantal records met die attribuutwaarde zinvol is.

2: Controleer de juistheid van waarden in elk attribuutveld

Iemand die weet wat de producten zijn en wat de groepen betekenen, moet de tijd nemen om te bevestigen dat het echt goed is, voor alle attributen van alle catalogusgegevens.

Dus als uw productbestand de attributen bevat zoals in het bovenstaande voorbeeld, zou u filteren op Status van Actief en controleren of alle resulterende producten daadwerkelijk actief zijn. Filter vervolgens op Status van Inactief en controleer of alle resulterende producten daadwerkelijk inactief zijn. Filter vervolgens op de eerste groepswaarde en bevestig dat alle resulterende producten in die groep zitten. Herhaal dit voor Groep2 en Groep3, enz. Herhaal dit voor elk attribuut in elk bestand.

Het kan helpen om deze validatie uit te voeren met een vergelijking met een reeds bestaand en vertrouwd rapport. Als u om welke reden dan ook een andere spreadsheet heeft die producten per groep weergeeft, kunt u de interfacing-bestanden daarmee vergelijken. Mogelijk moet u vertrouwd raken met de functie VERT.ZOEKEN die helpt bij het vergelijken van spreadsheets.

Artikelkenmerkgegevens valideren

1: Controleer op een redelijk aantal itemrecords

De bevestiging van de itemattribuutgegevens is vergelijkbaar met de catalogusgegevens. Bevestig dat het aantal product/locatie-combinaties logisch is in totaal en voor elk van de unieke itemkenmerken, één voor één. Dit is een voorbeeldbestand met artikelgegevens:

Software voor vraagplanning en voorraadoptimalisatie implementeren 22

2: Zoek en verklaar rare getallen in het itembestand

Er zijn meestal veel numerieke waarden in de itemattributen, dus "rare" cijfers verdienen een beoordeling. Om gegevens voor een numeriek attribuut in een willekeurig bestand te valideren, zoekt u waar het nummer is:

  • Ontbreekt volledig
  • Gelijk aan nul
  • Minder dan nul
  • Meer dan de meeste anderen, of minder dan de meeste anderen (sorteer op die kolom)
  • Helemaal geen nummer, terwijl het zou moeten zijn

Een speciale overweging van bestanden die geen catalogusbestanden zijn, is dat ze mogelijk niet de beschrijvingen van de producten en locaties tonen, alleen hun identifiers, die voor u betekenisloos kunnen zijn. U kunt kolommen invoegen voor de product- en locatiebeschrijvingen die u gewend bent te zien en deze in de spreadsheet invullen om u te helpen bij uw werk. De VLOOKUP-functie werkt hier ook voor. Of u nu wel of niet een ander rapport hebt om het Items-bestand mee te vergelijken, u hebt de catalogusbestanden voor Producten en Locatie met zowel de identifier als de beschrijving voor elke rij.

3: Controle ter plaatse

Als u gefrustreerd bent dat er te veel attribuutwaarden zijn om binnen een redelijke tijd handmatig te controleren, is steekproefsgewijze controle een oplossing. Het kan worden gedaan op een manier die waarschijnlijk problemen oppikt. Haal voor elk attribuut een lijst op met de unieke waarden in elke kolom. U kunt een kolom naar een nieuw blad kopiëren en vervolgens de functie Duplicaten verwijderen gebruiken om de lijst met mogelijke waarden te bekijken. Met het:

  1. Bevestig dat er geen attribuutwaarden aanwezig zijn die dat niet zouden moeten zijn.
  2. Het kan moeilijker zijn om te onthouden welke attribuutwaarden ontbreken die er zouden moeten zijn, dus het kan helpen om naar een andere bron te kijken om u eraan te herinneren. Als bijvoorbeeld Groep1 tot en met Groep12 aanwezig zijn, kunt u een andere bron controleren om te onthouden of dit alle mogelijke groepen zijn. Zelfs als het niet vereist is voor de interfacing-bestanden voor de applicatie, kan het voor IT gemakkelijk zijn om een lijst te extraheren van alle mogelijke groepen die in uw ERP staan, die u kunt gebruiken voor de validatie. Als u extra of ontbrekende waarden vindt die u niet verwacht, breng dan een voorbeeld van elk naar IT om te onderzoeken.
  3. Sorteer alfabetisch en scan naar beneden om te zien of twee waarden vergelijkbaar zijn, maar enigszins verschillen, misschien alleen in interpunctie, wat zou kunnen betekenen dat in één record de attribuutgegevens onjuist zijn ingevoerd.

Controleer voor elk type item, misschien één van elke productgroep en/of locatie, of alle attributen in elk bestand correct zijn of op zijn minst een sanity check doorstaan. Hoe meer u een breed scala aan items kunt controleren, hoe kleiner de kans dat u problemen zult hebben nadat ze live zijn gegaan.

 

Transactiegegevens valideren

Transactiebestanden kunnen allemaal een vergelijkbare indeling hebben:

Software voor vraagplanning en voorraadoptimalisatie implementeren 333

 

1: Vind rare getallen in elk transactiebestand en leg ze uit

Deze moeten worden gecontroleerd op "rare" getallen in het veld Hoeveelheid. Dan kunt u doorgaan naar:

  1. Filter op datums buiten het verwachte bereik of ontbrekende verwachte datums.
  2. Zoek waar transactie-ID's en regelnummers ontbreken. Dat zouden ze niet moeten zijn.
  3. Als er meer dan één record is voor een bepaalde combinatie van transactie-ID en transactieregelnummer, is dat dan een vergissing? Anders gezegd, moeten dubbele records hun hoeveelheden bij elkaar optellen of is dat dubbeltelling?

2: Sanity check opgetelde hoeveelheden

Voer een gezond verstand uit door te filteren op een bepaald product waarmee u bekend bent, en filter op een herkenbare periode zoals vorige maand of vorig jaar, en som de hoeveelheden op. Is dat totale bedrag wat u voor dat product in dat tijdsbestek verwachtte? Als u informatie heeft over het totale gebruik buiten een locatie, kunt u de gegevens op die manier splitsen om de hoeveelheden op te tellen en te vergelijken met wat u verwacht. Draaitabellen zijn handig voor verificatie van transactiegegevens. Met hen kunt u de gegevens bekijken zoals:

Product Jaar Hoeveelheid Totaal
Prod1 2022 9,034
Prod1 2021 8,837
enz    

 

Het jaarlijkse totaal van de producten kan eenvoudig te controleren zijn als u de producten goed kent. Of u kunt VERT.ZOEKEN gebruiken om attributen toe te voegen, zoals een productgroep, en daarop draaien om een hoger niveau te zien dat vertrouwder is:

Productgroep Jaar Hoeveelheid Totaal
Groep 1 2022 22,091
Groep2 2021 17,494
enz    

 

3: Sanity check telling van records

Het kan helpen om een aantal transacties weer te geven in plaats van een som van de hoeveelheden, vooral voor inkoopordergegevens. Zoals:

Product Jaar Aantal PO's
Prod1 2022 4
Prod1 2021 1
enz    

 

En/of dezelfde samenvatting op een hoger niveau, zoals:

Productgroep Jaar Aantal PO's
Groep 1 2022 609
Groep2 2021 40
enz    

 

4: Controle ter plaatse

Steekproefsgewijs controleren van de juistheid van een enkele transactie, voor elk type artikel en elk type transactie, voltooit de due diligence. Besteed speciale aandacht aan welke datum aan de transactie is gekoppeld en of deze geschikt is voor de analyse. Datums kunnen een aanmaakdatum zijn, zoals de datum waarop een klant een bestelling bij u heeft geplaatst, of een beloftedatum, zoals de datum waarop u verwachtte te leveren op de bestelling van de klant op het moment dat u deze aanmaakte, of een uitvoeringsdatum, wanneer u daadwerkelijk heeft geleverd op de bestelling. Soms wordt een beloftedatum gewijzigd dagen nadat de bestelling is gemaakt als deze niet kan worden gehaald. Zorg ervoor dat de gebruiksdatum de werkelijke vraag van de klant naar het product zo goed mogelijk weergeeft.

Wat te doen met slechte gegevens 

Als er weinig of eenmalig foutieve invoer is, kunt u de ERP-records met de hand bewerken zodra ze worden gevonden, waardoor uw cataloguskenmerken worden opgeschoond, zelfs nadat de applicatie live is gegaan. Maar als grote hoeveelheden attributen of transactiehoeveelheden niet kloppen, kan dit een intern project ertoe aanzetten om gegevens opnieuw correct in te voeren en mogelijk om het proces te wijzigen of te documenteren dat moet worden gevolgd wanneer nieuwe records in uw ERP worden ingevoerd.

Er moet voor worden gezorgd dat de implementatie van de SaaS-applicatie niet te lang op zich laat wachten tijdens het wachten op schone attributen. Verdeel het werk in brokken en gebruik de applicatie om eerst de opgeschoonde gegevens te analyseren, zodat het gegevensopschoningsproject parallel loopt met het halen van waarde uit de nieuwe applicatie.

 

 

Statistische prognoses: hoe automatische methodeselectie werkt in Smart IP&O

Smart IP&O biedt geautomatiseerde statistische prognoses die de juiste prognosemethode selecteren die de gegevens het beste voorspelt. Het doet dit voor elke tijdreeks in de dataset. Deze blog zal leken helpen begrijpen hoe de voorspellingsmethoden automatisch worden gekozen.

Smart stelt vele methoden beschikbaar, waaronder enkele en dubbele exponentiële afvlakking, lineair en eenvoudig voortschrijdend gemiddelde, en Winters-modellen. Elk model is ontworpen om een ander soort patroon vast te leggen. De criteria om automatisch één statistische methode uit een reeks keuzes te kiezen, zijn gebaseerd op welke methode het dichtst bij het correct voorspellen van de achtergehouden geschiedenis kwam.

Eerdere vraaggeschiedenis wordt aan elke methode doorgegeven en het resultaat wordt vergeleken met de werkelijke waarden om de methode te vinden die er in het algemeen het dichtst bij kwam. Die "winnende" automatisch gekozen methode krijgt dan alle geschiedenis voor dat item om de prognose te produceren.

De algehele aard van het vraagpatroon voor het item wordt vastgelegd door verschillende delen van de geschiedenis vast te houden, zodat een incidentele uitbijter de keuze van de methode niet onnodig beïnvloedt. U kunt het visualiseren met behulp van het onderstaande diagram, waarin elke rij een 3-periodevoorspelling in de uitgehouden geschiedenis vertegenwoordigt, gebaseerd op verschillende hoeveelheden van de rode eerdere geschiedenis. De varianties van elke pass worden samen gemiddeld om de algemene rangschikking van de methode ten opzichte van alle andere methoden te bepalen.

App voor automatische prognoses en statistische prognoses

Voor de meeste tijdreeksen kan dit proces nauwkeurig trends, seizoensinvloeden en gemiddeld volume vastleggen. Maar soms komt een gekozen methode wiskundig het dichtst in de buurt van het voorspellen van de achtergehouden geschiedenis, maar projecteert deze niet op een logische manier.

Gebruikers kunnen dit corrigeren door de uitzonderingsrapporten en filterfuncties van het systeem te gebruiken om items te identificeren die een beoordeling verdienen. Vervolgens kunnen ze de automatische prognosemethoden configureren waarmee ze voor dat item in aanmerking willen komen.

 

 

Hoeveel tijd zou het kosten om statistische prognoses te berekenen?
De belangrijkste factoren die van invloed zijn op de snelheid van uw prognose-engine 

Hoe lang moet het duren voordat een vraagprognose wordt berekend met behulp van statistische methoden? Deze vraag wordt vaak gesteld door klanten en prospects. Het antwoord hangt er echt van af. Voorspellingsresultaten voor een enkel item kunnen in een oogwenk worden berekend, in slechts enkele honderdsten van een seconde, maar soms kan het zelfs vijf seconden duren. Om de verschillen te begrijpen, is het belangrijk om te begrijpen dat er meer bij komt kijken dan alleen de rekenkundige berekeningen zelf door te spitten. Hier zijn zes factoren die de snelheid van uw prognose-engine beïnvloeden.

1) Prognosemethode.  Traditionele tijdreeks-extrapolatieve technieken (zoals exponentiële afvlakking en voortschrijdend-gemiddeldemethoden) zijn, mits slim gecodeerd, razendsnel. De automatische prognose-engine Smart Forecast, die gebruikmaakt van deze technieken en onze software voor vraagplanning en voorraadoptimalisatie aandrijft, kan bijvoorbeeld in 1 seconde statistische prognoses voor 1000 artikelen genereren! Extrapolatieve methoden produceren een verwachte voorspelling en een samenvattende maatstaf voor de voorspellingsonzekerheid. Complexere modellen in ons platform die probabilistische vraagscenario's genereren, duren echter veel langer bij dezelfde computerbronnen. Dit komt deels omdat ze een veel groter outputvolume creëren, meestal duizenden plausibele toekomstige vraagreeksen. Meer tijd, ja, maar geen tijdverspilling, aangezien deze resultaten veel vollediger zijn en de basis vormen voor downstream-optimalisatie van voorraadbeheerparameters.

2) Computerbronnen.  Hoe meer bronnen u naar de berekening gooit, hoe sneller het zal zijn. Middelen kosten echter geld en het is misschien niet economisch om in deze middelen te investeren. Om bijvoorbeeld bepaalde soorten op machine learning gebaseerde prognoses te laten werken, moet het systeem multithread-berekeningen over meerdere servers uitvoeren om snel resultaten te leveren. Zorg er dus voor dat u de veronderstelde rekenresources en bijbehorende kosten begrijpt. Onze berekeningen vinden plaats in de Amazon Web Services-cloud, dus het is mogelijk om desgewenst voor een groot deel van de parallelle berekeningen te betalen.

3) Aantal tijdreeksen.  Moet u slechts een paar honderd artikelen op één locatie of vele duizenden artikelen op tientallen locaties voorspellen? Hoe groter het aantal combinaties van SKU x Locatie, hoe langer de benodigde tijd. Het is echter mogelijk om de tijd om vraagprognoses te krijgen te verkorten door een betere vraagclassificatie. Het is bijvoorbeeld niet belangrijk om elke combinatie van SKU x Locatie te voorspellen. Moderne software voor vraagplanning kan de gegevens eerst subsetten op basis van volume-/frequentieclassificaties voordat de prognose-engine wordt uitgevoerd. We hebben situaties waargenomen waarin meer dan een miljoen combinaties van SKU x Locatie bestonden, maar waar slechts tien procent vraag naar had in de voorgaande twaalf maanden.

4) Historisch emmeren. Maakt u prognoses met behulp van dagelijkse, wekelijkse of maandelijkse tijdsintervallen? Hoe gedetailleerder de bucketing, hoe meer tijd het kost om statistische prognoses te berekenen. Veel bedrijven zullen zich afvragen: "Waarom zou iemand dagelijks prognoses willen maken?" State-of-the-art software voor vraagvoorspelling kan echter gebruikmaken van dagelijkse gegevens om gelijktijdige dag-van-week- en week-van-maandpatronen te detecteren die anders zouden worden verdoezeld met traditionele maandelijkse vraagbuckets. En de snelheid van zaken blijft toenemen, wat de concurrentiekracht van het traditionele maandelijkse planningstempo bedreigt.

5) Hoeveelheid geschiedenis. Beperkt u het model door alleen de meest recente vraaghistorie in te voeren, of voert u alle beschikbare historie in de vraagvoorspellingssoftware? Hoe meer historie u het model voedt, hoe meer gegevens er moeten worden geanalyseerd en hoe langer het gaat duren.

6) Aanvullende analytische verwerking.  Tot nu toe hebben we ons voorgesteld om de vraaggeschiedenis van items in te voeren en prognoses te krijgen. Maar het proces kan ook aanvullende analytische stappen omvatten die de resultaten kunnen verbeteren. Voorbeelden zijn onder meer:

a) Uitbijterdetectie en -verwijdering om de vervorming te minimaliseren die wordt veroorzaakt door eenmalige gebeurtenissen zoals stormschade.

b) Machine learning dat beslist hoeveel geschiedenis moet worden gebruikt voor elk item door verandering van regime te detecteren.

c) Causale modellering die identificeert hoe veranderingen in vraagbepalende factoren (zoals prijs, rentevoet, klantensentiment, enz.) de toekomstige vraag beïnvloeden.

d) Melding van uitzonderingen die data-analyse gebruikt om ongebruikelijke situaties te identificeren die nadere beoordeling door het management verdienen.

 

De rest van het verhaal. Het is ook van cruciaal belang om te begrijpen dat de tijd om een antwoord te krijgen meer inhoudt dan de snelheid van het voorspellen van berekeningen per se. Gegevens moeten in het geheugen worden geladen voordat de berekening kan beginnen. Zodra de prognoses zijn berekend, moet uw browser de resultaten laden zodat ze op het scherm kunnen worden weergegeven zodat u ermee kunt werken. Als u een product opnieuw voorspelt, kunt u ervoor kiezen om de resultaten op te slaan. Als u werkt met producthiërarchieën (het samenvoegen van artikelprognoses tot productfamilies, families tot productlijnen, enz.), zal de nieuwe prognose de hiërarchie beïnvloeden en moet alles op elkaar worden afgestemd. Dit kost allemaal tijd.

Snel genoeg voor jou? Wanneer u software evalueert om te zien of aan uw behoefte aan snelheid zal worden voldaan, kan dit allemaal worden getest als onderdeel van een proof of concept of proef aangeboden door leveranciers van software voor vraagplanning. Test het uit, en zorg ervoor dat de berekenen, laden en opslaan tijden zijn acceptabel gezien de hoeveelheid gegevens en prognosemethoden die u wilt gebruiken om uw proces te ondersteunen.

 

 

 

Hebben uw statistische prognoses last van het wiggle-effect?

 Wat is het wiggle-effect? 

Het is wanneer uw statistische prognose de ups en downs die in uw vraaggeschiedenis zijn waargenomen, onjuist voorspelt terwijl er echt geen patroon is. Het is belangrijk om ervoor te zorgen dat uw prognoses niet schommelen, tenzij er een echt patroon is.

Hier is een transcriptie van een recente klant waar dit probleem werd besproken:

Klant: “De prognose volgt niet de patronen die ik in de historie zie. Waarom niet?" 

Smart: “Als je goed kijkt, zijn de ups en downs die je ziet geen patronen. Het is echt lawaai.”  

Klant: "Maar als we de hoogtepunten niet voorspellen, slaan we de voorraad op."

Smart: “Als de voorspelling zou 'wiebelen', zou die veel minder nauwkeurig zijn. Het systeem voorspelt welk patroon dan ook, in dit geval een zeer lichte opwaartse trend. We bufferen het lawaai met veiligheidsvoorraden. De wiggles worden gebruikt om de veiligheidsvoorraden in te stellen.”

Klant: “Oké. Logisch nu.” 

Hebben uw statistische prognoses last van de grafiek met het wiggle-effect

De wiggle ziet er geruststellend uit, maar in dit geval resulteert het in een onjuiste vraagprognose. De ups en downs vinden niet echt elke maand op hetzelfde tijdstip plaats. Een betere statistische voorspelling wordt weergegeven in lichtgroen.

 

 

Voorbij de prognose - Samenwerking en consensusplanning

5 Stappen naar Consensus Vraagplanning

Het hele punt van vraagvoorspelling is het vaststellen van de best mogelijke zicht op de toekomstige vraag. Dit vereist dat we gebruikmaken van de beste gegevens en input die we kunnen krijgen, maak gebruik van statistieken om onderliggende patronen vast te leggen, de koppen bij elkaar te steken om overrides toe te passen op basis van zakelijke kennis, en overeenstemming te bereiken over een consensusvraagplan dat als hoeksteen dient voor het algemene vraagplan van het bedrijf.

Stap 1: Ontwikkel een nauwkeurig vraagsignaal.   Wat is vraag? Overweeg hoe uw organisatie de vraag definieert – bijvoorbeeld bevestigde verkooporders exclusief annuleringen of verzendgegevens die zijn aangepast om de impact van historische stockouts weg te nemen – en gebruik dit consequent. Dit is uw maatstaf voor wat de markt u vraagt te leveren. Verwar dit niet met uw vermogen om te leveren - dat moet worden weerspiegeld in het inkomstenplan.

Stap 2: Genereer een statistische prognose. Plan voor duizenden artikelen met behulp van een beproefde prognosetoepassing die automatisch uw gegevens binnenhaalt en op betrouwbare wijze nauwkeurige prognoses produceert voor allemaal van uw artikelen. Bekijk de eerste passage van uw prognose en breng vervolgens aanpassingen aan. Een staking of treinwrak kan de scheepvaart vorige maand hebben onderbroken - laat dat uw voorspelling niet beïnvloeden. Pas hiervoor aan en maak een nieuwe voorspelling. Doe je best en nodig dan anderen uit om mee te wegen.

Stap 3: Schakel de experts in. Productlijnmanagers, verkoopleiders, belangrijke distributiepartners kennen hun markten.  Deel uw voorspelling met hen. Smart gebruikt het concept van een "Snapshot" om een facsimile van uw voorspelling - op elk niveau, voor elke productlijn - te delen met mensen die misschien beter weten. Er kan een enorme order zijn die niet in de pijplijn zit, of een channel partner staat op het punt hun jaarlijkse promotie te houden. Geef ze een gemakkelijke manier om hun deel van de prognose te nemen en te wijzigen. Sleep deze maand omhoog, die omlaag…

Stap 4: Meet nauwkeurigheid en voorspelde toegevoegde waarde. Sommige van uw bijdragers hebben misschien gelijk met het geld, andere hebben de neiging hoog of laag bevooroordeeld te zijn. Gebruik prognose versus actuals-rapportage en meet prognosewaardetoevoegende analyse om prognosefouten te meten en of wijzigingen in de prognose pijn doen of helpen. Door het proces met deze informatie te informeren, verbetert uw bedrijf het vermogen om nauwkeuriger prognoses te maken.

Stap 5: ga akkoord met de consensusprognose.  U kunt deze productlijn of geografie per keer doen, of bedrijf per bedrijf. Roep het team bijeen, stapel hun invoer grafisch op elkaar, bekijk eerdere nauwkeurigheidsprestaties, bespreek hun redenen voor het verhogen of verlagen van de prognose en spreek af wiens input moet worden gebruikt. Dit wordt uw consensusplan. Voltooi het plan en verzend het - upload prognoses naar MRP, stuur het naar financiën en productie.  U bent net begonnen met uw verkoop-, voorraad- en operationele planningsproces.

Je kan dit doen. En wij kunnen helpen.  Als u vragen heeft over gezamenlijke vraagplanning, kunt u deze blog beantwoorden, dan nemen we contact met u op.