i en alder av store data, er utfordringen ikke lenger tilgang til nok data; utfordringen er å finne ut de riktige dataene å bruke. I en tidligere artikkel fokuserte jeg på verdien av alternative data, som er en viktig forretningsressurs. Selv med fordelene med alternative data, kan imidlertid feil datagranularitet undergrave AVKASTNINGEN på datadrevet administrasjon.
«vi er så besatt av data, vi glemmer hvordan vi skal tolke det.» – Danah Boyd, Hovedforsker Ved Microsoft Research
så hvor tett skal du se på dataene dine? Fordi feil datagranularitet kan koste deg mer enn du skjønner.
enkelt sagt, data granularitet refererer til detaljnivået av våre data. Jo mer detaljert dataene dine er, desto mer informasjon finnes i et bestemt datapunkt. Måling av årlige transaksjoner på tvers av alle butikker i et land vil ha lav granularitet, da du vet veldig lite om når og hvor kundene gjør disse kjøpene. Måling av individuelle butikkens transaksjoner ved den andre, derimot, ville ha utrolig høy granularitet.
den ideelle datagranulariteten avhenger av hvilken type analyse du gjør. Hvis du er ute etter mønstre i forbrukeradferd over flere tiår, er lav granularitet sannsynligvis bra. For å automatisere butikkpåfylling trenger du imidlertid mye mer granulære data.
når du velger feil granularitet for analysen din, ender du med mindre nøyaktig og mindre nyttig intelligens. Tenk på hvor rotete ukentlig butikkpåfylling bare basert på årlige systemwide data ville være! Du vil kontinuerlig oppleve både overflødig lager og lager, samle store kostnader og høye nivåer av avfall i prosessen. I enhver analyse kan feil datagranularitet ha like alvorlige konsekvenser for effektiviteten og bunnlinjen.
så bruker du riktig datagranularitet for din business intelligence? Her er fem vanlige — og kostbare-data granularitet feil.
Gruppere flere forretningstrender i et enkelt mønster(når data ikke er granulære nok).
Business intelligence må være klar og grei å være praktisk, men noen ganger i et forsøk på å oppnå enkelhet, folk ikke dykke dypt nok inn i dataene. Det er synd fordi du vil gå glipp av verdifull innsikt. Når datagranulariteten er for lav, ser du bare store mønstre som oppstår til overflaten. Du kan gå glipp av kritiske data.
i altfor mange tilfeller fører ikke å se nøye nok på dataene dine til å komprimere ulike trender til et enkelt resultat. Bedrifter som gjør denne feilen, ender med ujevne resultater. De er mer sannsynlig å ha uforutsigbare og ekstreme utliggere som ikke passer til det generelle mønsteret-fordi det mønsteret ikke gjenspeiler virkeligheten.
Dette er et vanlig problem i mange tradisjonelle forsyningskjedeprognosesystemer. De kan ikke håndtere nivået av granularitet som er nødvendig for å forutsi SKU-nivå etterspørsel i individuelle butikker, noe som betyr at en enkelt butikk kan håndtere både overstocks og stockouts samtidig. Automatiserte systemer drevet AV AI kan håndtere kompleksiteten som kreves for å segmentere data riktig, noe som er en grunn til at disse forbedrer effektiviteten i forsyningskjeden. Tilstrekkelig datagranularitet er avgjørende for mer nøyaktig forretningsintelligens.
Å gå seg vill i dataene uten et fokuspunkt(når dataene er for granulære).
har du noen gang ved et uhell zoomet altfor langt inn i et kart på nettet? Det er så frustrerende! Du kan ikke få ut noen nyttig informasjon fordi det ikke er noen sammenheng. Det skjer også i data.
hvis dataene dine er for granulære, går du tapt; du kan ikke fokusere nok til å finne et nyttig mønster i alle de fremmede dataene. Det er fristende å føle at flere detaljer alltid er bedre når det gjelder data, men for mye detaljer kan gjøre dataene dine nesten ubrukelige. Mange ledere står overfor så mye data finner seg frosset med analyse lammelse. Du ender opp med upålitelige anbefalinger, mangel på forretningskontekst og unødvendig forvirring.
for granulære data er en spesielt kostbar feil når DET gjelder AI-prognoser. Dataene kan lure algoritmen til å indikere at den har nok data til å gjøre forutsetninger om fremtiden som ikke er mulig med dagens teknologi. I min forsyningskjede arbeid På Evo, for eksempel, er det fortsatt umulig å forutsi daglig salg per SKU. Din feilmargin vil være for stor til å være nyttig. Dette nivået av granularitet undergraver mål og reduserer AVKASTNINGEN.
ikke å velge granulariteten til tidsvariabler målrettet.
de vanligste datagranularitetsfeilene er relatert til tidsintervaller, dvs. måling av variabler på time, daglig, ukentlig, årlig, etc. grunnlag. Temporal granularitet feil oppstår ofte for enkelhets skyld. De fleste selskaper har standard måter å rapportere tidsbestemte variabler. Det føles som om det ville kreve for mye innsats for å endre dem, Slik at de ikke gjør det. Men dette er sjelden den ideelle granulariteten for å løse problemet analysert.
når du veier kostnadene ved å endre måten systemet rapporterer Kpi-er på, kontra kostnadene ved konsekvent å få utilstrekkelig forretningsintelligens, er fordelene ved målrettet å velge riktig granularitetsregister. Avhengig av tidens granularitet, vil du gjenkjenne svært forskjellige innsikter fra de samme dataene. Ta sesongmessighetstrender i detaljhandel, for eksempel. Å se på transaksjoner over en enkelt dag kan gjøre sesongmessige trender usynlige eller i det minste inneholde så mye data at mønstre bare er hvit støy, mens månedlige data deler en distinkt sekvens du faktisk kan bruke. Hvis standard Kpier hopper over månedlig rapportering for å gå rett til kvartalsmønstre, mister du verdifull innsikt som vil gjøre prognosene mer nøyaktige. Du kan ikke ta tid granularitet til pålydende hvis du vil få den beste intelligensen.
Overfitting eller underfitting din modell til det punktet at mønstrene du ser er meningsløse.
AI-modeller må generalisere godt fra eksisterende og fremtidige data for å levere nyttige anbefalinger. I hovedsak kan en god modell se på disse dataene:
og anta dette som en arbeidsmodell basert på informasjonen:
mønsteret kan ikke perfekt representere dataene, men det gjør en god jobb å forutsi typisk oppførsel uten å ofre for mye intelligens.
hvis du ikke har riktig datagranularitet, kan du imidlertid ende opp med feil modell. Som vi snakket om før, kan altfor granulære data forårsake støy som gjør det vanskelig å finne et mønster. Hvis algoritmen konsekvent trener med dette støyende detaljnivået, vil det levere støy i sin tur. Du ender opp med en modell som ser slik ut:
vi kaller dette overfitting din modell. Hvert datapunkt har en overdimensjonert innvirkning, i den grad at modellen ikke kan generalisere nyttig lenger. Problemene som i utgangspunktet skyldes høy granularitet, forstørres og blir et permanent problem i modellen.
for lav datagranularitet kan også gjøre langsiktig skade på modellen din. En algoritme må ha tilstrekkelig data for å finne mønstre. Algoritmer trent ved hjelp av data uten nok granularitet vil savne kritiske mønstre. Når algoritmen har gått utover treningsfasen, vil den fortsette å ikke identifisere lignende mønstre. Du ender opp med en modell som ser slik ut:
dette er underfitting modellen. Algoritmen kommer nær å gjøre de riktige spådommene, men de vil aldri være så nøyaktige som de kunne ha vært. Som overfitting er det en forstørrelse av det første granularitetsproblemet.
når du lager en modell for analysen din, blir riktig granularitet eksponentielt viktigere enn når du har en stabil algoritme. Av denne grunn velger mange selskaper å outsource denne delen av prosessen til eksperter. Det er for delikat og kostbart et stadium for feil.
Justerer granulariteten til de uriktige dataene helt.
kanskje den dyreste datagranularitetsfeilen bare fokuserer så mye på å optimalisere granulariteten Til Kpier du for øyeblikket måler at du ikke klarer å innse at de er feil Kpier helt. Vi tar sikte på å oppnå riktig datagranularitet for ikke å optimalisere noen spesifikk KPI-ytelse, men heller å gjenkjenne mønstre i dataene som gir handlingsbar og verdifull innsikt. Hvis du vil forbedre inntektene, for eksempel, du kan undergrave din suksess ved bare å se på mønstre i priser. Andre faktorer er involvert.
Ta et eksempel fra min kollega. En Ny Evo-kunde ønsket å øke salget, og en første test som brukte Våre Forsyningskjedeverktøy viste en forbedring på 10% på mindre enn to uker. VÅR CEO var utenfor begeistret av disse enestående resultater, men til hans overraskelse, supply chain manager var ikke imponert. Hans primære KPI var produkttilgjengelighet, og ifølge interne tall, som aldri hadde endret seg. Hans fokus på å forbedre en BESTEMT KPI kom på bekostning av å gjenkjenne verdifull innsikt fra andre data.
Hvorvidt KPI ble nøyaktig målt, med fokus på å endre ytelsen, holdt denne lederen tilbake fra å se verdien i en ny tilnærming. Han var en smart mann som handlet i god tro, men dataene villedet ham – en utrolig vanlig, men dyr feil. Korrekt datagranularitet er viktig, men det kan ikke være et mål i seg selv. Du må se på det større bildet for å maksimere avkastningen fra AI. Hvor nøye du ser på dataene dine, spiller ingen rolle om du ikke har de riktige dataene i utgangspunktet.
«en vanlig feilslutning av datadrevet ledelse er å bruke feil data for å svare på det riktige spørsmålet.» – Fabrizio Fantini, Grunnlegger Og ADMINISTRERENDE DIREKTØR I Evo
fordelene med riktig datagranularitet
det er ingen magisk kule når det gjelder datagranularitet. Du må velge det nøye og med vilje for å unngå disse og andre mindre vanlige feil. Den eneste måten å maksimere avkastningen fra dataene dine er å se på det kritisk-vanligvis med en ekspert datavitenskapers hjelp. Du vil sannsynligvis ikke få granularitet rett på første forsøk, så du må teste og justere til den er perfekt.
det er verdt innsatsen, skjønt. Ser du nøye, men ikke for tett, sikrer dataene dine optimal forretningsintelligens. Segmentert og analysert riktig, data forvandles til et konkurransefortrinn du kan stole på.