Digitalisering – en smått irriterande värld, men ett oundvikligt fenomen. Det säger sig självt: i vår digitala värld är data det aktiva bränslet och resultatet av vår interaktion.
- Volym: tack vara digitaliseringen växer datamängden med en fantastisk hastighet.
- Kvalitet: det råder ingen brist på kvantitet; tyvärr kan man inte säga detsamma om kvalitet.
Och här bör vi stanna upp för ett ögonblick.
Ett företag inom den privata sektorn liksom en icke vinstdrivande organisation måste vara säker på att den information man använder för att driva processer, göra affärer, fatta beslut och betjäna kunder är giltig och korrekt. De måste helt enkelt kunna lita på att det är så.
Men korrekt information är inte något som bara händer av sig självt
Om data inte är pålitligt finns två alternativ: antingen tror man på den, trots att den leder en vilse, eller (vilket tyvärr ofta händer) så har man tillgång till den, men det krävs en armé av Excel-genier för att landa i en tillfredställande koncensus.
”Vi får inte siffrorna förrän på torsdag.”
”Det där stämmer tillräckligt bra.”
”Vänta, jag gör en till liten beräkning.”
”Skulle du kunna dubbelkolla det här en gång till innan jag skickar det vidare? Tack.”
Länge har en grundprincip i den datacentrerade världen varit GIGO: Garbage In, Garbage Out (Skräp In, Skräp Ut). I korthet innebär det att om ingående data är av dålig kvalitet så kommer ny data i slutändan att vara av minst lika dålig kvalitet.
Det första steget mot att förbättra detta: säkerställ att data som tas emot håller en hög kvalitet. Det är dags att sätta en Cerberus vid dörren för att endast släppa in data som anländer i förtroendeingivande form. Det är en bra utgångspunkt. Så länge vi förstår att det finns flera olika strömmar som rinner ner i vår data-sjö. Det ser inte ut som att antalet strömmar kommer att minska den närmsta tiden. Men låt inte det ta ner humöret. Det kommer att lösa sig; det finns praxis och verktyg att tillgå.
Det andra steget – och ett större bekymmer: dålig data kan förvandlas till snömos. Den verklighet som företag verkar i är i förändring. Nya aktörer dyker ständigt upp på spelplanen, ett system, applikation eller mikrotjänst i taget som skapar, använder eller omvandlar existerande data.
Det handlar inte om att vi alla är rädda för applikationsdriven antropi utan om att vår data mycket väl kan ha passerat sitt bäst före-datum.
- Information – har blivit inaktuell.
- Kunder i kundregister – har redan ändrat adress två gånger
- Prislista – kommit och gått.
- Leverantör – förändrats.
- Avtal – utgått.
- Produktinformation – förändrats.
- Tillverkning – avbruten… Listan kan göras lång.
Alla dessa faktorer påverkar dataflödet och måste övervakas noggrant. Ju större tidsramen är, desto fler skikt att borra igenom; desto fler bits och bytes av data ska kombineras i analysen, och desto närmre behöver informationen granskas. Vi kan gräva fram gårdagens försäljning, och som tur är finns transaktionerna sparade. Men ju djupare vi tränger in i vår övriga verksamhetsdata, liksom i dess integritet och länkar däremellan, desto högre blir svårighetsgraden. Men det måste göras. En hel del har gått till integrationer i olika system, men om data inte längre gäller så har ingen nytta av den.
Gör rätt från grunden
Prognoser och analyser, processautomatisering, noggrannhet och enkel rapportering, omvandla data till information. Watsons diagnoser, och allt som är gott och vackert är inom räckhåll. På riktigt. Men det kommer inte av sig självt. Tillämpning av data kräver nya roller och processer. Om vi vill nå nästa nivå inom affärsutveckling i vår digitala värld så måste vi först bygga en bra grund. Och det kretsar inte bara kring frågan om ”big data”. Vi behöver även beakta liten och mellanstor data.
Problemet är varken nytt eller oöverstigligt. Det är faktiskt något mycket positivt. Något att glädjas över! När du ger din data uppmärksamhet så kommer den att visa dig sina hemligheter: du kan komma till visa insikter. Ta hand om din data. Vaka över den. Du kan inte utvecklas utan den.