En av de största utmaningarna för de närmaste fem åren för företag och organisationer är att säkerställa och förbättra sin affärsdata. Mellan offentliga och privata moln blir hybrida datatygslösningar alltmer nödvändiga.
Lagrad data har nu, berikad med information och olika format (text, bild, ljud, video, foton, etc.), blivit mer komplex. Dessa komplexa element är även orsaken till utvecklingen av datalagring.
Data som lagrades internt på filservrar under 80- och 90-talen lagras nu i form av datalager i datacenter och i privata-, offentliga- och hybridmoln. Denna spridning av lagringsutrymmen försvagar företagen och tvingar dem att prioritera sina data i form av “datatyg” för att optimera sina kostnader och förbättra dess användning.
Den stora utmaningen idag är, mer än någonsin tidigare, att hantera den växande datamängden och utnyttjandet av den. För att kunna göra detta måste företagen bli “datadrivna”. Med andra ord, att dra konsekvenserna av en iakttagelse som numera är allmänt spridd – data gör det möjligt för företag att förvalta, men framför allt att omvandla sin verksamhet.
“Använd det offentliga molnet som ett kraftfullt anslutningsverktyg och det privata molnet för att säkerställa känslig data.”
Så hur tillför du värde till dina egna data utan att låta andra företag göra det åt dig och ta risken att de ökar värdet och tjänar pengar på din kunskap snabbare än du själv gör det? Ett exempel är GAFAM som har visat hur stor risken är att behöva se sig berövad både på sin data och sin yrkeskompetens.
Återta kontrollen
För att kunna genomföra arbetet med att återanvända egna data är det viktigt att förstå hur de cirkulerar inom de egna affärsprocesserna. Detta innebär att veta var de kommer ifrån, hur man “rensar” bland dem, berikar och ger dem ett mervärde för att kunna återinföra dem i sina affärsapplikationer. Översikten över hela datahanteringsprocessen kallas “datapipeline”.
För att visualisera processen, låt oss ta ett exempel på ett företag som bestämmer sig för att starta med distansförsäljning. För att applikationerna för e-handeln ska vara effektiv måste först all information om lager, kundköp, kampanjer etc. konsolideras. Det är en enkel process som kan genomföras idag tack vare datavaruhus som i praktiken är perfekta datalager.
Det andra steget består i att berika dessa data genom segmentering, genom att fastställa kategorier och underkategorier, så att kunden lättare kan sortera informationen (kläder, kosmetika, hushållsapparater). Detta arbete kommer även att möjliggöra en mer detaljerad hantering av kundens historik.
Vilket naturligtvis leder till det tredje steget, att optimera den affärsmässiga rekommendationen till kunden tack vare artificiell intelligens.
Föreställ dig att datauppgifterna möjliggör för oss att identifiera att en kund två gånger under de senaste tre åren har köpt skidutrustning till sin son till vintersäsongen. Det ligger således verkligen i företagets intresse att rekommendera kampanjer för skidutrustning till killen i rätt storlek.
När köpmatchningen används på rätt sätt kan den generera en ökning på 2-4 % i den genomsnittliga varukorgen.
Hela processen och flödet av handlingar från datapipelinen har även fördelen att möjliggöra kontinuerlig förbättring av tjänsterna. När leveransförseningar eller returer av defekta artiklar ökar i antal kan en detaljerad analys av data med en algoritm möjliggöra att ta reda på om det beror på att paketet levererats längst ner i byggnaden och inte inuti eller om det är relaterat till en specifik produkt eller tjänsteleverantör.
Cloud – det bästa av två världar
För att kunna behålla kontrollen över sina data och utnyttja dem fullt ut, måste de lagras på rätt plats. Vissa väljer en intern lösning via ett privat moln och med egna datacenter. Datasäkerheten är utan tvekan säkerställd, men denna modell som ofta är statisk och tekniskt eftersatt, begränsar utvecklingsmöjligheterna.
Andra väljer plattformar med den senaste tekniken från leverantörer som agerar som datavärdar via det offentliga molnet. Risken med sekretess och höga kostnader för inkommande och utgående flöden är långt ifrån försumbara (även exponentiella).
Det finns ett tredje sätt – hybridlösningen. Principen är att använda det offentliga molnet som ett mobilitetsverktyg (IoT/Edge) som erbjuder både kraftfull anslutning och skalbarhet. I kombination med ett privat moln, som drivs internt eller av en tjänsteleverantör, möjliggör det att skydda företagets känsliga data relaterade till dess affärsapplikationer. Jag kallar det för en “Hybrid Data Fabric-arkitektur”. Arkitekturen optimerar lagringen, garanterar datasäkerheten och blir grunden för din datapipeline.
HDF (Hybrid Data Fabric) frigör energi för att bättre förstå och skapa innovationer med dina data.
20/01/2022