Datakvalitetsbedömning: Mätning av framgång - DATAVERSITET

Datakvalitetsbedömning: Mätning av framgång – DATAVERSITET

Källnod: 2903188
datakvalitetsbedömningdatakvalitetsbedömning

Målet med en datakvalitetsbedömning är inte bara att identifiera felaktiga data utan också att uppskatta skadan på verksamhetens processer och att genomföra korrigerande åtgärder. Många stora företag kämpar för att upprätthålla kvaliteten på sin data. 

Det är viktigt att komma ihåg att data inte alltid är lagrade och statiska utan används med jämna mellanrum. Efter att ha skapats laddas data ner, justeras, formateras om, utbyts och till och med förstörs. 

Om den görs felaktigt kommer varje åtgärd med hot om att ha en negativ inverkan på datakvaliteten. Dålig datakvalitet kan i sin tur leda till flaskhalsar och påverkar ofta de beslut som en organisation fattar negativt. Utan rätt mätsystem på plats kanske data av låg kvalitet aldrig märks eller korrigeras.

Många företag vet inte att de har problem med datakvaliteten. Att bedöma datans kvalitet är en liten men mycket viktig del för att maximera ett företags effektivitet. Problem med datakvaliteten kan först uppmärksammas av organisationens affärsverksamhet eller av dess IT-avdelning. De första stegen i att genomföra en bedömning av datakvaliteten kan betraktas som en "medvetenhetsfas". 

En datakvalitetsbedömning stödjer utvecklingen av en datstrategi, och en välorganiserad datastrategi kommer att anpassa data, vilket stöder verksamhetens mål, värderingar och mål.

Dataprofilering kontra datakvalitetsbedömnings

Dataprofilering anses ofta vara ett preliminärt steg för att utföra en datakvalitetsbedömning, medan vissa människor anser att de två bör göras samtidigt. Dataprofilering handlar om att förstå datas struktur, samt dess innehåll och inbördes samband. En datakvalitetsbedömning, å andra sidan, utvärderar och identifierar en organisations dataproblem och konsekvenserna av dessa problem.

Användbara mätvärden för datakvalitetsbedömning

Datakvalitetsbedömningsmått mäter bland annat hur relevant, tillförlitlig, korrekt och konsekvent en organisations data är. Beroende på ett företags typ av bransch och mål kan specifika mätvärden behövas för att avgöra om organisationens data uppfyller dess kvalitetskrav. Att mäta kvaliteten på datan, förstå hur datamått används och hur verktygen och bästa praxis fungerar är ett nödvändigt steg för att bli en data driven organisation. 

Grundläggande datakvalitetsmått inkluderar:

Relevans: Uppgifterna kan vara av hög kvalitet, men värdelösa när det gäller att hjälpa organisationen att uppnå sina mål. Till exempel skulle ett företag som fokuserar på att sälja skräddarsydda stövlar vara intresserade av användbar fraktdata men skulle inte ha något intresse av en lista över personer som söker produkter för att reparera stövlar. Att lagra data med den vaga förhoppningen att det ska bli aktuellt senare är ett vanligt misstag. Metaplan erbjuder programvara för att mäta relevans.  

Noggrannhet: Ofta anses vara det viktigaste måttet för datakvalitet, noggrannhet bör mätas genom dokumentation av källan eller någon annan oberoende bekräftelseteknik. Noggrannhetsmåttet inkluderar även statusändringar av data när de sker i realtid.

aktualitet: Föråldrade data sträcker sig från värdelösa till potentiellt skadliga. Till exempel kommer kundkontaktdata som aldrig uppdateras att skada marknadsföringskampanjer och reklam. Det finns också möjlighet att skicka produkter till den gamla, inte längre korrekta adressen. Bra affärer kräver att all data uppdateras för smidiga och effektiva affärsprocesser.

Fullständighet: Datafullständighet bestäms normalt genom att bestämma om var och en av dataposterna är en "fullständig" datainmatning. Ofullständiga data ger ofta inte användbara affärsinsikter. I många situationer är processen att bedöma fullständighet en subjektiv mätning som görs av en dataprofessionell och inte programvaran för datakvalitet.

Integritet: Dataintegritet beskriver den övergripande noggrannheten, konsistensen och fullständigheten för data under hela dess livscykel. Dataintegritet är också förknippat med datasäkerheten när det gäller regelefterlevnad angående personlig integritet och säkerhet.

Konsistens: Olika versioner av samma data kan göra affärer förvirrande. Data och information måste vara konsekventa i alla verksamhetens system för att undvika förvirring. Lyckligtvis finns programvara tillgänglig, så varje version av data behöver inte jämföras manuellt. (Masterdata och dess ledning är ett alternativ för att centralisera data som används upprepade gånger och undvika flera versioner.)

Förbereder inför bedömningen 

En datakvalitetsbedömning kommer att gå vidare mer effektivt och ge bättre resultat om en lista med problem och mål skapas innan bedömningen. När du skapar denna lista, var medveten om organisationens långsiktiga mål, samtidigt som du listar kortsiktiga mål. Exempelvis kan det långsiktiga målet att göra verksamheten mer effektiv brytas ner i mindre mål, som att fixa systemet så att rätt personer får rätt räkningar, och att alla kunders adresser stämmer osv. 

Denna lista kan också presenteras för en styrelse som en motivering för att initiera och betala för datakvalitetsbedömningsprogramvara eller anlita en entreprenör för att utföra bedömningen. De grundläggande stegen för att skapa listan presenteras nedan.

  • Börja med att göra en lista över datakvalitetsproblem som har inträffat under det senaste året.
  • Tillbringa en vecka eller två med att observera dataflödet och avgör vad som ser tvivelaktigt ut och varför.
  • Dela dina observationer med andra chefer och personal, få feedback och justera resultaten med hjälp av feedbacken.
  • Undersök listan över problem med datakvalitet och bestäm vilka som har högsta prioritet, baserat på hur de påverkar intäkterna.
  • Skriv om listan så att prioriteringarna listas först. (Denna lista kan göras tillgänglig för styrelsen och entreprenören för datakvalitetsbedömning efter att omfattningen har fastställts.)
  • Fastställ omfattningen – vilka uppgifter kommer att tittas på under bedömningen?
  • Bestäm vem som använder datan och undersök deras dataanvändningsbeteende före och efter bedömningen för att avgöra om de behöver göra ändringar.

Plattformar för datakvalitetsbedömning

Att utföra en datakvalitetsbedömning manuellt kräver så mycket ansträngning att de flesta chefer aldrig skulle godkänna det. Lyckligtvis finns det datakvalitetsplattformar och lösningar tillgängliga. Vissa tar ett helhetsgrepp, medan andra fokuserar på vissa plattformar eller verktyg. Utvärderingsplattformar för datakvalitet kan hjälpa organisationer att hantera de växande datautmaningarna de står inför. 

När användningen av moln- och edge-datortjänsterna utökas kan organisationer använda datakvalitetsbedömningsplattformar för att analysera, hantera och rensa data hämtade från olika källor som e-post, sociala medier och Internet of Things. Vissa bedömningsplattformar (som inkluderar instrumentpaneler) diskuteras nedan.

TErwin Data Intelligence Platform använder AI- och ML-aktiverade upptäcktsverktyg för att upptäcka datamönster och kommer att skapa affärsregler för datakvalitetsbedömningen. Erwin Data Intelligence Platform automatiserar datakvalitetsbedömningen, ger kontinuerlig dataobservbarhet och inkluderar detaljerade instrumentpaneler.

Acceldatas Enterprise Data Observability Platform integreras väl med olika teknologier och fungerar bra med publika, hybrid- och multimolnmiljöer. Den tillhandahåller en mycket effektiv instrumentpanel för datakvalitet och använder automationsalgoritmer för maskininlärning för att hjälpa till att maximera din datas effektivitet. Acceldatas plattform kommer att upptäcka och korrigera problem i början av datapipelinen, och isolera dem innan de påverkar nedströmsanalys.

IBM Infosphere Information Server for Data Quality Platform tillhandahåller ett brett utbud av datakvalitetsverktyg som hjälper dig att analysera och övervaka datakvaliteten kontinuerligt. IBM-plattformen kommer att rensa och standardisera data samtidigt som datakvaliteten analyseras och övervakas för att minska felaktiga eller inkonsekventa data.

Data Ladders DataMatch Enterprise har en flexibel arkitektur som tillhandahåller en mängd olika verktyg som kan rensa och standardisera data. Den kan integreras i de flesta system och är lätt att använda. DataMatch Enterprise är ett självbetjäningsverktyg för datakvalitet som kan identifiera grundläggande anomalier. Den mäter noggrannhet, fullständighet, aktualitet, etc. Den utför också detaljerad datarensning, matchning och sammanslagning.

Intellectyx fungerar som entreprenör för en mängd olika datatjänster, inklusive tillhandahållande av datakvalitetsbedömningar och lösningar. Deras process ingår:

  • Identifiera verksamhetens behov
  • Definiera datakvalitetsmått
  • Bedöma aktuell datakvalitet
  • Utveckla en plan för förbättring

OpenRefine är inte en datakvalitetsbedömningsplattform, men det är ett gratis, kraftfullt verktyg med öppen källkod designat för att arbeta med rörig data. Verktyget kommer att rensa data och omvandla den till lämpligt format. Data rensas på ditt datorsystem, snarare än ett datatvättmoln. 

Bedömningsrapporten

Utvärderingsrapporter för datakvalitet är normalt utformade för att beskriva resultaten av bedömningen, samt observationer och rekommendationer. Rapporten innehåller alla avvikelser som har haft en kritisk inverkan på organisationen, samt lösningar för att identifiera och eliminera dessa avvikelser. 

Rapporten bör innehålla:

  • Sammanfattning: En introduktion kombinerad med en kort beskrivning av rapporten
  • Nyckelresultat: Problem med dataflödet och hur de påverkar verksamheten
  • Processen som används: Beskriv programvara och processen. (Om en entreprenör har använts är rapporten deras ansvar)
  • Poäng och övergripande betyg (per nummer)
  • Rekommendationer (per nummer)
  • Öppna problem: Eventuella olösta problem
  • En slutsats: De förväntade resultaten på verksamheten när förändringarna görs, och observationer eller råd angående de olösta frågorna

Bilden används under licens från Shutterstock.com

Tidsstämpel:

Mer från DATAVERSITET