Dataobservbarhet: Vad det är och varför det spelar roll - DATAVERSITET

Dataobservabilitet: Vad det är och varför det spelar roll – DATAVERSITET

Källnod: 2691645
data observerbarhetdata observerbarhet

Som en process används dataobservabilitet av företag som arbetar med enorma mängder data. Många stora, moderna organisationer försöker övervaka sina data med hjälp av en mängd olika applikationer och verktyg. Tyvärr är det få företag som utvecklar den synlighet som krävs för en realistisk överblick. 

Dataobservabilitet ger den översikten, för att eliminera dataflödesproblem så snabbt som möjligt.

Observerbarhetsprocessen inkluderar en mängd olika metoder och teknologier som hjälper till att identifiera och lösa dataproblem i realtid. Denna process bygger en flerdimensionell karta över ett företags hela dataflöde, vilket ger djupare insikter i systemets prestanda och datakvalitet. 

På frågan om dataobservabilitet kommenterade Ryan Yackel, CMO för Databand, ett IBM-företag,

"När volymen, hastigheten och komplexiteten hos big data pipelines fortsätter att växa, litar företag på datateknik och plattformsteam som ryggraden i sina datadrivna verksamheter. Problemet är att de flesta av de här teamen har sitt arbete löst för dem. De bekämpar data med tillförlitlighet och kvalitetsincidenter, vilket gör det svårt att fokusera på strategiska initiativ som involverar AL/ML, analys och dataprodukter. Dataobservabilitet ger en lösning.”

Inledningsvis kan observerbarhet av data tyckas vara en form av data härstamning, men de två processerna tjänar olika syften. 

Dataobservabilitet fokuserar på att lösa problem med data snabbt och effektivt genom användning av ett mätsystem. Datalinje används dock främst för att samla in och lagra data av hög kvalitet – data som kan litas på.

Dessutom kan datalinje användas som en komponent för att stödja ett observerbarhetsprogram. (Vissa artiklar främjar dataobservabilitet eftersom de tjänar samma syfte som datalinje, och det finns en viss sanning i påståendet. Datahärstamning är en del av dataobservabilitet.) 

Termen "observerbarhet" var ursprungligen ett filosofiskt begrepp som utvecklades av Herakleitos omkring 510 fvt. Han bestämde att observerbarhet krävde jämförande skillnader - kyla kan observeras i jämförelse med värme. År 1871 utvecklade James C. Maxwell, en fysiker, idén att det var omöjligt att veta var alla partiklar finns i ett termodynamiskt experiment, men genom att observera "vissa nyckelresultat" för jämförande förändringar, kunde exakta förutsägelser göras. 

Maxwells beskrivning av observerbarhet med nyckelutgångar anpassades och tillämpades på en mängd olika automatiserade applikationer, allt från fabriksutrustning till flygplanssensorer. Konceptet anammades sedan av DevOps för felsökning och hantering av "produktionsincidenter", ungefär 2016. Under 2019 utvecklade Barr Moses – VD och medgrundare av Monte Carlo – en observerbarhetsprocess utformad för att ge en översikt över en organisations dataflöde . 

Moses skrev

“Dataobservabilitet är en organisations förmåga att till fullo förstå hur data i sina system fungerar. Dataobserverbarhet eliminerar dataavbrott genom att tillämpa bästa praxis som man lärt sig från DevOps till observerbarhet av datapipeline. "

Fem pelare för observerbarhet av data

Dataobservabilitet arbetar för att lösa data- och informationsproblem genom att tillhandahålla en grundlig karta över data i realtid. Det ger synlighet för en organisations dataaktiviteter. Många företag har data som är i silo, vilket blockerar observerbarhet. Datasilos måste elimineras för att stödja ett dataobservationsprogram. 

När aktiviteter som spårning, övervakning, larm, analys, loggning och "jämförelser" utförs utan en observerbarhetsinstrumentpanel kan en form av organisatorisk uppdelning ske. Människor på en avdelning inser inte att deras ansträngningar har oavsiktliga konsekvenser på en annan avdelning – till exempel saknad/siloerad information som främjar dåligt beslutsfattande eller att en del av systemet ligger nere och ingen inser det. 

Kom ihåg att observerbarhet handlar om att mäta vissa nyckelresultat. De fem pelarna (eller nyckelutgångarna) som Barr Moses utvecklade för mätändamål är: 

  • Kvalitet: Data av hög kvalitet anses vara korrekt, medan data av låg kvalitet inte är det. Mätningar av datans kvalitet ger insikt i om din data är att lita på. Det finns en mängd olika sätt att mäta Datakvalitet.
  • schema: Detta innebär förändringar i hur data är organiserad, och schemamätningar kan visa avbrott i dataflödet. Att bestämma när, hur och vem som gjorde ändringarna kan vara användbart när det gäller förebyggande underhåll. 
  • Volym: Stora mängder data är användbara för forsknings- och marknadsföringsändamål. Detta kan ge organisationer en integrerad bild av sina kunder och marknad. Ju mer aktuella och historiska data som används under forskning, desto fler insikter.
  • Data härstamning: Ett bra datalinjeprogram registrerar ändringar av data och dess platser och används normalt för att förbättra datakvaliteten. Den kan dock också användas som en del av ett dataobservationsprogram. I denna egenskap används den för att felsöka avbrott som kan uppstå och lista vad som gjordes före skadan. 
  • Friskhet: Detta handlar i huvudsak om att inte använda gammal information, eller, som Barr Moses hänvisar till det, inaktuella data. Friskhet betonar aktuell data, vilket är viktigt när man fattar datadrivna beslut. Tidsstämplar används vanligtvis för att avgöra om data är gamla. 

När de kombineras kan måtten på dessa komponenter, eller pelare, ge värdefulla insikter om problem som uppstår – eller helt enkelt dyker upp – och främja möjligheten att utföra reparationer så snabbt som möjligt.

Dataobservabilitetsutmaningar

Rätt dataobservationsplattform kan förändra hur företag underhåller och hanterar sin data. Tyvärr kan implementeringen av plattformen innebära vissa utmaningar. Kompatibilitetsproblem kommer att uppstå när plattformen passar dåligt. 

Observerbarhetsplattformar och verktyg kan begränsas om datapipeline, programvaran, servrarna och databaserna inte är helt kompatibla. Dessa plattformar fungerar inte i ett vakuum, vilket gör det viktigt att eliminera några datasilo från systemet och se till att alla datasystem inom organisationen är integrerade. 

Det är viktigt att testa en dataobservationsplattform innan du skriver på ett kontrakt.

Tyvärr, även när alla verksamhetens interna och externa datakällor är korrekt integrerade i plattformen, annorlunda datamodeller kan orsaka problem. Många företag stöder 400 eller fler datakällor, och varje extern källa kan utgöra ett problem om den inte använder samma standarder och format.

Förutom verktyg med öppen källkod är observerbarhetsplattformar molnbaserade och de kan erbjuda viss flexibilitet som stöder finjustering. 

De bästa observerbarhetsplattformarna är fokuserade på en standardiserad mätprocess och loggningsriktlinjer. Detta främjar effektiv korrelation av information, men externa datakällor och anpassade datapipelines kan orsaka problem och kräva ytterligare manuella ansträngningar för att utföra uppgifter som borde ha automatiserats.

Dessutom kan vissa verktyg komma med ovanliga lagringskostnader som begränsar skalbarheten.

Dataobservationsplattformar

Dataobservationsplattformar innehåller vanligtvis en mängd användbara verktyg. Dessa inkluderar ofta automatiserat stöd för automatiserad datalinje, rotorsaksanalys, datakvalitet och övervakning för att identifiera, lösa och förhindra anomalier i dataflödet. 

Plattformarna främjar ökad produktivitet, hälsosammare pipelines och nöjdare kunder. Några populära dataobservationsplattformar är:

  • Databand tillhandahåller en mycket funktionell observerbarhetsplattform som kan upptäcka och lösa dataproblem mycket snabbt, med hjälp av en kontinuerlig observerbarhetsprocess som identifierar dataproblem innan de påverkar din verksamhet. 
  • Monte Carlo erbjuder en observerbarhetsplattform som kan beskrivas som att ge observerbarhet "från pipeline till business intelligence.” Det ger datatillförlitlighet till orkestreringen av olika datatjänster och verktyg. 
  • Metaplan har observerbarhet från början till slut.
  • Det finns en mängd olika öppen källkod tillgängliga observerbarhetsverktyg, vilket skulle vara värt att undersöka.

Vikten av observerbarhet av data

För organisationer som hanterar stora dataflöden kan observerbarhet användas för att övervaka datasystemet som helhet och skicka ut röda flaggor när ett problem uppstår. 

När företag samlar in enorma mängder data från en mängd olika källor, utvecklar de system för att hantera det, lager på lager. Dessa system inkluderar datalagring, datapipelines och ett antal verktyg. Varje ytterligare komplexitetsskikt ökar chanserna för dataavbrott på grund av problem som inkompatibilitet eller gammal och saknad data.

Enligt Yackel, "Den kontinuerliga användningen av dataobservabilitet för att övervaka datapipelines, datamängder och datatabeller varnar datateam när en dataincident inträffar och visar hur man åtgärdar grundorsaken innan det påverkar deras verksamhet. Med dataobservabilitet kan teknik fokusera på att bygga fantastiska dataprodukter snarare än att underhålla trasiga processer." 

Dataobservabilitet kommer att hjälpa företag att proaktivt identifiera källan till pipelineproblem, datafel och dataflödesinkonsekvenser för att stärka kundrelationerna och förbättra datakvaliteten.

Bilden används under licens från Shutterstock.com

Tidsstämpel:

Mer från DATAVERSITET