Huonon tiedon vaikutuksen ymmärtäminen - DATAVERSITY

Huonon datan vaikutuksen ymmärtäminen – DATAVERSITY

Lähdesolmu: 3070625

Tiedätkö huonon tiedonlaadun kustannukset? Alla tutkin tietojen havaittavuuden merkitystä, kuinka se voi vähentää huonon datan riskejä ja tapoja mitata sen ROI:ta. Ymmärtämällä huonon tiedon vaikutukset ja ottamalla käyttöön tehokkaita strategioita, organisaatiot voivat maksimoida tiedonlaatualoitteensa hyödyt. 

Tiedoista on tullut olennainen osa nykyaikaista päätöksentekoa, ja siksi tiedon laatu on ensiarvoisen tärkeää, jotta voidaan varmistaa, että yritysten sidosryhmät tekevät tarkkoja johtopäätöksiä. 

Mutta tässä on saalis, jonka jokainen moderni datajohtaja kertoo sinulle: Tietojen laadunhallinta on vaikeaa. Se vaatii aikaa ja vaivaa. Lisäksi sijoitetun pääoman tuottoprosenttia (ROI) on usein vaikea mitata. 

Kuinka huonoa on huono data?

Virheelliset tiedot voivat aiheuttaa merkittäviä taloudellisia menetyksiä. Gartner arvioi, että joka vuosi huono tiedon laatu maksaa organisaatioille keskimäärin $ 12.9 euroa. Vuonna 2022 Unity-ohjelmisto raportoitu 110 miljoonan dollarin liikevaihdon menetys ja 4.2 miljardin dollarin markkina-arvo. "Seuraukset huonon datan nauttimisesta suurelta asiakkaalta", yhtiö totesi. Vastaavasti huonot tiedot aiheuttivat Equifax, julkisesti noteerattu luottotietotoimisto, joka lähettää lainanantajille epätarkkoja luottopisteitä miljoonia asiakkaista. Hiljattain sattunut datavälikohtaus aiheutti valtavia häiriöitä Ison-Britannian ja Irlannin lentoliikenteessä. On raportoitu, että yli 2,000 126.5 lentoa peruttiin, mikä jätti satoja tuhansia matkustajia jumiin. Lentoyhtiöille kertyneen taloudellisen tappion arvioidaan olevan XNUMX miljoonaa dollaria.

Huonon datan vaikutukset 

Data on jokaisen modernin liiketoiminnan ytimessä. Datatiimin päävastuu on rakentaa ja ylläpitää datatuotteita, joita tarjotaan asiakkaille sisäisesti ja ulkoisesti, samalla kun organisaatio voi skaalata ja saavuttaa tavoitteensa. 

Kun on tarkoitus varmistaa, että organisaation tietoaloitteet ovat valmiita menestymään, joitain datatiimin lähtötason odotuksia voidaan tiivistää seuraavasti:

  • Päällä: Data on palvelu, ja siksi on tärkeää varmistaa, että se on saatavilla tarvittaessa.
  • Turvallisuus: Sääntöjen (kuten GDPR tai HIPAA) noudattaminen. Tiimi vastaa toimenpiteiden ja käytäntöjen toteuttamisesta arkaluonteisten tietojen suojaamiseksi ja tietosuojan ylläpitämiseksi.
  • Luotettavuus: Sekä datasta että tietoalustasta. Osa tästä katetaan käytettävyydellä, mutta myös tiedon laadulla ja tarkkuudella niiden perinteisessä merkityksessä. 
  • asteikko: Tietoalustan tulisi mahdollistaa skaalautuvuus kasvavien tietomäärien, käyttötapausten määrän ja liiketoiminnan tarpeiden mukaan.
  • Innovaatio: Datan tulee edistää innovaatioita, ja tällä alueella on tärkeää, että datatiimi näyttää esimerkkiä tuomalla innovaatioita datakäytäntöihin ja niiden ulkopuolelle. 

Tietojen laadun saavuttaminen tietojen havainnoinnin avulla

Tietojen havainnointi on ratkaisu ennakoivasti valvoa ja ylläpitää tietojen kuntoa koko sen elinkaaren ajan. Ottamalla käyttöön loki-, jäljitys- ja seurantatekniikoita organisaatiot saavat näkyvyyttä tietovirroissa, tunnistavat ja ratkaisevat nopeasti tiedon laatuongelmia ja estävät häiriöt analytiikan kojelaudoissa. Tietolukutaito, johon sisältyy tietojen hankinta, tulkinta ja kommunikointi, on olennaista päätöksentekijöille, jotta he voivat muuntaa tiedot tehokkaasti liiketoiminnan arvoksi. Datalähtöisen kulttuurin kehittäminen ja investoiminen oikeisiin työkaluihin ovat tärkeitä askeleita kohti tiedon laatua tietojen havainnoinnin avulla. 

Tietojen havaittavuuden ROI:n kvantifiointi

Tietojen havainnoitavuuden ROI:n mittaaminen auttaa yritysjohtajia ymmärtämään tähän käytäntöön sijoittamisen arvon ja hyödyt. Useat kvantifioitavissa olevat mittarit voivat toimia lähtökohtana huonojen tietojen kustannusten arvioinnissa, mukaan lukien tapahtumien esiintymistiheys tai vuosittaisten tapausten lukumäärä, havaitsemiseen kuluva aika ja ratkaisuun kuluva aika.

Vaikutus tietojen laatuongelmia voivat vaihdella liiketoiminnan koosta ja monimutkaisuudesta riippuen. Vahingon arvioimiseksi ja vahvan perustelun rakentamiseksi tietojen havainnointiratkaisulle ehdotamme viittä keskeistä mittaria, joita datan asiantuntijat voivat helposti ottaa käyttöön ja seurata ja joita voidaan käyttää tapauksen tukemiseen sisäisesti:

  1. Tapahtumien määrä ja esiintymistiheys: Vaikka jotkin yritykset voivat kokea tietohäiriöitä päivittäin, toiset voivat olla päiviä – ellei viikkoja – ilman niitä. Tapahtumien kriittisyys voi vaihdella jostain "pienestä", kuten vanhentuneesta tiedosta, joka on linkitetty kojelautaan, jota kukaan ei ole käyttänyt aikoihin, tietojen päällekkäisyyteen, joka aiheuttaa palvelimen ylilatauksen ja lopulta kaatumisen (tositarina, Netflix 2016). Mielestämme se liittyy usein: tietoalustan kokoon ja monimutkaisuuteen, yrityksen toimialaan (jotkut toimialat ovat luonnostaan ​​kehittyneempiä kuin toiset), tietoarkkitehtuurin tyyppiin (keskitetty, hajautettu, hybridi) jne. Tapausten dokumentointi antaa Parempi käsitys siitä, mitä etsiä seuraavalla kerralla, toistuvat tapaukset ovat usein hyvä merkki siitä, että jokin alla oleva vaatii tarkempaa huomiota.  
  2. Tapahtumaluokitus: Kaikki tietohäiriöt eivät ole yhtä vakavia; Jotkut voivat olla vähäisiä ja helposti lievennettyjä, kun taas toisilla voi olla vakavia seurauksia. Tapahtumien kriittisyyden dokumentointi on tärkeää asianmukaisen eskaloinnin ja priorisoinnin varmistamiseksi. Tässä datalinjalla voi olla merkitystä, koska sen avulla voidaan arvioida tapahtuman loppupään vaikutuksia kriittisyyden ymmärtämiseksi paremmin. Tapaus, joka on linkitetty toimitusjohtajan suosikkikojelautaan, tuotantotietokantaan tai tärkeään tietotuotteeseen, on todennäköisesti erittäin kriittinen. 
  3. Keskimääräinen havaitsemisaika (MTTD): Kun kyse on luottamuksen rakentamisesta dataan ja datatiimiin, jokaisen datan harjoittajan painajainen on se, että yritysten sidosryhmät havaitsevat ensimmäisenä tiedon laatuongelmat. Se voi todella vahingoittaa tiimin uskottavuutta ja yrityksen kykyä tulla todella tietopohjaiseksi. Kun alat dokumentoida tapauksia ja luokitella niiden kriittisyyttä, on tärkeää myös seurata, kuinka ne havaittiin ja kuinka kauan datatiimin kuittaamiseen kului. Tämä mittari voi olla hyvä osoitus tapausten hallinnan kestävyydestä, mutta myös sen vähentäminen tarkoittaa, että vähennät riskiä, ​​että tapahtuma voi aiheuttaa enemmän vahinkoa. 
  4. Keskimääräinen aika ratkaisuun (MTTR): Mitä tapahtuu, kun tapauksesta ilmoitetaan? MTTR on keskimääräinen aika, joka kuluu tietohäiriön havaitsemisen ja sen ratkaisemisen välillä. Ratkaisuaikaan vaikuttavat suuresti tapahtuman kriittisyys ja tietoalustan monimutkaisuus, minkä vuoksi otamme huomioon keskiarvon tässä viitekehyksessä.
  5. Keskimääräinen tuotantoaika (MTTP) on uusien datatuotteiden toimittamiseen kuluva keskimääräinen aika tai toisin sanoen datatuotteiden keskimääräinen markkinoille tuloaika. Tämä voi olla aika, jonka analyytikko käyttää datan "puhdistukseen" datatieteen mallia varten. Itse asiassa mukaan Forbes, tietojen valmistelu vastaa noin 80 % datatutkijoiden työstä. Maailmassa, jossa haluamme käsitellä dataa tuotteena, tiedon laadun parantaminen voi vaikuttaa suoraan markkinoilletuloajan lyhentämiseen. 

Yllä olevien kvantifioitavissa olevien mittareiden lisäksi muita, jotka ovat vähemmän helposti mitattavissa, mutta yhtä tärkeitä, kannattaa ottaa huomioon, kun tarkastellaan huonojen tietojen kustannuksia.

  • Luottamuksen tuhoutuminen: Tiedoissa ja datatiimi. Tämä on mielestäni vaarallisin seuraus huonosta datasta, joka voi johtaa suurempiin ongelmiin, kuten datatiimin vaihtumiseen tai luottamuksen menettämiseen yrityksen kykyyn tulla tietovetoisiksi ja pysyä muuttuvan digitaalisen maiseman mukana. Ja kun luottamus on rikki, sitä on erittäin vaikea saada takaisin. Aikaisemmassa kokemuksessani työskentelin datan kuluttajien ympärillä, jotka eivät mieluummin käyttäisi tietoja ja luottaisivat mieluummin "kokemukseen" ja "vatsaan" erittäin epävakaassa osakekaupankäyntiympäristössä kuin käyttäisivät sitä tietäen, että se saattaa olla epätarkkoja. . 
  • Tuottavuuden menetys: Huonoilla tiedoilla tiimit joutuvat taistelemaan ja korjaamaan virheet heti, kun niitä ilmenee. Tämä jatkuva palontorjunta ei ole vain uuvuttavaa, vaan myös haitallista. Arvokasta aikaa, joka voitaisiin käyttää strategiseen suunnitteluun ja kasvuhankkeisiin, tuhlataan vianetsintään, mikä ohjaa resursseja kriittisemmistä tehtävistä.
  • Sääntelyyn ja maineeseen liittyvä riski: Virheet taloudellisessa raportoinnissa tai henkilötietojen väärinkäsittely voivat johtaa kalliisiin sakkoihin ja oikeustaisteluihin. Vaatimustenmukaisuusongelmien käsitteleminen heikentää merkittävästi tuottavuutta, puhumattakaan niiden aiheuttamasta taloudellisesta taakasta.
  • Huono liiketoiminnan suorituskyky: Sen lisäksi, että datatiimin tuottavuus heikkenee, huonot tiedot voivat haitata liiketoiminnan yleistä suorituskykyä, kun yritys kamppailee digitaalisen valmiuden ja uskottavuuden kanssa asiakkaidensa edessä ja tulee alttiiksi ulkoisille uhille. 

Tietojen laatuongelmat voivat johtaa erilaisiin ongelmiin, kuten luottamuksen menettämiseen tietoihin, heikentyneeseen tiimin tuottamiseen ja moraaliin, säännösten noudattamatta jättämiseen ja päätöksenteon laadun heikkenemiseen. Osastojen tai liiketoimintayksiköiden siivottu data tekee haasteelliseksi saada kokonaisvaltaista näkemystä organisaation tietomaisemasta. Tämä voi johtaa tehottomaan päätöksentekoon, haitata datakulttuuria ja vaarantaa säännösten, kuten GDPR:n ja HIPAA:n, noudattamisen. Lisäksi datatiimit voivat turhautua käyttäessään liikaa aikaa dataongelmien vianetsintään, mikä vaikuttaa kielteisesti heidän työtyytyväisyytensä ja saattaa johtaa työntekijöiden vaihtumiseen. 

1x10x100 sääntö

1x10x100-sääntö, joka on laajalti tunnustettu tapaustenhallinnan periaate, korostaa huonoon tiedonlaatuun liittyvien kustannusten nousua. Tämän säännön mukaan tietojen laatuongelman ratkaisemisen kustannukset tulopisteessä ovat noin 1x alkuperäiset kustannukset. Jos ongelma jää havaitsematta ja leviää järjestelmässä, kustannukset nousevat noin 10-kertaiseksi, mikä edellyttää korjaus- ja korjaustoimia. Jos tiedon huono laatu kuitenkin saavuttaa loppukäyttäjän tai päätöksentekovaiheen, kustannukset voivat nousta huimat 100-kertaisiksi alkuperäisiin kustannuksiin verrattuna merkittävien liiketoiminnallisten seurausten vuoksi, mukaan lukien toimintahäiriöt, menetetyt mahdollisuudet ja asiakkaiden tyytymättömyys. Tämä sääntö korostaa huonon tiedonlaadun eksponentiaalista vaikutusta, minkä vuoksi organisaatioiden on ratkaisevan tärkeää investoida tietojen havainnointikykyyn, mikä auttaa pitämään ongelmat, jos niitä ilmenee, lähempänä perimmäistä syytä verrattuna loppupäähän.

Yhteenveto

Tietojen laatuongelmat vaikuttavat merkittävästi yrityksiin, mikä johtaa resurssien hukkaan ja mahdollisuuksien menettämiseen. Tietojen havainnointikykyyn panostaminen on välttämätöntä huonoon dataan liittyvien riskien ehkäisemiseksi ja vähentämiseksi. Hyödyntämällä kvantitatiivisia mittareita ja ottamalla huomioon ei-kvantifioitavissa olevat tekijät organisaatiot voivat mitata tietojen havainnoitavuuden ROI:ta ja osoittaa sen arvon päätöksentekijöille. Tietojen luottamuksen varmistaminen, tehokkaan toimialueen päätöksenteon edistäminen, säännösten noudattaminen ja tyytyväisen datatiimin edistäminen ovat kaikki kriittisiä näkökohtia tietojen laatualoitteiden hyötyjen maksimoinnissa. Tietojen havainnointikyky on strateginen investointi, joka turvaa datan tarkkuuden, luotettavuuden ja käytön nykypäivän datavetoisessa maailmassa. 

Organisaatiot, jotka rakentavat monipuolisen havainnointikäytännön, saavat enemmän näkyvyyttä toisiinsa sidoksissa oleviin ympäristöihinsä, mikä merkitsee vähemmän katkoksia, nopeampaa ongelmanratkaisua, enemmän luottamusta sovellusten luotettavuuteen – ja viime kädessä enemmän tuloja ja tyytyväisempiä asiakkaita.

Aikaleima:

Lisää aiheesta DATAVERSITEETTI