Hålls inte som gisslan av Legacy Data Backup

Hålls inte som gisslan av Legacy Data Backup

Källnod: 2554850

Idag är det World Backup Day, vår årliga påminnelse om vikten av att vara noggrann med att säkerhetskopiera data för att förhindra dataförlust. Men faktum är att hastigheten med vilken datanivåerna exploderar i storlek är långt över vad äldre system för säkerhetskopiering av data kan åstadkomma. Sättet vi har gjort backup under de senaste 20 åren är trasigt, särskilt i skala. Eftersom mängden data fortsätter att öka – både i antal filer och mängden genererad data – är säkerhetskopieringssystem som skannar filsystem inte längre genomförbara, särskilt när vi går in i miljarder filer och petabyte eller mer data.

IDC:s Global DataSphere, som förutspår mängden data som kommer att skapas årligen, förutspår att data kommer att växa med en sammansatt årlig tillväxthastighet (CAGR) på 21.2 % för att nå mer än 221,000 1,000 exabyte (en exabyte är 2026 XNUMX petabyte) år XNUMX.

Att hålla storskaliga datamängder säkra och motståndskraftiga är en betydande utmaning för organisationer, och traditionella säkerhetskopieringslösningar är inte utrustade för att möta denna utmaning. Dessutom blir företag allt mer sårbara för korruption, skadlig programvara, oavsiktlig radering av filer och mer när data växer. Att förlora viktig data kan vara förödande och resultera i ekonomiska förluster, personliga och affärsstörningar eller till och med juridiska frågor. 

Andra konsekvenser kan inkludera skada på ryktet och kostnaden för att implementera nya säkerhetsåtgärder. Ransomware kommer att kosta sina offer nära $ 265 miljarder årligen till 2031, med en ny attack mot en konsument eller ett företag varannan sekund när utövare av ransomware aggressivt förfinar sina skadliga nyttolaster och relaterade utpressningsaktiviteter.

Äldre datasäkerhetskopiering fungerar inte längre

Traditionell säkerhetskopiering fungerar genom att skanna ett filsystem för att hitta och skapa kopior av nya och ändrade filer. Skanningen tar dock längre tid när antalet filer växer – så mycket att det blir omöjligt att slutföra skanningar inom en rimlig tidsram. De körs vanligtvis på natten när systemen sannolikt är mindre flyktiga.  

Dessutom är säkerhetskopior inställda på att köras i intervaller, vilket innebär att alla ändringar före nästa skanning kommer att gå förlorade om det uppstår ett systemfel. Traditionell säkerhetskopiering uppfyller inte målet om noll dataförlust, och att återställa data i petabyte-stora förråd är tidskrävande. Och återhämtningsprocessen är inte vad den borde vara – den är tråkig och långsam.  

Även "inkrementell för alltid med syntetiska fullständiga säkerhetskopior" kanske inte kan behandla ändrade data inom det nödvändiga säkerhetskopieringsfönstret. Även om molnet nu ofta används för säkerhetskopiering av data, är metoden att överföra petabyte med data till molnet och lagra denna data i molnet varken praktisk eller kostnadseffektiv, rapporterar IDC.

Att uppnå dataresiliens i stor skala är allt viktigare i dagens data driven värld. Organisationer måste gå tillbaka sömlöst, minska risken för dataförlust och minimera effekterna av driftstopp, avbrott, dataintrång och naturkatastrofer. Alltför länge har företagsledare varit tvungna att acceptera en nivå av dataförlust, enligt definitionen av återställningspunktsmålen (RPO), och viss driftstopp, enligt definitionen av återställningstidsmålen (RTO).

Ett radikalt nytt tillvägagångssätt: flytta fokus från framgångsrika säkerhetskopior till framgångsrika återställningar

Många av de allmänna koncepten och metoderna för dataskydd, och säkerhetskopiering och återställning i synnerhet, har inte förändrats sedan de utvecklades i klient/server-eran. Men med betydande tekniska framsteg och den ständiga ökningen av cyberattacker som fungerar som en katalysator, är backuphorisonten på väg att förändras. Traditionell säkerhetskopiering är utformad för att vara oberoende av filsystemet som en separat enhet. Ett fräscht nytt tillvägagångssätt gör filsystemet och säkerhetskopieringen till samma sak – säkerhetskopian finns inline och inom datavägen. Som ett resultat av detta registreras varje förändring i filsystemet när den inträffar, slutanvändare kan återställa förlorad data utan hjälp av IT, och det är enkelt att hitta filer, oavsett när de kan ha funnits, och över hela tidskontinuumet. 

Denna modell kommer att omdefiniera företagslagring genom att konvergera lagring och datamotstånd i ett system så att varje förändring i datavägen fångas upp. Det ökar datamotståndskraften och ger en stark första försvarslinje mot cyberlåsning av ransomware, vilket gör det möjligt för organisationer att enkelt och snabbt återställa komprometterad data. Användare eller IT-administratörer kan bokstavligen gå tillbaka till vilken tidpunkt som helst för att återställa nödvändiga filer – även i händelse av en cyberattack där filer har krypterats.

Tänk på hur du kan behandla ett hus i bergen och skydda det mot en brand. Du kan vidta försiktighetsåtgärder som att ta bort träd runt huset, säkerställa brandavbrott, rengöra tak och rännor från döda löv och andra förebyggande åtgärder. Eller så kan du passivt inte vidta några åtgärder och bara vänta på att huset brinner ner, i hopp om att försäkringen är tillräcklig för att täcka förlusten. Det första tillvägagångssättet är proaktivt – undvik katastrofen i första hand. Det andra är reaktivt – en dålig sak hände och nu kommer vi att spendera mycket tid, ansträngning och pengar och hoppas att vi kan återhämta oss där vi var innan evenemanget. 

Det här exemplet illustrerar skillnaden mellan återställning från ett tillstånd av kontinuitet (kontinuerlig datatillgänglighet) och diskontinuitet (en katastrof som inträffar). En proaktiv strategi utnyttjar kontinuerlig inline-dataåtkomst, eliminerar kostnaden och affärseffekten av förlorad data, och möjliggör följande fördelar: 

  • Möjligheten att rulla tillbaka ransomware-attacker och ge den första försvarslinjen mot företagsförluster och starkt skydd mot brottslingar som håller ett företag och dess data som gisslan på högst minuter snarare än dagar, veckor eller mer. 
  • Kontinuerligt dataskydd gör det möjligt att uppnå kontinuitet i tjänsten i stor skala med möjligheten att omedelbart varva ner filsystemet så att det ser ut som det var vid den valda tidpunkten före datakorruption, hårdvarufel eller skadlig händelse. Den levererar datasäkerhet och motståndskraft i stor skala med extremt snabb dataåterställning och ingen dataförlust som uppnås genom att förena filsystemet och datatyg.
  • Snabb dataåterställning gör det möjligt för användare att interaktivt hitta och återställa det de behöver – en "gör-det-själv" datasökning och återställningsprocess som eliminerar behovet av IT-intervention. 

Kontinuerlig datatillgänglighet fokuserar på återställning snarare än säkerhetskopiering. Det hjälper organisationer att utnyttja enorma mängder data för motståndskraft och att övervinna hindren för äldre säkerhetskopiering som blir allt mer föråldrad. Håll dig inte som gisslan av en backup-metod som är decennier gammal, i hopp om att en katastrof inte kommer att inträffa. Anta en proaktiv strategi som bygger på kontinuerlig inline-dataåtkomst för att eliminera kostnaden och affärseffekten av förlorad data och risken för cyberhot. 

Tidsstämpel:

Mer från DATAVERSITET