Nie bądź zakładnikiem dzięki kopii zapasowej starszych danych

Nie bądź zakładnikiem dzięki kopii zapasowej starszych danych

Węzeł źródłowy: 2554850

Dziś Światowy Dzień Kopii Zapasowych, nasze coroczne przypomnienie o tym, jak ważne jest skrupulatne tworzenie kopii zapasowych danych, aby zapobiec ich utracie. Ale faktem jest, że tempo, w jakim poziomy danych eksplodują, znacznie przekracza możliwości starszych systemów tworzenia kopii zapasowych danych. Sposób, w jaki robiliśmy kopie zapasowe przez ostatnie 20 lat, jest zepsuty, zwłaszcza na dużą skalę. Ponieważ ilość danych stale rośnie – zarówno pod względem liczby plików, jak i ilości generowanych danych – systemy tworzenia kopii zapasowych, które skanują systemy plików, nie są już wykonalne, zwłaszcza gdy wkraczamy w sferę miliardów plików i petabajtów lub więcej danych.

Globalna DataSphere firmy IDC, która prognozuje ilość danych, które będą tworzone rocznie, przewiduje, że do 21.2 r. dane będą rosły ze złożonym rocznym wskaźnikiem wzrostu (CAGR) na poziomie 221,000%, aby osiągnąć ponad 1,000 2026 eksabajtów (ekzabajt to XNUMX petabajtów).

Zapewnienie bezpieczeństwa i odporności dużych zestawów danych jest poważnym wyzwaniem dla organizacji, a tradycyjne rozwiązania do tworzenia kopii zapasowych nie są w stanie sprostać temu wyzwaniu. Co więcej, wraz ze wzrostem ilości danych firmy stają się coraz bardziej podatne na korupcję, złośliwe oprogramowanie, przypadkowe usuwanie plików i nie tylko. Utrata ważnych danych może być druzgocąca i skutkować stratami finansowymi, zakłóceniami osobistymi i biznesowymi, a nawet problemami prawnymi. 

Inne konsekwencje mogą obejmować utratę reputacji i koszt wdrożenia nowych środków bezpieczeństwa. Ransomware będzie kosztować swoje ofiary blisko $ 265 mld rocznie do 2031 r., przy czym co dwie sekundy będą pojawiać się nowe ataki na konsumentów lub firmy, ponieważ sprawcy oprogramowania ransomware agresywnie udoskonalają swoje złośliwe oprogramowanie i powiązane działania wymuszające.

Tworzenie kopii zapasowych starszych danych nie jest już opłacalne

Tradycyjne tworzenie kopii zapasowych polega na skanowaniu systemu plików w celu znalezienia i utworzenia kopii nowych i zmienionych plików. Jednak wraz ze wzrostem liczby plików skanowanie trwa dłużej – do tego stopnia, że ​​ukończenie skanowania w rozsądnym czasie staje się niemożliwe. Zwykle działają w nocy, kiedy systemy są prawdopodobnie mniej niestabilne.  

Ponadto kopie zapasowe są uruchamiane w określonych odstępach czasu, co oznacza, że ​​wszelkie zmiany przed następnym skanowaniem zostaną utracone w przypadku awarii systemu. Tradycyjne kopie zapasowe nie spełniają celu polegającego na zerowej utracie danych, a odzyskiwanie danych w repozytoriach wielkości petabajtów jest czasochłonne. A proces odzyskiwania nie jest taki, jaki powinien być – jest żmudny i powolny.  

Nawet „przyrostowe na zawsze z syntetycznymi pełnymi kopiami zapasowymi” mogą nie być w stanie przetworzyć zmienionych danych w wymaganym oknie tworzenia kopii zapasowych. Chociaż chmura jest obecnie powszechnie stosowana do tworzenia kopii zapasowych danych, podejście polegające na przesyłaniu petabajtów danych do chmury i przechowywaniu tych danych w chmurze nie jest ani praktyczne, ani opłacalne, informuje IDC.

Osiągnięcie odporności danych na dużą skalę ma obecnie coraz większe znaczenie sterowane danymi świat. Organizacje muszą płynnie powracać do działania, zmniejszać ryzyko utraty danych i minimalizować wpływ przestojów, przestojów, naruszeń danych i klęsk żywiołowych. Zbyt długo liderzy biznesowi musieli akceptować pewien poziom utraty danych określony przez cele punktu odzyskiwania (RPO) oraz pewne przestoje określone przez docelowy czas odzyskiwania (RTO).

Radykalne nowe podejście: przeniesienie punktu ciężkości z udanych kopii zapasowych na skuteczne odzyskiwanie

Wiele ogólnych koncepcji i praktyk dotyczących ochrony danych, aw szczególności tworzenia kopii zapasowych i odzyskiwania danych, nie zmieniło się od czasu ich opracowania w erze klient/serwer. Jednak wraz ze znacznym postępem technologicznym i ciągłym wzrostem cyberataków działających jak katalizator, horyzont tworzenia kopii zapasowych wkrótce się zmieni. Tradycyjna kopia zapasowa została zaprojektowana tak, aby była niezależna od systemu plików jako oddzielna jednostka. Nowe, świeże podejście sprawia, że ​​system plików i kopia zapasowa są jednym i tym samym — kopia zapasowa znajduje się w linii i w ścieżce danych. W rezultacie każda zmiana w systemie plików jest rejestrowana na bieżąco, użytkownicy końcowi mogą odzyskać utracone dane bez pomocy działu IT, a wyszukiwanie plików jest łatwe, niezależnie od tego, kiedy mogły istnieć i w całym kontinuum czasowym. 

Ten model na nowo zdefiniuje pamięć masową przedsiębiorstwa, łącząc pamięć masową i odporność danych w jednym systemie, tak aby każda zmiana w ścieżce danych była rejestrowana. Zwiększa odporność danych i zapewnia silną pierwszą linię obrony przed cyberblokowaniem ransomware, umożliwiając organizacjom łatwe i szybkie odzyskiwanie naruszonych danych. Użytkownicy lub administratorzy IT mogą dosłownie cofnąć się do dowolnego punktu w czasie, aby odzyskać potrzebne pliki – nawet w przypadku cyberataku, w którym pliki zostały zaszyfrowane.

Pomyśl, jak możesz potraktować dom w górach i zabezpieczyć go przed pożarem. Możesz podjąć środki ostrożności, takie jak usuwanie drzew wokół domu, zapewnienie przerw przeciwpożarowych, czyszczenie dachów i rynien z martwych liści oraz inne środki zapobiegawcze. Lub możesz biernie nie podejmować żadnych działań i po prostu czekać, aż dom spłonie, mając nadzieję, że ubezpieczenie jest wystarczające, aby odzyskać stratę. Pierwsze podejście jest proaktywne – przede wszystkim unikaj katastrofy. Drugi jest reaktywny – wydarzyła się zła rzecz i teraz spędzimy dużo czasu, wysiłku i pieniędzy i mamy nadzieję, że uda nam się wrócić do miejsca, w którym byliśmy przed wydarzeniem. 

Ten przykład ilustruje różnicę między wychodzeniem ze stanu ciągłości (ciągła dostępność danych) a nieciągłością (katastrofa, która uderza). Proaktywna strategia wykorzystuje ciągły dostęp do danych w trybie inline, eliminując koszty i wpływ utraty danych na działalność biznesową oraz zapewnia następujące korzyści: 

  • Możliwość wycofywania ataków ransomware i zapewniania pierwszej linii obrony przed stratami korporacyjnymi oraz silnej ochrony przed przestępcami przetrzymującymi firmę i jej dane jako zakładników w ciągu najwyżej kilku minut, a nie dni, tygodni lub dłużej. 
  • Ciągła ochrona danych umożliwia osiągnięcie ciągłości usług na dużą skalę z możliwością natychmiastowego przywrócenia systemu plików do stanu z wybranego punktu w czasie przed uszkodzeniem danych, awarią sprzętu lub złośliwym zdarzeniem. Zapewnia bezpieczeństwo danych i odporność na dużą skalę dzięki niezwykle szybkiemu odzyskiwaniu danych i zerowej utracie danych dzięki połączeniu systemu plików i struktura danych.
  • Przyspieszone odzyskiwanie danych umożliwia użytkownikom interaktywne znajdowanie i odzyskiwanie potrzebnych informacji — samodzielny proces wyszukiwania i odzyskiwania danych, który eliminuje potrzebę interwencji działu IT. 

Ciągła dostępność danych koncentruje się na odtwarzaniu, a nie na tworzeniu kopii zapasowych. Pomaga organizacjom w wykorzystywaniu ogromnych ilości danych w celu zapewnienia odporności i pokonywaniu przeszkód związanych ze starszymi kopiami zapasowymi, które stają się coraz bardziej przestarzałe. Nie bądź zakładnikiem podejścia do tworzenia kopii zapasowych, które istnieje od dziesięcioleci, mając nadzieję, że katastrofa się nie wydarzy. Przyjmij proaktywną strategię, która opiera się na ciągłym dostępie do danych w trybie inline, aby wyeliminować koszty i wpływ utraconych danych na działalność biznesową oraz ryzyko cyberzagrożeń. 

Znak czasu:

Więcej z WSZECHSTRONNOŚĆ DANYCH