Maciej Wojciechowski | 2.10.2024

Współpraca z METRO WARSZAWSKIE Sp. z o.o.

Podjęliśmy współpracę z METRO WARSZAWSKIE Sp. z o.o.

Przedmiot zamówienia obejmował dostarczenie i utrzymanie środowiska serwerowego w modelu PaaS na potrzeby systemu Infor LN z możliwością rozszerzenia zakresu prac o wykonanie migracji maszyn wirtualnych do środowiska utworzonego zgodnie z wymaganiami Zamawiającego.

Wartość kontraktu: 597 011,25 złotych brutto

Maciej Wojciechowski | 30.09.2024

Współpraca z Mazowieckim Specjalistycznym Centrum Zdrowia im. prof. Jana Mazurkiewicza w Pruszkowie.

Podjęliśmy współpracę z Mazowieckim Specjalistycznym Centrum Zdrowia im. prof. Jana Mazurkiewicza w Pruszkowie.

Zakres projektu:

Przedmiot zamówienia obejmował dostawę systemu informatycznego wykonującego wyniesioną kopię danych poza siedzibę szpitala wraz z kompleksowym wdrożeniem oprogramowania umożliwiającego automatyczne wykonywanie wyniesionej kopii zapasowej oraz świadczenie usługi serwisowej.

 Wartość kontraktu: 714 384,00 złotych brutto

Maciej Wojciechowski | 29.05.2024

Przewidywania Rozwoju Rynku Centrów Danych w Polsce: Perspektywy i Wyzwania

Wprowadzenie

Centra danych stanowią kluczowy element infrastruktury, umożliwiając przetwarzanie, przechowywanie i zarządzanie ogromnymi ilościami danych. Polska, z racji swojego strategicznego położenia, atrakcyjnych kosztów energetycznych oraz rosnącej liczby wykwalifikowanych specjalistów IT, ma potencjał, aby stać się europejskim hubem danych. Niniejszy artykuł analizuje kluczowe czynniki wpływające na rozwój rynku Data Center w Polsce, przedstawiając tezę, że Polska ma możliwość przekształcenia się w centrum danych dla całej Europy. Argumenty przedstawione w artykule opierają się na najnowszych danych rynkowych, trendach technologicznych oraz inwestycjach w infrastrukturę. Dodatkowo przeprowadziliśmy krótki wywiad z Robertem Kucnerem Dyrektorem ds. sprzedaży usług DC/Cloud, w firmie FLowberg IT, na temat wrocławskiego Centrum Danych.

Kluczowe Czynniki Napędzające Rozwój Rynku

Postępy Technologiczne

Postęp technologiczny jest jednym z najważniejszych czynników napędzających rozwój rynku centrów danych w Polsce. Infrastruktura światłowodowa i technologie 5G odgrywają kluczową rolę w tym procesie. Według raportu Mordor Intelligence, penetracja technologii światłowodowej (FTTP) w Polsce wzrosła z 44,6% w 2020 roku do około 51,9% w 2021 roku. Przykładem innowacji technologicznych, które wspierają rozwój rynku, jest wprowadzenie przez Cisco Systems Inc. nowych przełączników, które zwiększają szybkość i gęstość portów.

Rozwój technologii 5G, która zapewnia niskie opóźnienia i wysoką przepustowość, jest kolejnym kluczowym czynnikiem. Polska już teraz inwestuje w rozwój sieci 5G, co przyczyni się do wzrostu zapotrzebowania na centra danych, które będą mogły obsługiwać większe ilości danych w krótszym czasie.

Rosnące Zapotrzebowanie Konsumentów

Wzrost zapotrzebowania na usługi chmurowe, Internet Rzeczy (IoT), Big Data oraz technologie immersyjne, takie jak VR i AR, znacząco wpływa na rozwój centrów danych w Polsce. Pandemia COVID-19 przyspieszyła cyfryzację, zwiększając zapotrzebowanie na lokalne serwery i niskie opóźnienia danych. Wzrost zapotrzebowania konsumentów na szybkie i niezawodne usługi internetowe, wspierane przez rozwój infrastruktury światłowodowej, przyczynia się do ekspansji rynku.

Inwestycje w Infrastrukturę

Znaczące inwestycje w rozwój infrastruktury centrów danych w Polsce są kluczowe dla ich wzrostu. Inwestycje te są wspierane przez fundusze takie jak Recovery and Resilience Facility (RRF) oraz European Regional Development Fund (ERDF), które mają na celu zwiększenie inkluzji szerokopasmowej w Polsce.

Dobrym przykładem jest certyfikowane Data Center obsługiwane przez firmę Flowberg IT z siedzibą we Wrocławiu. Ten nowoczesny Obiekt oferuje zaawansowane technologicznie rozwiązania, które zapewniają wysoką dostępność, bezpieczeństwo i skalowalność usług.

Aby lepiej zrozumieć, jak Flowberg IT realizuje swoje cele i plany, przeprowadziliśmy wywiad z Robertem Kucnerem, Dyrektorem ds. Sprzedaży Usług DC/Cloud, w Flowberg IT.

Rozmowa dotyczyła informacji na temat unikalnych atutów wspomnianego Data Center we Wrocławiu, oferty usług, znaczenia lokalizacji oraz przyszłych planów rozwoju firmy.

Jakie są główne atuty Data Center Flowberg IT we Wrocławiu, które wyróżniają Was na tle konkurencji?

Robert Kucner: Data Center Flowberg IT we Wrocławiu wyróżnia się przede wszystkim nowoczesną infrastrukturą technologiczną. Posiadamy zaawansowane systemy, które zapewniają nieprzerwaną pracę nawet w przypadku awarii. Nasze centrum danych jest również wyposażone w systemy redundancji sieciowej, co minimalizuje ryzyko przestojów. Dodatkowo, spełniamy rygorystyczne normy bezpieczeństwa, w tym standardy ISO oraz certyfikacje dotyczące ochrony danych osobowych. Wszystko to sprawia, że możemy zapewnić naszym klientom najwyższy poziom usług i bezpieczeństwa danych.

Jakie usługi oferuje Flowberg IT i jakie są ich główne zalety?

Robert Kucner: Oferujemy szeroki zakres usług, w tym kolokację, usługi chmurowe, zarządzane usługi IT oraz rozwiązania z zakresu cyberbezpieczeństwa i connectivity. Nasze usługi chmurowe są skalowalne i elastyczne, co pozwala klientom dostosować je do swoich zmieniających się potrzeb. Dzięki usłudze kolokacji firmy mogą umieścić swoje serwery w naszym centrum danych, co zapewnia im dostęp do zaawansowanej infrastruktury bez konieczności ponoszenia dużych kosztów inwestycyjnych związanych z zapewnieniem redundantnego zasilania, chłodzenia czy też bezpieczeństwa fizycznego. Nasze usługi zarządzane pozwalają klientom skupić się na swoim głównym biznesie, podczas gdy my zajmujemy się zarządzaniem ich infrastrukturą IT.

Jakie znaczenie ma lokalizacja centrum danych we Wrocławiu dla Waszych klientów?

Robert Kucner: Wrocław jest strategicznie położony, co umożliwia szybki dostęp do kluczowych rynków w Europie Środkowo-Wschodniej. Miasto posiada dobrze rozwiniętą infrastrukturę transportową i telekomunikacyjną, co dodatkowo podnosi jego atrakcyjność. Dla naszych klientów oznacza to nie tylko szybki i niezawodny dostęp do ich danych, ale także korzyści z niskich kosztów operacyjnych w porównaniu do innych lokalizacji w Europie oraz dużą dostępność.

Jakie są najważniejsze inwestycje Flowberg IT w najnowsze technologie i rozwój kadry?

Robert Kucner: Inwestujemy znaczne środki w najnowsze technologie, aby zapewnić naszym klientom najwyższą jakość usług. Regularnie modernizujemy nasze systemy chłodzenia, zasilania i zabezpieczeń, aby spełniały najwyższe standardy. Staramy się być również na bieżąco z najnowszymi trendami i technologiami w branży IT.

Jakie są plany rozwoju Flowberg IT na najbliższe lata?

Robert Kucner: Planujemy dalszą ekspansję naszych usług chmurowych oraz rozwój nowych rozwiązań z zakresu cyberbezpieczeństwa. Chcemy również zwiększyć naszą obecność na rynkach międzynarodowych, oferując nasze usługi klientom spoza Polski. Naszym celem jest stać się liderem w dostarczaniu nowoczesnych i bezpiecznych rozwiązań IT, które pomagają naszym klientom osiągać ich cele biznesowe.

W jaki sposób Flowberg IT zapewnia bezpieczeństwo danych przechowywanych w Waszym centrum danych?

Robert Kucner: Bezpieczeństwo danych jest dla nas priorytetem. Nasze centrum danych jest zabezpieczone na wielu poziomach – fizycznym, technicznym i proceduralnym. Posiadamy zaawansowane systemy kontroli dostępu, monitoring 24/7 oraz zabezpieczenia fizyczne. Dodatkowo, nasze systemy IT są chronione przez nowoczesne rozwiązania z zakresu cyberbezpieczeństwa, które są regularnie aktualizowane przez zespół SOC (Security Operation Center) aby zapewnić najwyższy poziom ochrony przed zagrożeniami.

Jakie korzyści przynosi firmom korzystanie z usług kolokacji w Flowberg IT?

Robert Kucner: Korzystanie z usług kolokacji pozwala firmom, które wymagają bezpiecznego, niezawodnego i efektywnego kosztowo środowiska dla swoich serwerów i sprzętu IT. na umieszczenie ich w naszym centrum danych. Skorzystanie z usługi pozwala na redukcję kosztów związanych z budową, utrzymaniem i modernizacją własnej infrastruktury IT. Dodatkowo, firmy mogą skupić się na swoim głównym biznesie, ponieważ to my zajmujemy się zarządzaniem infrastrukturą IT. Nasze usługi kolokacji zapewniają także skalowalność, co pozwala firmom na łatwe dostosowanie zasobów IT do zmieniających się potrzeb.

Jakie są główne cechy serwerów dedykowanych oferowanych przez Flowberg IT?

Robert Kucner: Serwery dedykowane oferowane przez Flowberg IT to rozwiązania, które zapewniają pełną kontrolę nad zasobami serwera, najwyższy poziom bezpieczeństwa oraz wydajność. Oferujemy zarówno serwery dedykowane niezarządzane, które dają klientom pełną swobodę w zarządzaniu infrastrukturą, jak i serwery dedykowane zarządzane, gdzie zajmujemy się procesem zarządzania, w tym kopii zapasowych, bezpieczeństwa i aktualizacji oprogramowania. To idealne rozwiązanie dla firm, które potrzebują niezawodnych i wydajnych systemów IT.

Jakie są główne zalety korzystania z serwerów VPS w porównaniu do tradycyjnych rozwiązań hostingowych?

Robert Kucner: Serwery VPS oferują liczne korzyści w porównaniu do tradycyjnych rozwiązań hostingowych. Przede wszystkim zapewniają większą niezależność i elastyczność dzięki izolacji zasobów, co oznacza, że działanie innych VPS na tym samym serwerze nie wpływa na wydajność Twojej maszyny. VPS daje pełną kontrolę nad konfiguracją i zarządzaniem serwerem, możliwość skalowania zasobów według potrzeb, lepszą wydajność, oraz wyższy poziom bezpieczeństwa. Jest to idealne rozwiązanie dla stron internetowych, aplikacji, sklepów online i projektów developerskich.

Jakie są możliwości rozbudowy i skalowalności infrastruktury w Waszym centrum danych?

Robert Kucner: Nasze centrum danych zostało zaprojektowane z myślą o skalowalności i elastyczności. Posiadamy łączną powierzchnię 5000 m², z czego 1300 m² to komory kolokacyjne. Każda z komór jest przygotowana w taki sposób, aby dostosować rozwiązania do indywidualnych potrzeb klientów. Dzięki temu możemy łatwo rozbudować infrastrukturę w miarę wzrostu wymagań naszych klientów.

Jakie są dostępne zasoby energetyczne w Flowberg IT?

Robert Kucner: Nasze centrum danych posiada stałe zasilanie dzięki dwóm niezależnym liniom średniego napięcia o łącznej mocy 10 MW. Dodatkowo, posiadamy agregat prądotwórczy o mocy 2,5 MW oraz system UPS, który gwarantuje podtrzymanie zasilania serwerowni przy pełnym obciążeniu. Dzięki temu jesteśmy w stanie zapewnić nieprzerwaną pracę nawet w przypadku awarii zewnętrznych źródeł zasilania.

Jakie są główne wyzwania, z którymi mierzy się Flowberg IT, i jak sobie z nimi radzicie?

Robert Kucner: Jednym z głównych wyzwań jest ciągłe zapewnienie bezpieczeństwa danych w obliczu szybko zmieniających się zagrożeń cybernetycznych. Aby temu sprostać, regularnie aktualizujemy nasze systemy zabezpieczeń i szkolimy nasz zespół w zakresie najnowszych technologii i metod obrony. Kolejnym wyzwaniem jest rosnąca konkurencja na rynku centrów danych. Staramy się wyróżniać, oferując najwyższą jakość usług, elastyczność i indywidualne podejście do każdego klienta.

Polska jako Europejski Hub Danych: Perspektywy i Wyzwania

Perspektywy

  1. Strategiczne Położenie i Koszty Energetyczne

Polska ma strategiczne położenie w Europie, co czyni ją idealnym miejscem dla centrów danych obsługujących cały kontynent. Dodatkowo, Polska ma jedne z najniższych kosztów energii dla przedsiębiorstw w Unii Europejskiej, co jest istotnym czynnikiem przyciągającym inwestycje. Planowany gazociąg do Norwegii, który poprawi bezpieczeństwo energetyczne kraju, również przyczynia się do atrakcyjności Polski jako hubu danych.

  1. Koszty Budowy i Dostępność Zasobów Ludzkich

Relatywnie niskie koszty budowy i niskie ceny gruntów, w połączeniu z dostępem do wykwalifikowanej siły roboczej, szczególnie w obszarze IT, są dodatkowymi atutami Polski. Wzrost liczby specjalistów IT oraz inwestycje w edukację technologiczną wspierają rozwój sektora centrów danych.

  1. Polityka i Regulacje

Polska jest dobrze przygotowana do przyjęcia roli hubu danych dzięki korzystnym regulacjom prawnym, takim jak usunięcie przeszkód dla swobodnego przepływu danych nieosobowych między państwami członkowskimi UE. Dodatkowo, przepisy dotyczące ochrony danych, w tym RODO, zwiększają zapotrzebowanie na lokalne centra danych.

Wyzwania

  1. Złożoność Regulacyjna i Konkurencja

Jednym z głównych wyzwań jest złożoność regulacyjna oraz intensywna konkurencja na rynku. Firmy muszą dostosowywać się do różnorodnych przepisów krajowych i unijnych, co może być czasochłonne i kosztowne. Konkurencja ze strony innych krajów europejskich, które również inwestują w rozwój centrów danych, stanowi dodatkowe wyzwanie.

  1. Brak Wykwalifikowanej Kadry

Mimo że Polska posiada dużą liczbę wykwalifikowanych specjalistów IT, nadal istnieje niedobór wysoko wykwalifikowanej kadry w niektórych obszarach technologii. To może ograniczać zdolność do szybkiego skalowania operacji i wdrażania nowych technologii.

  • Zrównoważony rozwój

Rosnące zapotrzebowanie na centra danych wiąże się z koniecznością zapewnienia zrównoważonego rozwoju. Wysokie zużycie energii stawia przed firmami wyzwania związane z ekologicznym zarządzaniem i redukcją śladu węglowego. Firmy muszą inwestować w rozwiązania energooszczędne i odnawialne źródła energii, aby sprostać wymaganiom ekologicznym i regulacyjnym.

Przyszłość Rynku Rozwiązań Sieciowych Centrów Danych w Polsce

Innowacje i Technologie Przyszłości

W przyszłości kluczowe znaczenie będą miały innowacje i nowe technologie, takie jak sztuczna inteligencja, Internet Rzeczy, Big Data oraz technologie immersyjne. Rozwój tych technologii zwiększy zapotrzebowanie na centra danych zdolne do obsługi ogromnych ilości danych i zapewnienia niskich opóźnień.

Sztuczna inteligencja (AI) i uczenie maszynowe (ML) stają się coraz bardziej powszechne w różnych sektorach, co zwiększa zapotrzebowanie na centra danych zdolne do obsługi zaawansowanych algorytmów i dużych zbiorów danych. AI może również być wykorzystywana do optymalizacji zarządzania centrami danych, poprawy efektywności energetycznej i zwiększenia bezpieczeństwa.

Wzrost Adopcji Usług Chmurowych

Przewiduje się, że adopcja usług chmurowych będzie nadal rosnąć, napędzana przez małe i średnie przedsiębiorstwa (MŚP) oraz duże korporacje. Usługi chmurowe oferują elastyczność, skalowalność i oszczędności kosztów, co czyni je atrakcyjnym rozwiązaniem dla firm różnej wielkości.

Adopcja chmury hybrydowej, która łączy chmurę prywatną i publiczną, staje się coraz bardziej popularna. Firmy mogą przechowywać wrażliwe dane w chmurze prywatnej, jednocześnie korzystając z elastyczności i oszczędności chmury publicznej do mniej krytycznych operacji. To podejście zwiększa bezpieczeństwo danych i elastyczność operacyjną.

Współprace i Partnerstwa

Współprace między firmami technologicznymi oraz dostawcami usług chmurowych będą kluczowe dla dalszego rozwoju rynku. Partnerstwa takie jak to między NVIDIA i Dell Technologies, które wprowadzają zaawansowane rozwiązania AI dla centrów danych, będą napędzać innowacje i zwiększać konkurencyjność rynku.

Podsumowanie

Rynek rozwiązań sieciowych centrów danych w Polsce ma przed sobą obiecujące perspektywy wzrostu. Polska, dzięki swojemu strategicznemu położeniu, niskim kosztom energetycznym, dostępności wykwalifikowanej siły roboczej oraz korzystnym regulacjom prawnym, ma potencjał, aby stać się europejskim hubem danych. Mimo wyzwań związanych z regulacjami, konkurencją oraz zrównoważonym rozwojem, strategiczne inwestycje w infrastrukturę, innowacje technologiczne oraz rosnące zapotrzebowanie na usługi chmurowe będą napędzać dalszy rozwój rynku.

Dzięki ciągłym inwestycjom w badania i rozwój oraz współpracom strategicznym, Polska może stać się liderem w obszarze centrów danych w Europie, oferując nowoczesne i efektywne rozwiązania dla globalnych klientów.

Bibliografia

  1. Mordor Intelligence. „Poland Data Center Market Size & Share Analysis – Industry Research Report – Growth Trends”.
  2. Research and Markets. „Poland Data Center Market – Investment Analysis & Growth Opportunities 2023-2028”.
  3. Property Forum. „Poland’s data centre market set for dynamic growth”. Przewidywania Rozwoju Rynku Rozwiązań Sieciowych Centrów Danych
    w Polsce na 2024 rok: Perspektywy i Wyzwania
Maciej Wojciechowski | 28.03.2024

8 kroków do uruchomienia backupu Twojego serwera z FlowBack© 

VMware oferuje różne licencje na swoje oprogramowanie do tworzenia kopii zapasowych, a ceny mogą być wysokie, szczególnie dla dużych środowisk wirtualizacyjnych. Jeśli zmigrowałeś swoje środowisko na Proxmoxa możesz skorzystać z bezpiecznego backupu w chmurze, wykorzystując do tego nasze narzędzie FlowBack© dostępne w sklepie internetowym.  
 
Jak zrobić backup? Poniżej instrukcja dotycząca Integracji instancji środowiska Proxmox z zakupionym zasobem Proxmox Backup Server (PBS).  

Krok 1. W widoku serwerów kliknij na pierwszy wpis, a następnie wybierz opcję „Storage” i dodaj zasób Proxmox Backup Server  

Następnie udaj się do panelu użytkownika Proxmox Backup Server i zaloguj, aby wypełnić pola. 

Krok 2: Wybierz swój Datastore i opcję „show connection information” 

Po kliknięciu pojawią się okna z niezbędnymi informacjami do dokończenia konfiguracji zasobu. 
 

Krok 3: Skopiuj swój adres serwera i wypełnij pola 

Krok 4: Nazwij swój zasób (np. „Flowback”) 

Krok 5: Wypełnij pole nazwy użytkownika. Podaj nazwę w formacie [nazwa użytkownika]@pbs  

Krok 6: Podaj hasło i nazwę Datastore 
 

Ponownie wracamy do panelu użytkownika Proxmox Backup Server. 

Krok 7: Kopiujemy nazwę Datastore i wklejamy w oknie Connection Information 

Ponownie wracamy do panelu użytkownika Proxmox Backup Server. 

Krok 8: Kopiujemy odcisk palca serwera (fingerprint) i wklejamy w oknie Connection Information 

Po poprawnym wypełnieniu wszystkich pól, klikamy „ok”. Zasób Proxmox Backup Server zostanie dodany i będzie widoczny w panelu użytkownika środowiska wirtualnego Proxmox. 

Zobacz tutorial video:  

Tomasz Magda | 29.01.2024

O tym, jak zadbać o bezpieczeństwo kopii zapasowych, opowiada Tomasz Turek z Veeam Software

Co to znaczy, że kopia zapasowa jest NIENARUSZALNA i dlaczego to tak ważny aspekt ochrony danych? Czym jest linuxowe utwardzone repozytorium i czy jest to najlepsza metoda zapewnienia nienaruszalności backupu? Jak skutecznie testować kopie zapasowe i w jaki sposób wykorzystać do tego celu narzędzia ze stajni Veeam? O to i jeszcze więcej zapytaliśmy Tomasza Turka, Senior Systems Engineer z Veeam Software, który o backupie wie niemal wszystko.
 
Zapraszamy więc do materiału w dwu formatach. Dla tych, którzy wolą poczytać, mamy artykuł, a dla tych, którzy lubią pooglądać i posłuchać – wideo. Uwaga – znajdziecie tutaj sporo technicznego żargonu, więc artykuł jest skierowany raczej do specjalistów IT oraz osób z praktyczną wiedzą z obszaru backupu i odtwarzania.

Czym jest nienaruszalność kopii zapasowych i jak ją zrealizować w praktyce?

O nienaruszalności kopii zapasowej mówi nam atrybut Immutability Object Lock, który oznacza, że kopia jest nieusuwalna i niemodyfikowalna przez określony czas. Nie może jej ,,tknąć” ani administrator systemu backupu ani administrator infrastruktury, ani nikt inny w organizacji, bez względu na to, jaki poziom uprawnień posiada. 

Tomasz Turek wskazuje na kilka rozwiązań technicznych oferowanych przez Veeam Software, które realizują nienaruszalność backupu. Do stworzenia podstawowej ścieżki nienaruszalności kopii zapasowej poleca na przykład wykorzystać repozytorium linuksowe, czyli tzw. Linux Hardened Repository, w którym można oznaczyć atrybutem Immutability cały system plików.

W zależności od dostawcy chmurowego, Veeam pozwala nadać flagę Object Lock bezpośrednio na storage’u obiektowym – na przykład na Microsoft Azure lub na buckecie S3 w AWS – bez względu na to, czy mówimy o środowiskach hyperscalerowych czy o środowiskach opartych o macierze S3, znajdujących się w naszej lokalizacji, które natywnie wspierają taką opcję. W przypadku tego rozwiązania również nie ma mowy o usunięciu atrybutu Immutable, bez względu na poziom posiadanych uprawnień.

Ostatnią możliwością jest wykorzystanie urządzeń deduplikacyjnych, jak na przykład HPE StoreOnce, które w ramach swojego firmware’u również pozwala na założenie Object Locke’a i nieusuwanie backupu przez określony czas.

Czym jest linuxowe utwardzone repozytorium? Jak za jego sprawą realizowana jest ochrona przed usunięciem kopii zapasowej?

Linuxowe utwardzone repozytorium to rozwiązanie, które warto stosować, gdy nie posiadamy macierzy obiektowych i nie mamy możliwości wysłania naszych backupów ,,na zewnątrz”, czyli na przykład na taśmę. To rozwiązanie jest bardzo bezpieczne choćby dlatego, że Linux Hardened Repository spełnia kilka amerykańskich regulacji: SEC 17a-4(f), FINRA 4511(c) oraz CFTC 1.31(c)-(d) (według raportu Cohasset Associates), które stawiają to repozytorium na równi z repozytoriami WORM (Write-Once-Read-Many).

A jak to wygląda w praktyce? Veeam w czasie inicjalizacji linuxowego repozytorium wykorzystuje konto root do stworzenia znacznika Immutable w taki sposób, by użytkownik, „po którym” się komunikujemy, nie miał uprawnień do usunięcia lub modyfikacji oznaczonych danych. Można jedynie wydłużyć czas życia znacznika, nie można go natomiast skrócić lub całkowicie zdjąć. Co ważne, gdy mamy już wspierające nienaruszalność repozytorium, włączenie flagi Immutability zrealizować można z poziomu konsoli Veeam za pomocą zaledwie jednego checkboxa.

Czy utwardzone repozytorium linuxowe jest najlepszą metodą realizacji nienaruszalności kopii zapasowych?

Według Tomasza Turka linuxowe repozytorium jest jednym z podstawowych sposobów osiągnięcia nienaruszalności kopii zapasowej, ale nie jedynym. Stosunkowo bezpieczną metodą jest również wykorzystanie środowisk niezależnych od naszej firmowej infrastruktury do przechowywania kopii zapasowych. To na przykład środowiska zewnętrznych service providerów lub hyperskalerów, które gwarantują zupełnie inną domenę uwierzytelniania.

W przypadku ataku na nasze lokalne środowisko mamy jeszcze kopie zapasowe u service providera, gdzie dane są bezpieczne z dwóch powodów. Po pierwsze – zewnętrzna domena uwierzytelniania jest solidną barierą przed zaatakowaniem repozytorium Service Providera, nawet jeśli nasze lokalne dane uwierzytelniania zostały przejęte. Po drugie – dostawcy usługi backupu poza siedzibą (off-site backup) mają możliwość opóźnienia akcji usuwania kopii zapasowych ze swojego repozytorium, co znacząco zwiększa szanse na odzyskania danych po udanym ataku na lokalne repozytorium backupu. 

Rozważając to na przykładzie, gdybyście stali się ofiarą cyberataku mającego na celu nie tyle zaszyfrowanie danych, co na przykład ich usunięcie, service provider może ustanowić politykę, która mówi, że nawet w przypadku otrzymania komendy ,,Usuń kopie zapasowe” zadanie to realnie zostałoby zrealizowane dopiero po 7 dniach, co daje wystarczająco dużo czasu na odtwarzanie awaryjne.

Jakie są najlepsze praktyki testowania kopii zapasowych?

Najlepszą praktyką w zakresie testowania kopii zapasowych jest… sam fakt jej testowania. Najważniejsze jest to, żeby o regularnym testowaniu backupu pamiętać, niezależnie, czy będziemy to robić automatycznie czy manualnie, czy jakkolwiek inaczej – każda forma testowania znacząco zwiększa bezpieczeństwo danych.”

– mówi Tomasz Turek

Proces testowania backupu można skutecznie zautomatyzować – służy do tego na przykład funkcjonalność Veeam o nazwie SureBackup. Aby uruchomić regularny proces testowania backupu za pomocą tego narzędzia, wystarczy raz zdefiniować zadanie testowania, które automatycznie włącza maszyny wirtualne z repozytorium kopii zapasowych, bez konieczności wykorzystywania storage’u produkcyjnego.

Co ważne, w tym procesie maszyny wirtualne włączane są w wyizolowanej strefie sieciowej, czyli w tzw. wirtualnym laboratorium – więc nic nie stoi na przeszkodzie, aby zarówno maszyny produkcyjne, jak i maszyny testowe znajdowały się na tym samym środowisku. Funkcja SureBackup automatycznie weryfikuje, czy maszyna wirtualna została poprawnie uruchomiona, czy system operacyjny takiej maszyny został zainicjalizowany oraz czy pingujemy maszynę po to, by móc podłączyć ją do sieci. Poza tym, w tym procesie możemy zweryfikować poprawność działania aplikacji, czy taka aplikacja została poprawnie włączona. W ostatniej fazie mamy możliwość skorzystania zarówno z predefiniowanych skryptów, jak i skryptów definiowanych przez użytkownika.

W procesie testowania kopii zapasowej ważna jest również identyfikacja uszkodzeń fizycznych oraz obecności wirusów infekujących backup. SureBackup weryfikuje w tym celu cały łańcuch backupowy sprawdzając, czy nie nastąpiła na przykład awaria dysku lub kontrolera na macierzy, a także – wykorzystując najnowsze sygnatury antywirusowe – sprawdza, czy zawartość kopii zapasowej jest bezpieczna od najnowszych znanych malware’ów.

Podsumowanie

Bezpieczeństwo kopii zapasowych to zagadnienie równie szerokie, co trudne, głównie z uwagi na fakt, że niebezpieczeństwa, na które narażone są nasze dane, ewoluują w tempie logarytmicznym – codziennie pojawiają się nowe socjotechniki, coraz inteligentniejsze malware’y i jeszcze bardziej wyrafinowane techniki ataków ransomware.

A choć trudno za tym wszystkim nadążyć, jedno jest pewne – stosowanie sprawdzonych praktyk, narzędzi i strategii zabezpieczania backupu może nie tylko znacząco zwiększyć poziom bezpieczeństwa naszych danych, ale również (czego nikomu nie życzymy) stać się ostatnim bastionem w walce z cyberprzestępcami.

Dobrze zabezpieczona kopia zapasowa to przepustka do odzyskania utraconych danych, szybkiego przywrócenia ciągłości działania organizacji, ograniczenia skutków naruszenia oraz zmniejszenia potencjalnych konsekwencji finansowych i wizerunkowych dla organizacji.

Zatem jeśli wiesz już, że warto zadbać o ten obszar w Twojej organizacji, ale nie masz pewności co do tego, JAK to zrobić, jakich narzędzi użyć i od czego zacząć – zapraszamy do kontaktu z nami poprzez czat lub e-mail oraz do zapoznania się z informacjami o naszych usługach w zakresie backupu i odtwarzania na stronie produktu. Doradzimy, pomożemy i skutecznie przeprowadzimy Cię przez cały proces wdrożenia planu ochrony danych w Twojej organizacji. 


Artykuł został napisany przez człowieka, a nie algorytm sztucznej inteligencji.

Tomasz Magda | 24.08.2023

NIENARUSZALNE repozytorium na Twoje kopie zapasowe!

W zastosowaniu idei nienaruszalności i ochrony danych poszliśmy w ostatnim czasie o kolejny krok dalej – uruchomiliśmy bowiem NIENARUSZALNE repozytorium chmurowe.

To wyjątkowy rodzaj repozytorium na backup, który – ze względu na swoją budowę oraz szereg zabezpieczeń – zapewnia całkowitą niezmienność plików w zadanym czasie. Technicznie, bazowaliśmy na dobrze znanym w pamięciach masowych trybie WORM (write once, read many). Bezpieczeństwo tego rozwiązania oparte jest na  3 filarach:

  1. ,,Termin ważności” danych – każdy plik umieszczony w repozytorium otrzymuje swój indywidualny atrybut czasowy określający okres, w którym system blokuje możliwość zmiany lub usunięcia pliku oraz powiązanych z nim metadanych.
  2. Bezpieczne logowanie – wykorzystujemy poświadczenia jednorazowe i uwierzytelnianie oparte na certyfikatach do komunikacji między serwerem kopii zapasowych Veeam a usługą Veeam Transport Service.
  3. Bezpieczny zegar czasu – jako że w rozwiązaniu niezwykle ważną rolę pełni prawidłowy czas, zegary systemowe naszego klastra Veeam Cloud Connect synchronizują się z bezpiecznym zegarem czasu (NTP).

Kombinacja powyższych rozwiązań zapewnia kompleksową ochronę nie tylko przed standardowymi naruszeniami danych, ale także przed błędami ludzkimi lub przypadkowym usunięciem czy modyfikacją danych. Realizowana w ten sposób idea nienaruszalności kopii zapasowych jest wówczas kompletna.  

Docelowo nasi klienci będą mogli wybrać repozytorium, które im najbardziej odpowiada, lub aktywować oba naraz i realizować bardziej złożone scenariusze backupu.

Nowe repozytorium, testowane już przez naszych klientów. Umieściliśmy je też z dala od podstawowego ośrodka, bo w centrum danych w Opolu. Już wkrótce udostępnimy NIENARUSZALNE repozytorium do zamówienia online w naszym e-commerce: https://flowbergit.pl/veeam-cloud-connect/

Tomasz Magda | 12.04.2023

Backup as a Service – na czym polega outsourcing backupu i odtwarzania danych?

Czym właściwie jest Backup jako usługa? Jakie są zalety i wady sięgania po outsourcing w tym obszarze? Co daje backup poza siedzibą? Jak właściwie chronić kopie zapasowe? 

W ciągu ostatnich 12 miesięcy ponad 70% firm zostało zmuszonych do przywrócenia danych, a niemal połowa z nich potrzebuje do tego od 6 godzin do 2 dni roboczych – to statystyka pochodząca z badania firmy technologicznej IT Focus. Z kolei, jak wynika z raportu Data Protection Trends 2023, aż 82% organizacji doświadcza tzw. deficytu dostępności, czyli różnicy między możliwą, a oczekiwaną szybkością przywrócenia danych i aplikacji po incydencie bezpieczeństwa lub awarii (RTO).

Równie istotnym wskaźnikiem jest RPO, a więc dopuszczalny okres utraty danych – w tym przypadku blisko 79% respondentów twierdzi, że częstotliwość wykonywania kopii zapasowych nie zapewnia możliwego do zaakceptowania poziomu utraty danych. Sytuacja dodatkowo nie napawa optymizmem, gdy uwzględnimy, że w ciągu ostatnich dwóch lat aż 76% firm doświadczyło przynajmniej jednego cyberataku, w konsekwencji tracąc bezpowrotnie niemal jedną trzecią swoich danych. 

Statystyki te dotyczą szerokiego spektrum problemów związanych z utratą danych i wszystkie bez wyjątku prowadzą do jednego wniosku – – kwestia odzyskiwania danych powinna być dla firm jednym z najważniejszych priorytetów. W świetle mnogości zagrożeń, backup to konieczność, która warunkować może dalsze istnienie organizacji. Rzecz w tym, że w dzisiejszym, narażonym na ataki ransomware świecie, może się okazać, że standardowy backup to za mało.

Potwierdza to raport firmy Veeam Software, który wskazuje, że celem większości ataków ransomware jest przede wszystkim system kopii zapasowych – według danych z raportu,

aż 96% ataków obejmowało próbę uszkodzenia kopii zapasowych i w 68% przypadków próba się powiodła.

Pytanie brzmi zatem – czy można się przed tym jakoś zabezpieczyć? A jeśli tak, w jaki sposób?

Okazuje się, że rozwiązaniem, które może być odpowiedzią na wiele ryzyk związanych z ochroną danych, jest przede wszystkim metoda wykonywania kopii zapasowych i architektura rozwiązania, a w mniejszym stopniu konkretna technologia czy też usługa.

Odporny na ataki system backupu 


Dostępna obecnie wiedza w zakresie wektorów ataków i najczęściej wykorzystywanych podatności, daje wiele podpowiedzi w zakresie tego, jak powinien być zbudowany i sparametryzowany bezpieczny system backupu. Wystarczy zastosować 4 generalne zasady dotyczące architektury systemu: 

  1. Fizyczne zabezpieczenie infrastruktury backupu, czyli wyeliminowanie możliwości dostępu do infrastruktury backupu osobom nieupoważnionym, najlepiej w oparciu o usługę certyfikowanego centrum danych. 
  1. Segmentowanie i separowanie elementów infrastruktury, poprzez wykorzystywanie stref sieci. Strefa to obszar o określonej charakterystyce oraz przeznaczeniu i/lub podlegający szczególnym ograniczeniom. W każdej strefie obowiązywać powinny inne reguły dostępu. Na przykład strefa z ograniczeniami powinna realizować wyłącznie połączenia między zaufanymi serwerami, dzięki czemu będzie idealnym miejscem dla pamięci masowej realizującej funkcję repozytorium kopii zapasowych. 
  1. Rozdzielenie ról administracyjnych i stosowanie odrębnych poświadczeń dla systemu backupu, a nawet wybranych usług katalogowych, wraz z dwuskładnikowym uwierzytelnianiem i stosowaniem kluczy U2F dla ról administracyjnych. 
  1. Szyfrowanie kopii zapasowych w ramach każdego zadania backupu i zabezpieczenie klucza szyfrującego. 

Te generalne zasady, dobrze znane architektom bezpieczeństwa są stosunkowo łatwe do implementacji. Warto o nich pamiętać przy wdrażaniu lub modernizacji systemu kopii zapasowych.  

Planowanie bezpieczeństwa danych 


Właściwa ochrona danych i systemów wymaga planowania. Najlepszym sposobem jest spisanie polityki backupu, która jest ważnym elementem strategii bezpieczeństwa, będacej ważną częścią Planu Ciągłości Działania. Polityka backupu to plan działań, który określa m.in: 

  • jakie dane i systemy mają być objęte ochroną, 
  • z jaką częstotliwością mają być one kopiowane (RPO), 
  • jak długo i gdzie powinny być przechowywane (retencja), 
  • jak szybko dane mają być przywrócone (RTO), 
  • w jakiej kolejności mają być przywracane systemy (orkiestracja). 

Polityka backupu określa również procedury, które należy stosować w celu zapewnienia integralności danych, w tym scenariusze testów walidujących poprawność wykonanych kopii zapasowych. Ważne jest, aby polityka backupu była regularnie aktualizowana i dostosowywana do zmieniających się potrzeb i warunków biznesowych, aby nadążała za rozbudową i rozwojem środowiska IT organizacji.  

Outsourcing obszaru backupu 


Backup as a Service (BaaS) to skalowalne rozwiązanie obejmujące pełny system backupu oraz usługi eksperckie, które razem stanową kompleksowe rozwiązanie w zakresie ochrony danych i systemów. Podstawowe składniki backupu w formie usługi to:  

  • licencje zaawansowanego systemu tworzenia i zarządzania kopiami zapasowymi,  
  • instalacja i konfiguracja aplikacji do backupu, raportowania i monitoringu, 
  • skalowalne repozytorium backupu w bezpiecznym centrum danych, 
  • opracowanie polityki backupu wraz z jej implementacją, 
  • obsługa administracyjna ze wsparciem technicznym w określonym standardzie SLA. 

Zakres składowych usługi różnić się będzie zależnie od oferty dostawcy, jednak w większości przypadków outsourcing procesu backupu oznacza, że przenosimy pełną odpowiedzialność za ten obszar na usługodawcę. Nie angażujemy przy tym własnych zasobów, czy to ludzkich, czy infrastrukturalnych. Taka forma usługi odpowiada też na szereg kluczowych wyzwań związanych ze skuteczną i kompleksową ochroną danych w organizacjach. 

Co wybrać?  Outsourcing backupu czy inwestycja we własne zasoby? 


Wdrożenie usługi związanej z ochroną danych i odtwarzaniem po awarii kojarzy się zazwyczaj ze sporą inwestycją na start. Nic bardziej mylnego – w przypadku backupu w chmurze wdrożenie usługi odbywa się bez znaczących nakładów finansowych, bowiem rozliczenie odbywa się w systemie abonamentowym.

Oznacza to, że to klient decyduje, jaki poziom kosztów miesięcznych gotów jest ponosić, wybierając liczbę i rodzaj maszyn podlegających backupowi. Rozliczane jest zatem wyłącznie realne zużycie zasobów wraz z kosztem licencji.

Zwykle też service provider może zaoferować bardzo konkurencyjne warunki, z uwagi na skalę działalności – także dla małych i średnich firm, dla których wysokie koszty stałe mogą być problematyczne. 

Nasuwa się jednak pytanie – czy outsourcing backupu zawsze się opłaca? Może jednak, uwzględniając wybrane parametry, warto rozważyć inwestycję, a więc kupić wszystko, co trzeba i zbudować własne kompetencje?

Oczywistym jest, że w krótszym okresie abonament jest korzystniejszą opcją niż nakłady na własne rozwiązanie. Brak zaangażowania kapitału początkowego minimalizuje przecież ryzyko inwestycyjne, a umiarkowane opłaty miesięczne wpisywane są bezpośrednio w koszty operacyjne, co również generuje spore oszczędności.

A czy tak samo będzie w dłuższej perspektywie? Może okaże się, że w takiej sytuacji inwestycja własna jest korzystniejsza? Nie ma co zgadywać, trzeba sięgnąć po liczby – policzmy więc to na konkretnym przykładzie.

Przyjmijmy, że firma ma 20 serwerów wirtualnych, a szacowane zapotrzebowanie na repozytorium dla kopii zapasowych wynosi 10TB. Dla uproszczenia zakładamy, że w całym trzyletnim okresie zapotrzebowanie na zasoby pozostanie niezmienne. Jednocześnie, w obu opcjach realizatorem usług będzie ten sam podmiot, dlatego wycena wdrożenia systemu backupu oraz stworzenia polityk jest tożsama. Koszty energii i chłodzenia dla jednego serwera, ubezpieczenia, szkolenie zespołu, itp. pomijamy. Spójrzmy, jak to wygląda przy inwestycji we własne zasoby: 

I.                Inwestycja własna w system backupu 

Lp.  Zakres wdrożenia  Opex (brutto m-c) Capex (netto) 
1. Projekt wykonawczy   4 500 zł 
2. Licencje systemu Veeam Backup & Replication Enterprise Plus (ze wsparciem 24/7 na 3 lata).   51 120 zł 
3. Serwer backup wraz z repozytorium 10TB   12 500 zł 
4. Opracowanie polityki backupu   5 000 zł 
5. Wdrożenie systemu backupu i dokumentacja   6 000 zł 
6. Administracja systemem backupu (1/8 etatu) 2 000 zł   
     2 000 zł 79 120 zł 

 

W przypadku outsourcowania backupu do zewnętrznego dostawy koszty kształtują się następująco: 

II.               Outsourcing obszaru backupu 

Lp.  Zakres usług  Opex (netto m-c) Capex (netto) 
1. Projekt wykonawczy   4 500 zł 
2. Licencje systemu Veeam Backup & Replication Enterprise Plus (20 VM). 1 160 zł   
3. Repozytorium chmurowe 10TB 900 zł   
4. Opracowanie polityki backupu   5 000 zł 
5. Instalacja i konfiguracja systemu backupu   6 000 zł 
6. Administracja systemem backupu 1600 zł   
    3 660 zł 15 500 zł 

 

Powyższe zestawienie kosztów operacyjnych (Opex) oraz inwestycyjnych (Capex) pokazuje, że po 3 latach nadal korzystniejszą opcją realizacji backupu jest outsourcing – w tym przypadku Backup as a Service (BaaS). Dociekliwi mogą się jednak zastanawiać, co stanie się później? Czy po pewnym czasie nie powinno nastąpić wyrównanie kosztów w jednej i drugiej opcji? Hipotetycznie mogłoby to nastąpić po 4 latach od wdrożenia, ale w praktyce nic takiego się nie wydarzy. Dlaczego? To proste – przy wyborze inwestycji we własny system do backupu, po 3 latach pojawia się konieczność odnowienia wsparcia dla systemu Veeam Backup & Replication, którego przeciętny koszt dla tego przypadku wynosi 3740 euro (stan na 04.04.2023 roku). Trzeba będzie pewnie dokupić także wsparcie gwarancyjne do serwera, które zwyczajowo z nowym sprzętem obejmuje 3 lata. W usłudze BaaS opartej na Veeam Cloud Connect (VCC), prawo do aktualizacji jest wliczone w cenę usługi, a za sprzęt odpowiada usługodawca.

 

 

  Łączny koszt obszaru backupu 
Outsourcing Inwestycja 
w 1 rok 59 420 zł 103 120 zł 
w 2 roku 43 920 zł 24 000 zł 
w 3 roku 43 920 zł 24 000 zł 
Razem po 3 latach 147 260 zł 151 120 zł 

Bezpieczeństwo kopii zapasowych 


Oczywiście istnieje sporo wątpliwości, na ile dane, będące najcenniejszym aktywem organizacji, będą bezpieczne u dostawcy usług. Kwestie te zabezpieczyć mogą prawnicy (co jest codziennością w kontraktach B2B) oraz odpowiednie procesy po stronie usługodawcy. Z pomocą przychodzi także technologia, a więc na przykład szyfrowanie kopii, które mają być umieszczone w repozytorium chmurowym, co staje się warunkiem świadczenia usługi BaaS. 

Jeżeli jednak przeanalizujemy typowe ataki na dane cyfrowe, wówczas nie może być wątpliwości, że przechowywanie kopii zapasowych poza siedzibą, czyli u dostawcy usługi backupu, to jedna z najskuteczniejszych form ochrony danych. 

Szyfrowanie kopii zapasowych jest jednym z kluczowych elementów utrzymania poufności danych, dlatego system backupu w ramach BaaS weryfikuje każdą stworzoną kopię pod kątem tego, czy dane zostały zaszyfrowane. Klucz szyfrujący posiada jedynie właściciel danych, a całość transferu do repozytorium odbywa się z wykorzystaniem protokołu SSL. Kopie zapasowe powinny być również testowane pod kątem obecności wirusów oraz poprawności wykonania. Służą temu skrypty wykonywane automatycznie w wyizolowanym środowisku, dzięki rozwiązaniom takim jak SureBackup. 

Kopia zapasowa poza siedzibą (offsite backup) 


Najlepsze praktyki tworzenia kopii zapasowych obejmują strategię zgodną z regułą 3-2-1, która obejmuje trzy wystąpienia danych na dwóch różnych nośnikach oraz z jedną kopią przechowywaną poza siedzibą firmy. To właśnie ta ostatnia kopia (offsite backup) jest immanentną częścią planu odzyskiwania danych po awarii oraz jednym z kluczowych elementów usługi BaaS, bo daje pewność, że dane, których kopia znajduje się poza siedzibą, jest nienaruszalna, bezpieczna oraz najczęściej wyizolowana z firmowej sieci. Kopia przechowywana w ten sposób minimalizuje kilka istotnych ryzyk:  

  • pozwala chronić i odzyskiwać dane w przypadku zniszczenia sprzętu produkcyjnego lub lokalnego repozytorium,  
  • jest wolna od błędów ludzkich, w tym działania celowego,  
  • jest również odporna na ataki ransomware, które zazwyczaj infekują wszelkie dostępne w sieci firmowej dane i repozytoria.  

Kopia zapasowa poza siedzibą jest więc nierzadko ostatnią deską ratunku w przypadku utraty danych z lokalnego backupu.  

Jeżeli posiadasz aplikację Veeam Backup & Replication, uruchomienie offsite backup jest niezwykle proste. Wystarczy dodać do infrastruktury backupu (Backup Infrastructure) dostawcę usług (Service Provider), a w nowym lub istniejącym zadaniu backupu skonfigurować dodatkowe miejsce docelowe (Configure Secondary Destination), wskazując na Cloud Service Provider’a. 

Zalety i wady outsourcingu obszaru backupu i odtwarzania 


ZALETY  WADY 
Brak inwestycji – koszty początkowe są minimalne. Nie trzeba nabywać oprogramowania czy sprzętu, ani zatrudniać specjalisty w zakresie backupu.  
Szybki start – podobnie, jak w przypadku aplikacji w formule SaaS, udostępnienie usług podstawowych następuje w ciągu kilku minut, a pełnego zakresu (czyli wraz z wdrożeniem) w ciągu kilku dni.  
Skalowalność – alokacja licencji oraz wielkość repozytorium dla kopii zapasowych dostosowywana jest do bieżącego zapotrzebowania, co oznacza zarówno zwiększanie jak i pomniejszanie zasobów.  
Nowoczesna technologia – dostawcy usług najczęściej wykorzystują rozwiązania o wysokim stopniu niezawodności i zaawansowanych funkcjonalnościach, projektowane dla dużych organizacji. 
Niski próg wejścia – choć rozwiązania techniczne są niezwykle zaawansowane, usługi są przystępne cenowo, gdyż rozliczane są za użycie. Dla niewielkiej organizacji, posiadającej niewiele zasobów, oznacza to niski abonament. 
Wsparcie techniczne – dostęp do ekspertów z dużą wiedzą dziedzinową i doświadczeniem, pozwala klientowi w pełni przekazać zadania związane z obsługą backupu i odtwarzania na usługodawcę.  
Poufność danych -zarządzanie procesem i danymi jest zadaniem usługodawcy, a zatem może to rodzić pytania o bezpieczeństwo i poufność danych. 
Zależność technologiczna – jak każda usługa abonamentowa, także backup w outsourcingu oznacza w pewnym stopniu związanie z dostawcą i określoną technologią. 
Używasz, gdy płacisz – usługa rozliczana jest zwykle w cyklach miesięcznych, zatem problemy z płatnościami mogą wywołać kłopoty związane z dostępnością usługi. 
Brak indywidualizacji – usługi świadczone dla wielu klientów są standaryzowane ze względu na łatwość obsługi. Zwykle więc indywidualne dostosowanie parametrów usługi do wymogów jednego klienta jest niemożliwe. 
Ograniczenia techniczne – odtwarzanie z repozytorium chmurowego wymaga dostępu do sieci Internet, a przepustowość łącza wpływa wprost na szybkość odtwarzania z repozytorium chmurowego. 
Konieczność dostosowania się – usługodawca, jako wyłączny dysponent usługi, może jednostronnie dokonywać zmian w regulaminie, tym samym zmieniając warunki umowy, które wówczas mogą okazać się niekorzystne dla klienta.     

Sprawdzona technologia 


Ważnym aspektem każdego dojrzałego rozwiązania do ochrony danych jest technologia. Od wielu lat numerem jeden w tym zakresie jest Veeam Software, którego system Veeam Backup & Replication jest łatwą w konfiguracji, prostą i intuicyjną platformą do tworzenia kopii zapasowych i odzyskiwania po awarii. Rozwiązanie Veeam Backup & Replication umożliwia tworzenie kopii zapasowych na poziomie obrazu maszyn wirtualnych, fizycznych i chmurowych oraz przywracanie z nich danych, przy jednoczesnej optymalizacji transferu danych i zużycia zasobów. Scentralizowana konsola platformy pozwala samodzielnie administrować operacjami oraz zadaniami backupu, jak również pomaga automatyzować i integrować procesy ochrony oraz odzyskiwania danych.  

Jak nie kupować kota w worku? 


Dobrą praktyką przy wyborze tak istotnej usługi z perspektywy ciągłości działania organizacji, jest to, by wybrać dostawcę i technologię najlepiej dopasowaną do potrzeb. W przypadku BaaS warto skorzystać z możliwości prezentacji usługi na żywo i sięgnąć po bezpłatny okres próbny. W trakcie prezentacji na żywo można zadawać pytania, które pozwolą ocenić stopień dopasowania usługi do potrzeb organizacji. Wersja próba usługi umożliwi zasymulowanie rzeczywistego użycia, czyli na przykład stworzenia kilku zadań backupu i przeprowadzenie odtwarzania z utworzonych kopii.  

Podsumowanie 


Skuteczna ochrona danych wymaga kompleksowego i przemyślanego podejścia. Należy sięgnąć po najlepsze praktyki w zakresie tworzenia architektury rozwiązania, strategii backupu oraz technologii, które, odpowiednio wdrożone, znacząco zmniejszą ryzyko utraty danych i przestojów. Dobra wiadomość jest taka, że nie trzeba robić tego na własną rękę – można zadbać o dane bez konieczności wielkich inwestycji, nakładów na kompetencje techniczne i dużych zasobów. Wystarczy zwrócić się w stronę zaufanego partnera technologicznego i usługi, która odpowiada na wszystkie wyzwania dotyczące strategii ciągłości działania. Backup as a Service jest właśnie taką usługą – warto zatem rozważyć, czy przypadkiem nie jest to właśnie to, czego potrzebuje Wasza organizacja, by spać spokojnie i nie martwić się o swoje dane.  


Recovery Time Objective – oznacza czas, jaki jest potrzebny od chwili wystąpienia awarii do chwili uruchomienia awaryjnego trybu pracy (failover) lub przywrócenia środowiska produkcyjnego. 

Retencja definiuje, jak długo będziemy przechowywać kopie zapasowe w repozytorium backupu, a więc określa czas życia backupu.

Orkiestracja oznacza zaplanowaną sekwencją uruchomień powiązanych ze sobą serwerów i usług, która zapewni prawidłową pracę środowiska IT.


Human Made - no AI
Artykuł został napisany przez człowieka, a nie algorytm sztucznej inteligencji.