Maciej Wojciechowski | 18.06.2024

Rola i korzyści białego wywiadu – OSINT, z czym to się klika?

OSINT, czyli Open Source Intelligence (biały wywiad), to technika polegająca na pozyskiwaniu oraz analizie informacji z jawnych i ogólnie dostępnych źródeł. Jest to legalna metoda wykorzystywana m.in. w sektorze rządowym w celu zapewnienia bezpieczeństwa państwa lub reakcji organów ścigania w wymagających tego sytuacjach oraz komercyjnym, gdzie np. potrzeba dokonać weryfikacji wiarygodności kontrahenta, z którym ma zostać podjęta współpraca biznesowa. Kluczowym elementem pracy analityka OSINT jest określenie celu, w jakim ma zostać pozyskana informacja lub zbiór tych informacji.  Cel tych działań zawsze definiowany jest przez potrzeby zleceniodawcy.

Proces OSINT

Praca analityczna w zakresie OSINT musi podlegać pewnym procesom, aby była skuteczna. Przykładowy proces dla wariantu zleceniodawca-zleceniobiorca obejmuje następujące etapy:

  1. Przyjęcie zlecenia: Proces rozpoczyna się od przyjęcia zlecenia, które określa zakres i cel działań analitycznych.
  2. Określenie celu zlecenia: Następnie określa się cel zlecenia, co pozwala na precyzyjne dopasowanie metod i narzędzi do realizacji zadania.
  3. Zrozumienie kluczowych elementów zlecenia: Kluczowym krokiem jest zrozumienie wszystkich istotnych elementów zlecenia, co umożliwia skuteczne przeprowadzenie analizy.
  4. Planowanie: Etap planowania obejmuje ustalenie strategii oraz harmonogramu działań analitycznych.
  5. Identyfikacja źródeł informacji: Kluczowym elementem jest identyfikacja źródeł informacji, które mogą dostarczyć potrzebne dane.
  6. Gromadzenie danych: Następnie przeprowadza się proces gromadzenia danych z wybranych źródeł.
  7. Walidacja danych: Ważnym krokiem jest walidacja danych, czyli sprawdzenie ich wiarygodności i dokładności.
  8. Analiza wyselekcjonowanych informacji: Zebrane i zweryfikowane informacje są analizowane w kontekście celów zlecenia.
  9. Ocena materiału analitycznego: Ostateczna ocena materiału analitycznego pozwala na wyciągnięcie wniosków i przygotowanie raportu.
  10. Dostarczenie wyników analizy: Końcowym etapem jest dostarczenie wyników analizy zleceniodawcy.

Cały ten proces jest nadzorowany z uwzględnieniem terminów oraz potrzeb zleceniodawcy. Poniższy wykres kołowy ilustruje ten proces:

Zastosowania OSINT

Wywiad gospodarczy

OSINT umożliwia prowadzenie działań ukierunkowanych na analizę działalności gospodarczej, w tym pozyskiwanie informacji o kadrze, finansach przedsiębiorstwa oraz powiązaniach gospodarczych. Dzięki temu można oszacować ryzyka związane z podjęciem biznesowej współpracy z danym podmiotem.

Przykład: Firma X planuje nawiązać współpracę z nowym dostawcą. Wykorzystując techniki OSINT, firma przeprowadza analizę finansową potencjalnego partnera, sprawdzając jego stabilność finansową, wcześniejsze transakcje oraz opinie innych klientów. Dzięki temu minimalizuje ryzyko nawiązania współpracy z niewiarygodnym partnerem.

Analiza rynku i strategia biznesowa

Firmy mogą śledzić i badać trendy rynkowe, preferencje klientów oraz działania konkurencji. Monitorowanie mediów społecznościowych pozwala na identyfikację nastrojów konsumenckich oraz popularnych tematów, co może być wykorzystane do tworzenia bardziej trafnych kampanii marketingowych. Jak zauważa Jakub Karmowski, Dyrektor Działu OSINT Flowberg IT:

„Część z rozwiązań, jakie dostarczamy w ramach oferty OSINT, pozwala firmom szybciej
i lepiej zrozumieć rynek oraz konkurencję. Nasze analizy „uszyte” są indywidualnie pod potrzebę klienta, gdzie raz mocniejszy akcent trzeba postawić np. na analizę mediów społecznościowych, publikację wpisów na forach, recenzje, a raz na analizę branżowych raportów czy pogłębioną analizę stron internetowych lub innych cyfrowych śladów jakie jesteśmy w stanie zidentyfikować w ramach zlecenia.”

Przykład: Firma kosmetyczna Y analizuje recenzje produktów konkurencji oraz trendy w mediach społecznościowych. Na podstawie zebranych danych tworzy nową linię produktów dostosowaną do aktualnych preferencji klientów, co pozwala jej zwiększyć udział w rynku i poprawić wyniki sprzedaży.

Zarządzanie ryzykiem i bezpieczeństwo

OSINT stanowi kluczowy punkt w identyfikacji potencjalnych zagrożeń w szerokim rozumieniu. Może to dotyczyć zarówno infrastruktury, jak i czynnika ludzkiego. Procesy te realizowane są w obszarze internetu indeksowanego, jak i Darknetu, gdzie można napotkać informacje o wykradzionych danych. Jakub Karmowski dodaje:

OSINT bardzo dobrze sprawdza się jako forma oszacowania wystąpienia określonego ryzyka, zagrożenia dla firmy, jak degradacja wizerunku przedsiębiorstwa, zarządu, cyberataku czy też cyberszpiegostwa. Szybkie reagowanie na wspomniane zagrożenia jest kluczowe, aby mitygować ich wpływ na działalność i chronić reputację oraz interesy firmy.”

Przykład: Duża korporacja Z regularnie monitoruje Darknet w poszukiwaniu wycieków danych dotyczących swojej firmy. Dzięki temu jest w stanie szybko zareagować na potencjalne zagrożenia, takie jak planowane ataki cybernetyczne czy ujawnienie poufnych informacji, co pozwala na skuteczniejsze zarządzanie ryzykiem i ochronę swoich zasobów.

Śledzenie działań konkurencji

Identyfikowanie oraz gromadzenie informacji w ramach działań OSINT nie powinno być mylone z „szpiegostwem”. Legalność działań opartych na publicznie dostępnych źródłach jest fundamentem. Firmy mogą monitorować kampanie marketingowe konkurencji, nowe produkty lub usługi oraz strategie biznesowe. Ta wiedza pozwala lepiej dostosować własne działania i usprawnić procesy wewnętrzne, by stać się bardziej konkurencyjnym na rynku.

Przykład: Firma technologiczna W analizuje publicznie dostępne informacje dotyczące nowości produktowych konkurencji oraz ich kampanii marketingowych. Dzięki temu może dostosować swoją strategię, wprowadzając innowacyjne rozwiązania, które odpowiadają na działania konkurencji i lepiej spełniają oczekiwania klientów.

Śledztwa międzynarodowe

OSINT jest często wykorzystywany w śledztwach międzynarodowych, które inicjowane są przez określone wydarzenia, takie jak wojny, zbrodnie wojenne czy łamanie praw człowieka. Wojna w Ukrainie spowodowała wzrost aktywności społecznej na platformach społecznościowych, gdzie techniki OSINT szybko zyskały na popularności. Użytkownicy globalnie zaczęli dzielić się wynikami swoich małych i większych śledztw. Jedną z najbardziej znanych grup śledczych wykorzystujących OSINT i GEOINT (rozpoznanie satelitarne) jest brytyjska grupa dziennikarzy śledczych Bellingcat.

Przykład: Grupa Bellingcat, korzystając z technik OSINT i GEOINT, była w stanie zidentyfikować rosyjskie konwoje wojskowe w Ukrainie, analizując dostępne w internecie zdjęcia i filmy. Dzięki temu społeczność międzynarodowa mogła lepiej zrozumieć sytuację na miejscu i podejmować odpowiednie działania dyplomatyczne.

Znane osoby na celowniku

Osoby wyeksponowane politycznie lub powiązane z dużymi biznesami również stają się celem śledztw opartych o techniki OSINT. Przykładem jest ustalenie miejsca przebywania zmarłego już biznesmena Johna McAfee na podstawie metadanych zaszytych w jednym z opublikowanych zdjęć. Innym przykładem jest sprawa związana z ustaleniem miejsca przebywania byłego prezesa Orlenu Daniela Obajtka, co udało się dzięki analizie opublikowanych w mediach społecznościowych obrazów i nagrań wideo.

Przykład: Grupa dziennikarzy śledczych, korzystając z technik OSINT, była w stanie ustalić aktualne miejsce przebywania byłego prezesa Orlenu Daniela Obajtka, analizując jego aktywność w mediach społecznościowych oraz publikowane zdjęcia i filmy. Dzięki temu mogli ujawnić informacje, które miały znaczenie dla opinii publicznej.

Podsumowanie

OSINT to skuteczne narzędzie, które znajduje zastosowanie w wielu obszarach biznesu i cyberbezpieczeństwa. Pozwala na lepsze zrozumienie rynku, konkurencji oraz potencjalnych zagrożeń, co przekłada się na skuteczniejsze zarządzanie ryzykiem, planowanie strategii biznesowych i ochronę interesów firmy. Legalność i etyka działań opartych na publicznie dostępnych źródłach stanowi fundament tej techniki, czyniąc ją niezastąpionym elementem współczesnych analiz biznesowych i bezpieczeństwa.

Maciej Wojciechowski | 29.05.2024

Przewidywania Rozwoju Rynku Centrów Danych w Polsce: Perspektywy i Wyzwania

Wprowadzenie

Centra danych stanowią kluczowy element infrastruktury, umożliwiając przetwarzanie, przechowywanie i zarządzanie ogromnymi ilościami danych. Polska, z racji swojego strategicznego położenia, atrakcyjnych kosztów energetycznych oraz rosnącej liczby wykwalifikowanych specjalistów IT, ma potencjał, aby stać się europejskim hubem danych. Niniejszy artykuł analizuje kluczowe czynniki wpływające na rozwój rynku Data Center w Polsce, przedstawiając tezę, że Polska ma możliwość przekształcenia się w centrum danych dla całej Europy. Argumenty przedstawione w artykule opierają się na najnowszych danych rynkowych, trendach technologicznych oraz inwestycjach w infrastrukturę. Dodatkowo przeprowadziliśmy krótki wywiad z Robertem Kucnerem Dyrektorem ds. sprzedaży usług DC/Cloud, w firmie FLowberg IT, na temat wrocławskiego Centrum Danych.

Kluczowe Czynniki Napędzające Rozwój Rynku

Postępy Technologiczne

Postęp technologiczny jest jednym z najważniejszych czynników napędzających rozwój rynku centrów danych w Polsce. Infrastruktura światłowodowa i technologie 5G odgrywają kluczową rolę w tym procesie. Według raportu Mordor Intelligence, penetracja technologii światłowodowej (FTTP) w Polsce wzrosła z 44,6% w 2020 roku do około 51,9% w 2021 roku. Przykładem innowacji technologicznych, które wspierają rozwój rynku, jest wprowadzenie przez Cisco Systems Inc. nowych przełączników, które zwiększają szybkość i gęstość portów.

Rozwój technologii 5G, która zapewnia niskie opóźnienia i wysoką przepustowość, jest kolejnym kluczowym czynnikiem. Polska już teraz inwestuje w rozwój sieci 5G, co przyczyni się do wzrostu zapotrzebowania na centra danych, które będą mogły obsługiwać większe ilości danych w krótszym czasie.

Rosnące Zapotrzebowanie Konsumentów

Wzrost zapotrzebowania na usługi chmurowe, Internet Rzeczy (IoT), Big Data oraz technologie immersyjne, takie jak VR i AR, znacząco wpływa na rozwój centrów danych w Polsce. Pandemia COVID-19 przyspieszyła cyfryzację, zwiększając zapotrzebowanie na lokalne serwery i niskie opóźnienia danych. Wzrost zapotrzebowania konsumentów na szybkie i niezawodne usługi internetowe, wspierane przez rozwój infrastruktury światłowodowej, przyczynia się do ekspansji rynku.

Inwestycje w Infrastrukturę

Znaczące inwestycje w rozwój infrastruktury centrów danych w Polsce są kluczowe dla ich wzrostu. Inwestycje te są wspierane przez fundusze takie jak Recovery and Resilience Facility (RRF) oraz European Regional Development Fund (ERDF), które mają na celu zwiększenie inkluzji szerokopasmowej w Polsce.

Dobrym przykładem jest certyfikowane Data Center obsługiwane przez firmę Flowberg IT z siedzibą we Wrocławiu. Ten nowoczesny Obiekt oferuje zaawansowane technologicznie rozwiązania, które zapewniają wysoką dostępność, bezpieczeństwo i skalowalność usług.

Aby lepiej zrozumieć, jak Flowberg IT realizuje swoje cele i plany, przeprowadziliśmy wywiad z Robertem Kucnerem, Dyrektorem ds. Sprzedaży Usług DC/Cloud, w Flowberg IT.

Rozmowa dotyczyła informacji na temat unikalnych atutów wspomnianego Data Center we Wrocławiu, oferty usług, znaczenia lokalizacji oraz przyszłych planów rozwoju firmy.

Jakie są główne atuty Data Center Flowberg IT we Wrocławiu, które wyróżniają Was na tle konkurencji?

Robert Kucner: Data Center Flowberg IT we Wrocławiu wyróżnia się przede wszystkim nowoczesną infrastrukturą technologiczną. Posiadamy zaawansowane systemy, które zapewniają nieprzerwaną pracę nawet w przypadku awarii. Nasze centrum danych jest również wyposażone w systemy redundancji sieciowej, co minimalizuje ryzyko przestojów. Dodatkowo, spełniamy rygorystyczne normy bezpieczeństwa, w tym standardy ISO oraz certyfikacje dotyczące ochrony danych osobowych. Wszystko to sprawia, że możemy zapewnić naszym klientom najwyższy poziom usług i bezpieczeństwa danych.

Jakie usługi oferuje Flowberg IT i jakie są ich główne zalety?

Robert Kucner: Oferujemy szeroki zakres usług, w tym kolokację, usługi chmurowe, zarządzane usługi IT oraz rozwiązania z zakresu cyberbezpieczeństwa i connectivity. Nasze usługi chmurowe są skalowalne i elastyczne, co pozwala klientom dostosować je do swoich zmieniających się potrzeb. Dzięki usłudze kolokacji firmy mogą umieścić swoje serwery w naszym centrum danych, co zapewnia im dostęp do zaawansowanej infrastruktury bez konieczności ponoszenia dużych kosztów inwestycyjnych związanych z zapewnieniem redundantnego zasilania, chłodzenia czy też bezpieczeństwa fizycznego. Nasze usługi zarządzane pozwalają klientom skupić się na swoim głównym biznesie, podczas gdy my zajmujemy się zarządzaniem ich infrastrukturą IT.

Jakie znaczenie ma lokalizacja centrum danych we Wrocławiu dla Waszych klientów?

Robert Kucner: Wrocław jest strategicznie położony, co umożliwia szybki dostęp do kluczowych rynków w Europie Środkowo-Wschodniej. Miasto posiada dobrze rozwiniętą infrastrukturę transportową i telekomunikacyjną, co dodatkowo podnosi jego atrakcyjność. Dla naszych klientów oznacza to nie tylko szybki i niezawodny dostęp do ich danych, ale także korzyści z niskich kosztów operacyjnych w porównaniu do innych lokalizacji w Europie oraz dużą dostępność.

Jakie są najważniejsze inwestycje Flowberg IT w najnowsze technologie i rozwój kadry?

Robert Kucner: Inwestujemy znaczne środki w najnowsze technologie, aby zapewnić naszym klientom najwyższą jakość usług. Regularnie modernizujemy nasze systemy chłodzenia, zasilania i zabezpieczeń, aby spełniały najwyższe standardy. Staramy się być również na bieżąco z najnowszymi trendami i technologiami w branży IT.

Jakie są plany rozwoju Flowberg IT na najbliższe lata?

Robert Kucner: Planujemy dalszą ekspansję naszych usług chmurowych oraz rozwój nowych rozwiązań z zakresu cyberbezpieczeństwa. Chcemy również zwiększyć naszą obecność na rynkach międzynarodowych, oferując nasze usługi klientom spoza Polski. Naszym celem jest stać się liderem w dostarczaniu nowoczesnych i bezpiecznych rozwiązań IT, które pomagają naszym klientom osiągać ich cele biznesowe.

W jaki sposób Flowberg IT zapewnia bezpieczeństwo danych przechowywanych w Waszym centrum danych?

Robert Kucner: Bezpieczeństwo danych jest dla nas priorytetem. Nasze centrum danych jest zabezpieczone na wielu poziomach – fizycznym, technicznym i proceduralnym. Posiadamy zaawansowane systemy kontroli dostępu, monitoring 24/7 oraz zabezpieczenia fizyczne. Dodatkowo, nasze systemy IT są chronione przez nowoczesne rozwiązania z zakresu cyberbezpieczeństwa, które są regularnie aktualizowane przez zespół SOC (Security Operation Center) aby zapewnić najwyższy poziom ochrony przed zagrożeniami.

Jakie korzyści przynosi firmom korzystanie z usług kolokacji w Flowberg IT?

Robert Kucner: Korzystanie z usług kolokacji pozwala firmom, które wymagają bezpiecznego, niezawodnego i efektywnego kosztowo środowiska dla swoich serwerów i sprzętu IT. na umieszczenie ich w naszym centrum danych. Skorzystanie z usługi pozwala na redukcję kosztów związanych z budową, utrzymaniem i modernizacją własnej infrastruktury IT. Dodatkowo, firmy mogą skupić się na swoim głównym biznesie, ponieważ to my zajmujemy się zarządzaniem infrastrukturą IT. Nasze usługi kolokacji zapewniają także skalowalność, co pozwala firmom na łatwe dostosowanie zasobów IT do zmieniających się potrzeb.

Jakie są główne cechy serwerów dedykowanych oferowanych przez Flowberg IT?

Robert Kucner: Serwery dedykowane oferowane przez Flowberg IT to rozwiązania, które zapewniają pełną kontrolę nad zasobami serwera, najwyższy poziom bezpieczeństwa oraz wydajność. Oferujemy zarówno serwery dedykowane niezarządzane, które dają klientom pełną swobodę w zarządzaniu infrastrukturą, jak i serwery dedykowane zarządzane, gdzie zajmujemy się procesem zarządzania, w tym kopii zapasowych, bezpieczeństwa i aktualizacji oprogramowania. To idealne rozwiązanie dla firm, które potrzebują niezawodnych i wydajnych systemów IT.

Jakie są główne zalety korzystania z serwerów VPS w porównaniu do tradycyjnych rozwiązań hostingowych?

Robert Kucner: Serwery VPS oferują liczne korzyści w porównaniu do tradycyjnych rozwiązań hostingowych. Przede wszystkim zapewniają większą niezależność i elastyczność dzięki izolacji zasobów, co oznacza, że działanie innych VPS na tym samym serwerze nie wpływa na wydajność Twojej maszyny. VPS daje pełną kontrolę nad konfiguracją i zarządzaniem serwerem, możliwość skalowania zasobów według potrzeb, lepszą wydajność, oraz wyższy poziom bezpieczeństwa. Jest to idealne rozwiązanie dla stron internetowych, aplikacji, sklepów online i projektów developerskich.

Jakie są możliwości rozbudowy i skalowalności infrastruktury w Waszym centrum danych?

Robert Kucner: Nasze centrum danych zostało zaprojektowane z myślą o skalowalności i elastyczności. Posiadamy łączną powierzchnię 5000 m², z czego 1300 m² to komory kolokacyjne. Każda z komór jest przygotowana w taki sposób, aby dostosować rozwiązania do indywidualnych potrzeb klientów. Dzięki temu możemy łatwo rozbudować infrastrukturę w miarę wzrostu wymagań naszych klientów.

Jakie są dostępne zasoby energetyczne w Flowberg IT?

Robert Kucner: Nasze centrum danych posiada stałe zasilanie dzięki dwóm niezależnym liniom średniego napięcia o łącznej mocy 10 MW. Dodatkowo, posiadamy agregat prądotwórczy o mocy 2,5 MW oraz system UPS, który gwarantuje podtrzymanie zasilania serwerowni przy pełnym obciążeniu. Dzięki temu jesteśmy w stanie zapewnić nieprzerwaną pracę nawet w przypadku awarii zewnętrznych źródeł zasilania.

Jakie są główne wyzwania, z którymi mierzy się Flowberg IT, i jak sobie z nimi radzicie?

Robert Kucner: Jednym z głównych wyzwań jest ciągłe zapewnienie bezpieczeństwa danych w obliczu szybko zmieniających się zagrożeń cybernetycznych. Aby temu sprostać, regularnie aktualizujemy nasze systemy zabezpieczeń i szkolimy nasz zespół w zakresie najnowszych technologii i metod obrony. Kolejnym wyzwaniem jest rosnąca konkurencja na rynku centrów danych. Staramy się wyróżniać, oferując najwyższą jakość usług, elastyczność i indywidualne podejście do każdego klienta.

Polska jako Europejski Hub Danych: Perspektywy i Wyzwania

Perspektywy

  1. Strategiczne Położenie i Koszty Energetyczne

Polska ma strategiczne położenie w Europie, co czyni ją idealnym miejscem dla centrów danych obsługujących cały kontynent. Dodatkowo, Polska ma jedne z najniższych kosztów energii dla przedsiębiorstw w Unii Europejskiej, co jest istotnym czynnikiem przyciągającym inwestycje. Planowany gazociąg do Norwegii, który poprawi bezpieczeństwo energetyczne kraju, również przyczynia się do atrakcyjności Polski jako hubu danych.

  1. Koszty Budowy i Dostępność Zasobów Ludzkich

Relatywnie niskie koszty budowy i niskie ceny gruntów, w połączeniu z dostępem do wykwalifikowanej siły roboczej, szczególnie w obszarze IT, są dodatkowymi atutami Polski. Wzrost liczby specjalistów IT oraz inwestycje w edukację technologiczną wspierają rozwój sektora centrów danych.

  1. Polityka i Regulacje

Polska jest dobrze przygotowana do przyjęcia roli hubu danych dzięki korzystnym regulacjom prawnym, takim jak usunięcie przeszkód dla swobodnego przepływu danych nieosobowych między państwami członkowskimi UE. Dodatkowo, przepisy dotyczące ochrony danych, w tym RODO, zwiększają zapotrzebowanie na lokalne centra danych.

Wyzwania

  1. Złożoność Regulacyjna i Konkurencja

Jednym z głównych wyzwań jest złożoność regulacyjna oraz intensywna konkurencja na rynku. Firmy muszą dostosowywać się do różnorodnych przepisów krajowych i unijnych, co może być czasochłonne i kosztowne. Konkurencja ze strony innych krajów europejskich, które również inwestują w rozwój centrów danych, stanowi dodatkowe wyzwanie.

  1. Brak Wykwalifikowanej Kadry

Mimo że Polska posiada dużą liczbę wykwalifikowanych specjalistów IT, nadal istnieje niedobór wysoko wykwalifikowanej kadry w niektórych obszarach technologii. To może ograniczać zdolność do szybkiego skalowania operacji i wdrażania nowych technologii.

  • Zrównoważony rozwój

Rosnące zapotrzebowanie na centra danych wiąże się z koniecznością zapewnienia zrównoważonego rozwoju. Wysokie zużycie energii stawia przed firmami wyzwania związane z ekologicznym zarządzaniem i redukcją śladu węglowego. Firmy muszą inwestować w rozwiązania energooszczędne i odnawialne źródła energii, aby sprostać wymaganiom ekologicznym i regulacyjnym.

Przyszłość Rynku Rozwiązań Sieciowych Centrów Danych w Polsce

Innowacje i Technologie Przyszłości

W przyszłości kluczowe znaczenie będą miały innowacje i nowe technologie, takie jak sztuczna inteligencja, Internet Rzeczy, Big Data oraz technologie immersyjne. Rozwój tych technologii zwiększy zapotrzebowanie na centra danych zdolne do obsługi ogromnych ilości danych i zapewnienia niskich opóźnień.

Sztuczna inteligencja (AI) i uczenie maszynowe (ML) stają się coraz bardziej powszechne w różnych sektorach, co zwiększa zapotrzebowanie na centra danych zdolne do obsługi zaawansowanych algorytmów i dużych zbiorów danych. AI może również być wykorzystywana do optymalizacji zarządzania centrami danych, poprawy efektywności energetycznej i zwiększenia bezpieczeństwa.

Wzrost Adopcji Usług Chmurowych

Przewiduje się, że adopcja usług chmurowych będzie nadal rosnąć, napędzana przez małe i średnie przedsiębiorstwa (MŚP) oraz duże korporacje. Usługi chmurowe oferują elastyczność, skalowalność i oszczędności kosztów, co czyni je atrakcyjnym rozwiązaniem dla firm różnej wielkości.

Adopcja chmury hybrydowej, która łączy chmurę prywatną i publiczną, staje się coraz bardziej popularna. Firmy mogą przechowywać wrażliwe dane w chmurze prywatnej, jednocześnie korzystając z elastyczności i oszczędności chmury publicznej do mniej krytycznych operacji. To podejście zwiększa bezpieczeństwo danych i elastyczność operacyjną.

Współprace i Partnerstwa

Współprace między firmami technologicznymi oraz dostawcami usług chmurowych będą kluczowe dla dalszego rozwoju rynku. Partnerstwa takie jak to między NVIDIA i Dell Technologies, które wprowadzają zaawansowane rozwiązania AI dla centrów danych, będą napędzać innowacje i zwiększać konkurencyjność rynku.

Podsumowanie

Rynek rozwiązań sieciowych centrów danych w Polsce ma przed sobą obiecujące perspektywy wzrostu. Polska, dzięki swojemu strategicznemu położeniu, niskim kosztom energetycznym, dostępności wykwalifikowanej siły roboczej oraz korzystnym regulacjom prawnym, ma potencjał, aby stać się europejskim hubem danych. Mimo wyzwań związanych z regulacjami, konkurencją oraz zrównoważonym rozwojem, strategiczne inwestycje w infrastrukturę, innowacje technologiczne oraz rosnące zapotrzebowanie na usługi chmurowe będą napędzać dalszy rozwój rynku.

Dzięki ciągłym inwestycjom w badania i rozwój oraz współpracom strategicznym, Polska może stać się liderem w obszarze centrów danych w Europie, oferując nowoczesne i efektywne rozwiązania dla globalnych klientów.

Bibliografia

  1. Mordor Intelligence. „Poland Data Center Market Size & Share Analysis – Industry Research Report – Growth Trends”.
  2. Research and Markets. „Poland Data Center Market – Investment Analysis & Growth Opportunities 2023-2028”.
  3. Property Forum. „Poland’s data centre market set for dynamic growth”. Przewidywania Rozwoju Rynku Rozwiązań Sieciowych Centrów Danych
    w Polsce na 2024 rok: Perspektywy i Wyzwania
Maciej Wojciechowski | 23.05.2024

Audyt zgodności z Dyrektywą NIS2 – Klucz do zabezpieczenia infrastruktury krytycznej

Zabezpieczenie infrastruktury krytycznej staje się priorytetem dla organizacji publicznych i prywatnych. Dyrektywa NIS2 (Network and Information Systems Directive) jest odpowiedzią Unii Europejskiej na te wyzwania, nakładając obowiązki na operatorów usług kluczowych oraz dostawców usług cyfrowych. W tym kontekście, przeprowadzenie audytu zgodności z NIS2 jest niezbędnym krokiem w zapewnieniu odpowiedniego poziomu bezpieczeństwa. Poniżej przedstawiamy szczegółowy przegląd kluczowych elementów i wymagań audytu zgodności z Dyrektywą NIS2.

Kluczowe elementy audytu zgodności z NIS2

  1. Przegląd dokumentacji systemu zarządzania bezpieczeństwem informacji (SZBI) zgodnie ze standardem ISO 27001
    • ISO 27001 jest międzynarodowym standardem określającym wymagania dla systemu zarządzania bezpieczeństwem informacji. Audyt obejmuje przegląd polityk, procedur i kontroli związanych z zarządzaniem bezpieczeństwem informacji, aby ocenić ich zgodność z normą ISO 27001. Kluczowe aspekty to zarządzanie ryzykiem, polityki bezpieczeństwa, kontrola dostępu oraz zarządzanie incydentami.
  2. Przegląd dokumentacji systemu zarządzania ciągłością działania (SZCD) zgodnie ze standardem ISO 22301
    • ISO 22301 określa wymagania dotyczące zarządzania ciągłością działania. Audyt ocenia dokumentację SZCD, aby upewnić się, że organizacja jest przygotowana na sytuacje kryzysowe i potrafi utrzymać ciągłość działania. Obejmuje to planowanie ciągłości działania, analizę wpływu na biznes (BIA) oraz strategie odzyskiwania danych i zasobów.
  3. Badanie zgodności względem ustawy o Krajowym Systemie Cyberbezpieczeństwa (KSC)
    • Ustawa o KSC nakłada obowiązki na operatorów usług w zakresie cyberbezpieczeństwa. Audyt obejmuje przegląd zgodności z wymogami ustawy, w tym analizę zgodności z planowanymi nowelizacjami. Kluczowe aspekty to zarządzanie incydentami, raportowanie incydentów oraz współpraca z odpowiednimi organami.
  4. Badania dojrzałości cyberbezpieczeństwa
    • Ocena dojrzałości cyberbezpieczeństwa pozwala na identyfikację mocnych i słabych stron w zakresie zabezpieczeń oraz określenie obszarów wymagających poprawy. Audyt ten obejmuje przegląd procesów, technologii i zasobów ludzkich, a także ocenę skuteczności obecnych mechanizmów zabezpieczających.
  5. Przegląd polityki backupu względem rekomendacji Ministerstwa Zdrowia
    • W ochronie zdrowia szczególnie istotne jest zapewnienie regularnych kopii zapasowych danych. Audyt uwzględnia przegląd polityki backupu zgodnie z wytycznymi Ministerstwa Zdrowia, aby zapewnić, że dane pacjentów są regularnie kopiowane i bezpiecznie przechowywane.
  6. Zewnętrzne i wewnętrzne skanowanie podatności infrastruktury IT
    • Przeprowadzane są skanowania podatności, aby zidentyfikować potencjalne luki w zabezpieczeniach infrastruktury IT. Skanowanie obejmuje zarówno aspekty zewnętrzne, jak i wewnętrzne, co pozwala na pełne zrozumienie stanu bezpieczeństwa systemów informatycznych.
  7. Badanie konfiguracji i polityk bezpieczeństwa urządzeń sieciowych i systemowych
    • Analiza konfiguracji i polityk bezpieczeństwa firewalle, przełączników, serwerów, systemów EDR oraz Active Directory, zgodnie z wytycznymi CIS. Obejmuje to ocenę konfiguracji zabezpieczeń, polityk dostępu oraz monitoringu sieci i systemów.
  8. Całościowy raport z audytu
    • Raport końcowy z audytu zawiera omówienie wyników oraz zalecenia. Jest on prezentowany kadrze zarządzającej, aby umożliwić podjęcie odpowiednich działań. Raport powinien zawierać szczegółowe opisy identyfikowanych problemów i propozycje ich rozwiązania.
  9. Opracowanie wstępnego planu inwestycyjnego
    • Na podstawie wyników audytu tworzony jest wstępny plan inwestycyjny obejmujący niezbędne rozwiązania wymagane do uzyskania zgodności z NIS2. Plan ten obejmuje propozycje inwestycji w technologie, szkolenia oraz procedury, które mają na celu poprawę stanu cyberbezpieczeństwa w organizacji.
  10. Wsparcie w uzupełnianiu dokumentacji SZBI i SZCD
    • Eksperci audytorzy ISO wspierają organizację w uzupełnieniu i aktualizacji dokumentacji związanej z bezpieczeństwem informacji oraz ciągłością działania. Obejmuje to tworzenie i aktualizację polityk, procedur, analiz ryzyka a także planów ciągłości działania.

Wymagania do przeprowadzenia audytu

Aby przeprowadzić kompleksowy audyt zgodności z NIS2, konieczne jest spełnienie kilku kluczowych wymagań:

  • Dostęp do dokumentacji i topologii infrastruktury sieciowej
    Pełna i aktualna dokumentacja sieciowa jest niezbędna do dokładnej oceny stanu bezpieczeństwa i identyfikacji potencjalnych zagrożeń.
  • Dostęp do raportów z dotychczas przeprowadzonych audytów i testów
    Raporty z wcześniejszych audytów i testów bezpieczeństwa (skany podatności, testy penetracyjne, testy odtworzeniowe) dostarczają cennych informacji na temat istniejących luk w zabezpieczeniach i skuteczności podjętych działań naprawczych.
  • Dostęp do pełnomocników ds. SZBI i SZCD, Inspektora Ochrony Danych (IOD) oraz administratorów systemów IT
    Współpraca z kluczowymi osobami odpowiedzialnymi za bezpieczeństwo informacji i ciągłość działania jest kluczowa dla skutecznego przeprowadzenia audytu.
  • Dedykowane Pomieszczenie w siedzibie klienta
    Dostępność odpowiedniego pomieszczenia do przeprowadzenia spotkań i analiz jest niezbędna do efektywnej pracy zespołu audytowego.

Korzyści z audytu zgodności z NIS2

Przeprowadzenie audytu zgodności z Dyrektywą NIS2 przynosi wiele korzyści, w tym:

zwiększenie poziomu bezpieczeństwa infrastruktury krytycznej
Audyt pomaga identyfikować i eliminować luki w zabezpieczeniach, co przyczynia się do poprawy ogólnego poziomu bezpieczeństwa.
minimalizacja ryzyka incydentów cybernetycznych
Poprzez wdrażanie zalecanych działań naprawczych i usprawnień, organizacja może znacznie zmniejszyć ryzyko wystąpienia incydentów cybernetycznych.
zgodność z przepisami prawnymi i regulacyjnymi
Audyt zapewnia zgodność z wymogami prawnymi, co minimalizuje ryzyko nałożenia kar finansowych i prawnych sankcji.
lepsze przygotowanie na sytuacje kryzysowe
Dzięki opracowaniu i wdrożeniu skutecznych planów ciągłości działania i procedur zarządzania kryzysowego, organizacja jest lepiej przygotowana na ewentualne zakłócenia w działaniu.
poprawa świadomości bezpieczeństwa wśród pracowników
Audyt pomaga zwiększyć świadomość bezpieczeństwa w organizacji, co przekłada się na lepsze praktyki i zachowania w zakresie cyberbezpieczeństwa.

Podsumowanie

Audyt zgodności z Dyrektywą NIS2 to kompleksowy proces, który pozwala organizacjom na skuteczne zabezpieczenie swojej infrastruktury krytycznej oraz zgodność z europejskimi standardami bezpieczeństwa. Dzięki przeprowadzeniu audytu, organizacje mogą identyfikować i eliminować potencjalne zagrożenia, a także wdrażać najlepsze praktyki w zakresie zarządzania bezpieczeństwem informacji i ciągłością działania. Audyt taki zapewnia nie tylko zgodność z wymogami prawnymi, ale także znacząco podnosi poziom ochrony przed zagrożeniami cybernetycznymi.

Firma Flowberg IT specjalizuje się w przeprowadzaniu audytów zgodności z Dyrektywą NIS2 oraz innych usług z zakresu cyberbezpieczeństwa. Flowberg IT oferuje zaawansowane rozwiązania, w tym monitorowanie infrastruktury IT oraz obsługę incydentów bezpieczeństwa. Dysponujemy zespołem inżynierów i specjalistów ds. bezpieczeństwa, posiadających liczne certyfikaty branżowe, takie jak CEH, CIHE, Audytor Wiodący ISO 27001, Audytor Wiodący ISO 22301, CompTIA Security+ i inne.

Jesteś zainteresowany opisywanymi usługami?

Porozmawiaj z nami

1 Step 1
reCaptcha v3
keyboard_arrow_leftPrevious
Nextkeyboard_arrow_right
Maciej Wojciechowski | 22.05.2024

Symulacje phishingowe, czyli świadome podejście do ochrony przed cyberatakami

Phishing, czyli wyłudzanie informacji za pomocą fałszywych wiadomości, jest jednym z najczęściej wykorzystywanych wektorów ataku przez cyberprzestępców. Nawet chwilowa nieuwaga ze strony pracownika może prowadzić do poważnych naruszeń bezpieczeństwa, a w konsekwencji do utraty cennych danych firmowych. Dlatego coraz więcej firm decyduje się na przeprowadzanie symulacji phishingowych, które mają na celu podniesienie świadomości pracowników i zwiększenie ich odporności na tego typu ataki.

Co to jest symulacja phishingowa?

Symulacja phishingowa polega na wysyłaniu do pracowników wiadomości e-mail, które wyglądają jak prawdziwe ataki phishingowe, ale nie stanowią rzeczywistego zagrożenia. Celem jest sprawdzenie, jak pracownicy zareagują na takie wiadomości oraz ocena ich czujności i przygotowania na próby wyłudzenia danych dostępowych. Wiadomości te często naśladują prawdziwe ataki, wykorzystując techniki socjotechniczne, takie jak fałszywe oferty, ostrzeżenia o zagrożeniach bezpieczeństwa lub prośby o weryfikację konta​.

Dlaczego warto przeprowadzać symulacje phishingowe?

  1. Podniesienie świadomości: regularne symulacje pomagają pracownikom rozpoznawać cechy charakterystyczne phishingu, co zwiększa ich czujność w codziennej pracy. Im częściej są narażeni na takie próby w kontrolowanych warunkach, tym lepiej radzą sobie z rzeczywistymi zagrożeniami. Pracownicy uczą się identyfikować podejrzane e-maile, linki i załączniki, co znacząco redukuje ryzyko udanego ataku​.
  2. Ocena gotowości: symulacje phishingowe pozwalają firmom ocenić, jak dobrze ich pracownicy są przygotowani na ataki phishingowe. Analiza wyników, takich jak odsetek kliknięć w linki phishingowe, liczba otwartych załączników i zgłoszeń podejrzanych wiadomości, pozwala zidentyfikować obszary wymagające dodatkowego szkolenia​.
  3. Szkolenie i edukacja: symulacje są doskonałym narzędziem szkoleniowym. Po każdej symulacji pracownicy, którzy dali się nabrać na fałszywe wiadomości, mogą otrzymać natychmiastowe wskazówki i porady, jak unikać takich sytuacji w przyszłości. To pomaga w budowaniu kultury bezpieczeństwa w firmie. Szkolenia mogą obejmować zarówno ogólne zasady bezpieczeństwa, jak i specyficzne techniki stosowane przez cyberprzestępców​.

Jak przeprowadzać skuteczne symulacje phishingowe?

Aby symulacje phishingowe były skuteczne, powinny być dobrze zaplanowane i regularnie przeprowadzane. Ważne jest, aby e-maile symulacyjne były realistyczne i różnorodne, co zapobiegnie tworzeniu się schematów rozpoznawalnych przez pracowników. Najlepsze wyniki osiąga się, gdy symulacje są częścią szerszego programu świadomości bezpieczeństwa w firmie. Oto kilka kluczowych kroków, które należy wziąć pod uwagę przy planowaniu symulacji phishingowej:

  1. Wybór realistycznych szablonów: używanie szablonów, które naśladują prawdziwe ataki phishingowe, zwiększa realizm symulacji. Szablony mogą obejmować fałszywe wiadomości od banków, dostawców usług IT, a nawet wewnętrznych działów firmy.
  2. Regularność i różnorodność: przeprowadzanie symulacji w regularnych odstępach czasu, z użyciem różnych scenariuszy, pomaga utrzymać czujność pracowników. Należy unikać rutyny, która może prowadzić do schematycznego rozpoznawania symulacji zamiast faktycznego zrozumienia zagrożeń​.
  3. Natychmiastowe feedbacki: po zakończeniu symulacji ważne jest, aby pracownicy otrzymali natychmiastową informację zwrotną na temat swojego zachowania. Wyjaśnienia, dlaczego dana wiadomość była phishingiem i jakie były sygnały ostrzegawcze, pomagają w lepszym zrozumieniu zagrożenia​.
  4. Personalizowane podejście: dostosowywanie symulacji do specyficznych grup pracowników lub działów, które mogą być bardziej narażone na ataki phishingowe, zwiększa efektywność. Na przykład, dział finansowy może być celem ataków związanych z fałszywymi fakturami i przelewami​.

Przykłady realnych zastosowań

Przykłady z życia pokazują, jak symulacje phishingowe mogą skutecznie podnieść poziom bezpieczeństwa w organizacjach. Na przykład, po wprowadzeniu intensywnych programów symulacyjnych, niektóre firmy zauważyły znaczący spadek wskaźnika podatności na ataki phishingowe oraz wzrost liczby zgłoszonych podejrzanych wiadomości. Organizacje takie jak GoDaddy i West Midland Trains przeprowadzały symulacje, które spotkały się z mieszanymi reakcjami, podkreślając potrzebę przejrzystości i odpowiedniego podejścia do pracowników.

Wyzwania i trudności

Mimo wielu korzyści, symulacje phishingowe mogą napotkać na pewne trudności. Jeśli są przeprowadzane zbyt często, mogą prowadzić do tzw. „zmęczenia alarmami”, co obniża czujność pracowników. Istnieje także ryzyko utraty zaufania pracowników, jeśli symulacje będą odbierane jako forma kontroli lub manipulacji. Ważne jest, aby podejście do symulacji było edukacyjne, a nie karzące​.

Podsumowanie

Symulacje phishingowe są bardzo dobrym i potrzebnym narzędziem w walce z cyberprzestępczością. Dzięki nim firmy mogą nie tylko ocenić i poprawić gotowość swoich pracowników na ataki, ale także budować kulturę bezpieczeństwa, która jest kluczowa w dzisiejszym złożonym środowisku cyfrowym. Regularne i dobrze przeprowadzone symulacje phishingowe mogą znacząco zmniejszyć ryzyko udanych ataków i zwiększyć ogólną odporność organizacji na zagrożenia cybernetyczne. Firma Flowberg IT specjalizuje się w przeprowadzaniu realistycznych symulacji phishingowych, które pomagają organizacjom zwiększyć świadomość bezpieczeństwa swoich pracowników oraz chronić się przed cyberatakami. Dodatkowo, Flowberg IT oferuje szeroką gamę produktów związanych z cyberbezpieczeństwem, które można znaleźć na naszej stronie. Inwestycja w edukację i świadomość pracowników to inwestycja w przyszłość i bezpieczeństwo każdej firmy.

Źródła

  1. Proofpoint. (2021). „Phishing Simulations: Everything You Need to Know”. Retrieved from Proofpoint.
  2. FieldEffect. „What is a phishing simulation exercise (and its benefits)?”. Retrieved from FieldEffect.
  3. BreachLock. (2019). „Benefits of Phishing Simulations”. Retrieved from BreachLock.
  4. Phished.io. „Phishing simulations: What are they and how can they help companies”. Retrieved from Phished.io.
  5. Brilliance Security Magazine. „How Effective Are Phishing Simulations?”. Retrieved from Brilliance Security Magazine.

Jesteś zainteresowany opisywanymi usługami?

Porozmawiaj z nami

1 Step 1
reCaptcha v3
keyboard_arrow_leftPrevious
Nextkeyboard_arrow_right
Maciej Wojciechowski | 17.05.2024

Kompleksowe Skanowanie Sieciowe – Klucz do Bezpieczeństwa Twojej Firmy

Cyberzagrożenia stają się coraz bardziej zaawansowane i powszechne, dlatego ochrona zasobów IT jest niezbędnym elementem każdej strategii zarządzania ryzykiem. Wśród wielu dostępnych narzędzi i metod, skanowanie sieciowe wyróżnia się jako kluczowy proces pozwalający na identyfikację i eliminację słabości w infrastrukturze sieciowej.
W tym artykule przyjrzymy się, czym jest skanowanie sieciowe, jak jest przeprowadzane, jakie korzyści przynosi oraz jakie realne przykłady jego zastosowania można znaleźć w praktyce.

Czym jest skanowanie sieciowe?

Skanowanie sieciowe to proces automatycznego przeszukiwania sieci komputerowej
w celu zidentyfikowania dostępnych urządzeń, usług oraz ewentualnych podatności na ataki. Narzędzia używane do skanowania analizują konfiguracje systemów, wykrywają otwarte porty, zainstalowane aplikacje i ich wersje, a także potencjalne luki bezpieczeństwa. Proces ten jest kluczowy dla oceny stanu bezpieczeństwa sieci i umożliwia podejmowanie odpowiednich działań prewencyjnych.

Cele skanowania sieciowego:

Identyfikacja urządzeń i usług – Skanowanie pozwala na identyfikację wszystkich aktywnych urządzeń w sieci, takich jak serwery, routery, switche, komputery, a także urządzenia IoT. Poznanie pełnej topologii sieci jest fundamentem efektywnego zarządzania i ochrony zasobów IT.

Ocena podatności – Narzędzia skanujące są w stanie zidentyfikować podatności, które mogą zostać wykorzystane przez cyberprzestępców. Znalezienie tych słabości zanim zrobią to atakujący, pozwala na wdrożenie odpowiednich zabezpieczeń.

Sprawdzenie konfiguracji – Analiza konfiguracji systemów umożliwia wykrycie błędów, które mogą stanowić zagrożenie dla bezpieczeństwa. Błędnie skonfigurowane urządzenia mogą stanowić łatwy cel dla atakujących.

Zgodność z regulacjami – Regularne skanowanie pomaga w utrzymaniu zgodności
z różnymi standardami bezpieczeństwa i regulacjami prawnymi, takimi jak PCI DSS, UKSC, NIS2. Spełnienie tych wymagań jest często warunkiem koniecznym do prowadzenia działalności na wielu rynkach.

Jak przeprowadzane jest skanowanie sieciowe?

Proces skanowania sieciowego można podzielić na kilka kluczowych etapów:

Przygotowanie: Na tym etapie określane są cele skanowania, zakres sieci do analizy oraz wybór odpowiednich narzędzi skanujących. Przygotowanie obejmuje również ustalenie harmonogramu skanowania i ewentualne poinformowanie personelu o nadchodzących działaniach.

Skanowanie pasywne: Pasywne skanowanie polega na monitorowaniu ruchu sieciowego bez aktywnego ingerowania w działanie systemów. Pozwala to na identyfikację urządzeń i usług bez ryzyka zakłócenia pracy sieci.

Skanowanie aktywne: Aktywne skanowanie polega na wysyłaniu zapytań do urządzeń sieciowych w celu uzyskania szczegółowych informacji o ich stanie i konfiguracji. Choć bardziej inwazyjne, dostarcza dokładniejszych danych na temat potencjalnych podatności.

Analiza wyników: Po zakończeniu skanowania zebrane dane są analizowane w celu zidentyfikowania potencjalnych zagrożeń. Etap ten wymaga zaawansowanych umiejętności analitycznych i znajomości aktualnych zagrożeń.

Raportowanie: Wyniki skanowania są prezentowane w formie raportu, który zawiera szczegółowe informacje o znalezionych podatnościach, błędach konfiguracyjnych oraz rekomendacje dotyczące ich usunięcia. Raporty te stanowią podstawę do dalszych działań mających na celu wzmocnienie bezpieczeństwa sieci.

Efekty skanowania sieciowego

Przeprowadzenie kompleksowego skanowania sieciowego przynosi szereg korzyści dla organizacji:

  • Zwiększona wiedza o stanie zasobów IT: Skanowanie umożliwia uzyskanie pełniejszego obrazu infrastruktury IT, co jest kluczowe dla efektywnego zarządzania zasobami.
  • Świadomość słabych punktów: Identyfikacja słabości i podatności pozwala na szybkie podjęcie działań naprawczych, zanim zostaną one wykorzystane przez cyberprzestępców.
  • Poprawa bezpieczeństwa: Implementacja rekomendacji zawartych w raporcie skanowania prowadzi do znaczącej poprawy bezpieczeństwa systemów IT.
  • Zgodność z regulacjami: Regularne skanowanie umożliwia utrzymanie zgodności z wymaganiami regulacyjnymi i standardami bezpieczeństwa, co jest kluczowe dla wielu branż.
  • Zmniejszenie ryzyka: Lepsze zrozumienie potencjalnych zagrożeń i szybkie reagowanie na nie zmniejsza ryzyko włamań i wycieków danych.

Przykład zastosowania skanowania sieciowego

Aby lepiej zrozumieć, jak skanowanie sieciowe może pomóc w praktyce, przedstawiamy przykład zastosowania tej technologii w firmie XYZ, średniej wielkości przedsiębiorstwie zajmującym się sprzedażą detaliczną online.

Sytuacja wyjściowa:

Firma XYZ miała rozbudowaną infrastrukturę IT, obejmującą serwery, routery, switche
i urządzenia IoT. W wyniku wewnętrznego audytu bezpieczeństwa zidentyfikowano potrzebę przeprowadzenia szczegółowego skanowania sieciowego w celu zidentyfikowania potencjalnych podatności i słabych punktów.

Proces skanowania:

Przygotowanie: Określono zakres skanowania, obejmujący wszystkie publicznie dostępne serwery i urządzenia sieciowe. Wybrano narzędzia do przeprowadzenia skanowania.

Skanowanie pasywne: Przeprowadzono analizę ruchu sieciowego, identyfikując wszystkie aktywne urządzenia bez zakłócania ich działania.

Skanowanie aktywne: Użyto odpowiednich narzędzi do przeprowadzenia szczegółowego skanowania podatności na każdym z urządzeń.

Analiza wyników: Zidentyfikowano kilka krytycznych podatności, w tym nieaktualne oprogramowanie na jednym z serwerów oraz błędy konfiguracyjne w firewallu.

Raportowanie: Sporządzono szczegółowy raport zawierający opis znalezionych podatności oraz rekomendacje dotyczące ich usunięcia.

Rezultaty

Dzięki przeprowadzonemu skanowaniu firma XYZ była w stanie szybko załatać krytyczne luki bezpieczeństwa, zaktualizować oprogramowanie oraz poprawić konfigurację swojego firewalla. To znacząco zmniejszyło ryzyko potencjalnych ataków i wycieków danych. Dodatkowo, regularne skanowanie pozwala firmie na bieżąco monitorować stan swojej infrastruktury i szybko reagować na nowe zagrożenia.

Wnioski

Skanowanie sieciowe jest nieodzownym elementem strategii bezpieczeństwa IT. Dzięki regularnemu skanowaniu organizacje mogą lepiej zrozumieć swoją infrastrukturę, zidentyfikować potencjalne zagrożenia i podjąć odpowiednie działania naprawcze.
W rezultacie poprawia się ogólny poziom bezpieczeństwa, a także zgodność z regulacjami i standardami bezpieczeństwa. Proces zarządzania podatnościami – skany pozwala na efektywniejsze podejście w kwestii eliminacji krytycznych podatności w obszarze zarządzania ryzykiem.

Współczesne narzędzia do skanowania sieciowego, oferują zaawansowane funkcje, które pozwalają na skuteczne zarządzanie bezpieczeństwem sieci. Regularne skanowanie i analiza wyników są kluczowe dla utrzymania bezpieczeństwa i integralności infrastruktury IT, niezależnie od wielkości i branży firmy.

Zapewnienie bezpieczeństwa sieci to nie tylko ochrona przed potencjalnymi atakami, ale także budowanie zaufania klientów i partnerów biznesowych oraz spełnianie wymagań regulacyjnych. Skanowanie sieciowe stanowi fundament skutecznej strategii zarządzania ryzykiem w obszarze IT i jest niezbędnym elementem nowoczesnego podejścia do cyberbezpieczeństwa.

Jesteś zainteresowany opisywanymi usługami?

Porozmawiaj z nami

1 Step 1
reCaptcha v3
keyboard_arrow_leftPrevious
Nextkeyboard_arrow_right
Maciej Wojciechowski | 28.03.2024

8 kroków do uruchomienia backupu Twojego serwera z FlowBack© 

VMware oferuje różne licencje na swoje oprogramowanie do tworzenia kopii zapasowych, a ceny mogą być wysokie, szczególnie dla dużych środowisk wirtualizacyjnych. Jeśli zmigrowałeś swoje środowisko na Proxmoxa możesz skorzystać z bezpiecznego backupu w chmurze, wykorzystując do tego nasze narzędzie FlowBack© dostępne w sklepie internetowym.  
 
Jak zrobić backup? Poniżej instrukcja dotycząca Integracji instancji środowiska Proxmox z zakupionym zasobem Proxmox Backup Server (PBS).  

Krok 1. W widoku serwerów kliknij na pierwszy wpis, a następnie wybierz opcję „Storage” i dodaj zasób Proxmox Backup Server  

Następnie udaj się do panelu użytkownika Proxmox Backup Server i zaloguj, aby wypełnić pola. 

Krok 2: Wybierz swój Datastore i opcję „show connection information” 

Po kliknięciu pojawią się okna z niezbędnymi informacjami do dokończenia konfiguracji zasobu. 
 

Krok 3: Skopiuj swój adres serwera i wypełnij pola 

Krok 4: Nazwij swój zasób (np. „Flowback”) 

Krok 5: Wypełnij pole nazwy użytkownika. Podaj nazwę w formacie [nazwa użytkownika]@pbs  

Krok 6: Podaj hasło i nazwę Datastore 
 

Ponownie wracamy do panelu użytkownika Proxmox Backup Server. 

Krok 7: Kopiujemy nazwę Datastore i wklejamy w oknie Connection Information 

Ponownie wracamy do panelu użytkownika Proxmox Backup Server. 

Krok 8: Kopiujemy odcisk palca serwera (fingerprint) i wklejamy w oknie Connection Information 

Po poprawnym wypełnieniu wszystkich pól, klikamy „ok”. Zasób Proxmox Backup Server zostanie dodany i będzie widoczny w panelu użytkownika środowiska wirtualnego Proxmox. 

Zobacz tutorial video:  

Maciej Wojciechowski | 25.03.2024

Serwery VPS – zabezpieczenie przed atakami i utratą danych  

W obszarze zarządzania infrastrukturą IT, serwery VPS (Virtual Private Server) stały się kluczowym elementem współczesnych rozwiązań hostingowych. Strategie tworzenia kopii zapasowych oraz zabezpieczania zasobów przed atakami to w dzisiejszych czasach podstawa właściwie każdego biznesu.  

Co to jest VPS? 

Serwer VPS (Virtual Private Server) jest środowiskiem hostingowym, które łączy w sobie prywatność i kontrolę serwera dedykowanego z kosztami i elastycznością hostingu współdzielonego. Dzięki wykorzystaniu technologii wirtualizacji (której dobrymi reprezentantami są VMware czy Proxmox), każdy VPS działa niezależnie od innych. Daje to użytkownikom możliwość personalizacji środowiska, w tym systemu operacyjnego i zainstalowanego na nim oprogramowania. To połączenie sprawia, że VPS staje się atrakcyjnym wyborem dla witryn internetowych, aplikacji i baz danych wymagających wysokiej wydajności i stabilności.  

  

Regularne kopie zapasowe 

Chociaż tworzenie kopii zapasowych jest często kluczowym elementem strategii bezpieczeństwa danych, w przypadku serwerów VPS nie jest to usługa domyślnie włączona. Użytkownicy mogą jednak wykorzystać zewnętrzne usługi backupowe lub samodzielnie konfigurować rozwiązania do tworzenia kopii. Implementacja efektywnego systemu kopii zapasowych wymaga użycia oprogramowania do zarządzania backupami, które wspiera zarówno lokalne, jak i zdalne przechowywanie danych, zapewniając redundancję i optymalizację procesu przywracania. Zaawansowane usługi hostingowe we Flowberg IT, oferują zautomatyzowane opcje tworzenia kopii zapasowych, gwarantując, że dane są regularnie zabezpieczane i dostępne do przywrócenia w razie potrzeby.  

  

Jak się uchronić przed utratą danych  

Zabezpieczenie serwera VPS przed utratą danych wymaga zintegrowanego podejścia, łączącego zarówno fizyczne, jak i cyfrowe środki bezpieczeństwa.  
Do kluczowych praktyk należą:  

  • regularne aktualizacje – utrzymanie systemu operacyjnego i aplikacji  w najnowszych wersjach, z zainstalowanymi aktualizacjami bezpieczeństwa, 
    jest kluczowe dla obrony przed znanymi podatnościami,  
  • sillne uwierzytelnianie i polityki dostępu – wdrażanie silnych haseł, uwierzytelnianie wieloskładnikowe (MFA) i szczegółowe polityki kontroli dostępu są niezbędne do ochrony przed nieautoryzowanym dostępem.  
  • zapory sieciowe i systemy wykrywania – konfiguracja i utrzymanie zapór sieciowych (firewall) oraz systemów wykrywania i zapobiegania (IDS/IPS) zapewniają dodatkową warstwę bezpieczeństwa poprzez monitorowanie i kontrolę ruchu sieciowego, 
  • szyfrowanie danych użycie szyfrowania w trakcie transmisji (np. przez SSL/TLS) oraz szyfrowanie danych przechowywanych na dysku chroni przed nieupoważnionym dostępem i wyciekiem wrażliwych informacji.  

Testowanie i rozwój na serwerze VPS  

Dzięki wirtualizacji, serwery VPS oferują unikalne możliwości dla testowania  i rozwoju oprogramowania w izolowanych środowiskach. Możliwość szybkiego tworzenia, klonowania i przywracania instancji VPS pozwala na efektywne testowanie różnych konfiguracji systemowych, oprogramowania oraz aplikacji bez ryzyka zakłócenia działania systemów produkcyjnych. To podejście nie tylko zwiększa bezpieczeństwo i stabilność wdrożeń, ale również pozwala na eksplorację nowych technologii i rozwiązań bez znaczących kosztów infrastrukturalnych.  

Podsumowanie  

Regularne tworzenie kopii zapasowych i zaawansowane środki bezpieczeństwa są nie tylko rekomendacjami, ale koniecznością w świecie współczesnych technologii. Dla użytkowników serwerów VPS, niezależnie od ich doświadczenia i rozmiaru projektów, kluczowe jest przyjęcie proaktywnej postawy wobec ochrony danych. Przyjmując zintegrowane podejście, które obejmuje regularne kopie zapasowe, zabezpieczenia przed cyberatakiem, a także ciągłe monitorowanie i aktualizacje, można skutecznie minimalizować ryzyko utraty danych  i potencjalnych przerw w działalności.  

Serwery VPS zapewniają równowagę między kontrolą, wydajnością i kosztami, stanowiąc odpowiednią podstawę dla wielu aplikacji internetowych, witryn i baz danych. W dynamicznym środowisku, gdzie nowe zagrożenia pojawiają się niemal codziennie, traktowanie bezpieczeństwa danych jako priorytetu jest nie do przecenienia.  

Wybierając odpowiedniego dostawcę infrastruktury, który oferuje zaawansowane opcje tworzenia kopii zapasowych i zabezpieczeń, użytkownicy VPS mogą skoncentrować się na rozwijaniu swoich projektów, mając pewność, że ich dane oraz ciągłość działania są odpowiednio zaopiekowane.   

Maciej Wojciechowski 

Jesteś zainteresowany opisywanymi usługami?

Porozmawiaj z nami

1 Step 1
reCaptcha v3
keyboard_arrow_leftPrevious
Nextkeyboard_arrow_right
Tomasz Magda | 28.02.2024

Disaster Recovery – czym jest odtwarzanie awaryjne? Rozmowa z Tomaszem Magdą, Product Managerem z Flowberg IT

Disaster Recovery to zagadnienie, które w ostatnim czasie zyskuje na popularności – firmy coraz częściej dostrzegają potrzebę odtwarzania awaryjnego po „zdarzeniu niszczącym” lub po incydencie bezpieczeństwa. Potwierdzają to również dane – według raportu Veeam ,,Trendy w ochronie danych 2021”, popularność rozwiązań Disaster Recovery wzrosła w ciągu ostatnich dwóch lat o niemal 1/5 (19%). Nic w tym dziwnego, zważywszy na fakt, iż skuteczne wdrożenie rozwiązań z obszaru DR to dla dużych organizacji oraz MŚP główne zabezpieczenie przed zaburzeniem ciągłości działania, a co za tym idzie, ochrona przed szeregiem konsekwencji technicznych, finansowych i wizerunkowych.

Obszar Disaster Recovery jest dość pojemny i zazwyczaj błędnie interpretowany, zwłaszcza w aspekcie definicyjnym. Dlatego postanowiliśmy nieco uporządkować to zagadnienie, osadzając je odpowiednio wśród innych rozwiązań i strategii cyberodporności. W tym celu zapraszamy Was do rozmowy z Tomaszem Magdą – Product Managerem Flowberg IT, który od niemal dekady specjalizuje się w rozwiązaniach z obszaru ciągłości działania, odtwarzania awaryjnego i wysokiej dostępności.

Na początek jednak polecamy krótką ściągawkę, która pozwoli Wam odnaleźć się w gąszczu akronimów, anglojęzycznych nazw i definicji.

Ciągłość działania – dotyczy zwykle organizacji i oznacza zdolność do utrzymania krytycznych operacji (procesów) nawet, gdy wystąpią istotne przeszkody. Dotyczy to wszelkich sfer funkcjonowania organizacji oraz skutków wpływu czynników mikro- i makroekonomicznych.

Business Continuity Plan – BCP (Plan Ciągłości Działania) – dokument określający strategię działania w celu zabezpieczenia ciągłości działania organizacji. Opisuje kroki, które należy podjąć przed, w trakcie lub w odpowiedzi na nieoczekiwane sytuacje, które zagrażają działalności firmy. Do zdarzeń zakłócających ciągłość działania możemy zaliczyć: klęski żywiołowe, zdarzenia niszczące, w tym pożar czy zalanie, utratę danych czy zatrzymanie lub zaszyfrowanie przez Ransomware systemów informatycznych organizacji. Zadaniem BCP jest identyfikacja ryzyk oraz spisanie procedur mających na celu zagrożeniom zewnętrznym, minimalizowanie ich potencjalnych skutków (Business Impact Analysys) oraz redukowanie potencjalnych przestojów wynikających z nieprzewidzianych zdarzeń, które bezpośrednio dotykają organizację. 

Disaster Recovery (Odtwarzanie awaryjne) – szereg zaplanowanych i opisanych działań mających na celu przywrócenie dostępności i funkcjonalności infrastruktury IT po zdarzeniach niszczących zasoby lub dane. Instrukcje i procedury dotyczące odzyskiwania po awarii są zwykle zawarte w Planie Odtwarzania Awaryjnego obszaru IT (IT Disaster Recovery Plan), który jest elementem Planu Ciągłości Działania.

Disaster Recovery as a Service (DRaaS) – outsourcing usług obszaru odtwarzania awaryjnego, którego podstawowe elementy to aplikacje, łączność sieciowa, pamięć masowa oraz moc obliczeniowa po stronie usługodawcy. Usługa umożliwia replikowanie krytycznych systemów i danych z ośrodka podstawowego (czyli z infrastruktury klienta) do centrum danych usługodawcy. Celem takiego działania jest zapewnienie zdolności do szybkiego uruchomienia całego lub części środowiska w infrastrukturze dostawcy usługi, w razie gdy wystąpi zdarzenie niszczące dane lub systemy w ośrodku klienta.

Backup – procedura regularnego tworzenia kopii zapasowych plików i obrazów całych maszyn, która pozwala odzyskać dane i przywrócić działanie systemów oraz aplikacji po awarii lub incydencie naruszającym spójność danych. Opracowana i wdrożona polityka backupu w organizacji jest częścią Planu Odtwarzania Awaryjnego Obszaru IT.

Wszystko jasne? No to zapraszamy do wywiadu.

1. Wdrożenie i utrzymanie rozwiązań z zakresu Disaster Recovery to często dla firm być albo nie być. Skoro tak, czy w Polsce ta praktyka jest standardem? I co za tym idzie – ilu szacunkowo mamy specjalistów lub firm specjalizujących się w DR w Polsce?

W organizacjach procesy powinny mieć swojego właściciela, żeby działały prawidłowo, dlatego też szczególnie średnie i duże firmy rzeczywiście powinny zapewnić w swoich szeregach osoby, które opracowują, wdrażają oraz testują plany odtwarzania awaryjnego, będące częścią Planów Ciągłości Działania (Business Continuity Plan). Dość częstą praktyką jest sięganie po outsourcing w zakresie tworzenia planów – wówczas samym utrzymaniem i aktualizacją może zająć się osoba z mniejszym doświadczeniem.

W polskich firmach zainteresowanie obszarem Odtwarzania Awaryjnego jest małe, co niejako implikuje niewielką podaż osób, które się tym zajmują. Co ciekawe, na świecie funkcjonują 4 instytucje certyfikujące osoby zajmujące się Disaster Recovery (DR):

  • DRI International (USA),
  • Certified Information Security (USA),
  • Mile2 (USA),
  • EC-Council (USA).

Każda z nich ma opracowaną ścieżkę certyfikacji dla specjalistów DR i trzeba podkreślić, że jest to droga dla ludzi bardzo zdeterminowanych 😊. Na przykład, aby zdobyć Certified Business Continuity Professional (CBCP) wydawany przez DRI International, kandydaci muszą wykazać się dziesięcioletnim doświadczeniem w obszarze Business Continuity Management. Mało tego, trzeba napisać 5 esejów, z których 2 muszą dotyczyć: analizy wpływu na biznes (BIA), tworzenia strategii ciągłości działania, opracowywania i wdrażania planów ciągłości działania lub utrzymywania oraz testowania planów ciągłości działania. Koszt szkolenia i egzaminu wynosi 2900 USD. Recertyfikacja jest wymagana corocznie i jeszcze trzeba wnosić opłatę roczną za utrzymanie certyfikatu. A to jeszcze nie koniec – trzeba także zdobywać punkty aktywności edukacyjnej (CEAP), aby zachować certyfikację – 80 punktów na 2 lata.

Jak więc widać, zdobycie i utrzymanie certyfikacji potwierdzającej kompetencje w zakresie Disaster Recovery wymaga wielu zabiegów. Nadmienię jeszcze, że nie słyszałem, by ktoś w Polsce zdobył ten certyfikat.

2. Czy z cyberzagrożeniami jest trochę tak jak w serialu „Haker”, że każdy system można obejść, w efekcie niszcząc jego dane? Co wtedy? Czy zawsze można odzyskać dane po ataku?

Nie oglądałem serialu „Haker”, ale niestety tak – nie ma systemu, do którego nie można się włamać. Zawsze jest jakiś słaby punkt. W dodatku sztuczka z odzyskiwaniem danych po incydencie udaje się zwykle tylko w filmach. Trzeba też pamiętać, że atak może dotknąć każdego, gdyż wraz z popularyzacją modelu Ransomware as a Service, liczba automatycznych ataków na dane wzrasta wykładniczo. Stworzenie przez cyberprzestępców kanału pośredniego, opartego o oprogramowanie do szyfrowania danych i wymuszania okupów, naprawdę daje w kość przedsiębiorcom, także i w Polsce.

Dlatego tak ważne jest odpowiednie zabezpieczanie danych, a więc budowanie odpornej na ataki architektury systemów backupu. Samo wdrożenie reguły 3-2-1, której elementem jest przechowywanie kopii zapasowych w innej lokalizacji (off-site backup / backup poza siedzibą), potrafi uratować organizację w obliczu udanego ataku Ransomware, czy też innego incydentu bezpieczeństwa wycelowanego w pamięć masową. Kopia zapasowa przechowywana poza zaatakowanym środowiskiem staje się ostatecznym zabezpieczeniem kluczowym dla odzyskania danych i odtworzenia systemów.

3. Z jakimi wyzwaniami z zakresu ochrony danych najczęściej mierzycie się w Waszej pracy?

Przypadki są najróżniejsze, ale łączy je jedno – nie doszłoby do nich, gdyby nie określona liczba zaniedbań i informatyczna brawura. Niestety, zwykle impulsem do wdrażania zmian w zakresie ochrony danych jest incydent bezpieczeństwa. Wtedy dopiero wychodzą na jaw różne fakty i potwierdza się uniwersalna zasada – ufaj, ale sprawdzaj. Pozytywne jest to, że w sytuacji zagrożenia ciągłości działania organizacji, wszyscy grają do jednej bramki, a dzięki temu można na przykład w tydzień wdrożyć coś, co do tej pory odkładano latami. Zwykle wtedy – wspólnie z zespołem klienta – układamy wiele obszarów na nowo, w każdym razie inaczej, zgodnie z najlepszymi praktykami w zakresie cyberodporności.

Na liście klasycznych błędów, które bardzo często spotykamy przy okazji wdrożeń, czy interwencji, umieściłbym:

  1. Przechowywanie kopii zapasowych na tej samej pamięci masowej, na której znajdują się dane produkcyjne, a do tego traktowanie zrzutów migawkowych jako backupu.
  2. Przyjęcie jednej ogólnej zasady wykonywania kopii zapasowych dla wszystkich systemów, bez rozróżnienia, czy mamy do czynienia z bazą danych, czy z repozytorium plików albo aplikacją. Efektem jest np. brak spójności transakcyjnej baz danych po odtworzeniu.
  3. Rozproszenie zadań backupu między różne systemy, wynikające najczęściej z pozornej oszczędności na wdrożeniu centralnego systemu backupu.
  4. Brak testów odtwarzania z kopii zapasowej, co nierzadko zamienia się w katastrofę, gdy po incydencie okazuje się, że nie można odtworzyć danych z kopii.
  5. Brak osoby odpowiedzialnej za proces backupu i odtwarzania w firmie.

4. Od czego powinna zacząć organizacja, która chce wdrożyć rozwiązania Disaster Recovery?

Osobiście rekomenduję działanie, jakim jest spisanie Planu Odtwarzania Awaryjnego Obszaru IT. I nie chodzi tu o tworzenie kilkudziesięciostronicowego tomiszcza, lecz o napisaną prostym językiem, kilkustronicową instrukcję opisującą, co i w jaki sposób mamy robić w określonej sytuacji. Chodzi o to, by wiedzieć co robić, gdy zmaterializuje się określone ryzyko – wtedy najważniejsze jest szybkie i zdecydowane działanie, czyli procedowanie zgodnie z wcześniej zaplanowanym schematem. W sytuacji awaryjnej nie ma miejsca na to, żeby dopiero zabierać się za obmyślanie rozwiązania. Ważne jest też, by ten dokument był stale dostępny dla zespołu odpowiedzialnego za Disaster Recovery w firmie. Należy też, rzecz jasna, aktualizować procedury w zgodzie ze zmianami wprowadzanymi w środowiskach IT. Tworząc plan, dokonujemy inwentaryzacji i hierarchizacji zasobów, co w następnych krokach pomoże w doborze właściwego rozwiązania technicznego.

5. Czy Disaster Recovery polega wyłącznie na odtwarzaniu awaryjnym danych?

Disaster Recovery nie ogranicza się do odtworzenia danych. To raczej zespół działań, procesów i procedur, mających na celu zarówno zabezpieczenie przed awarią, jak i przywrócenie działania usług IT, gdy awaria wystąpi. Chodzi o to, by jak najszybciej przywrócić zdolność organizacji do prowadzenia działalności operacyjnej. Ważne jest przy tym, by rozróżnić odtwarzanie z backupu od przełączenia awaryjnego na środowisko zapasowe. Wyciąganie danych z backupu to zwykle czasochłonny proces związany z kopiowaniem danych z repozytorium backupu na docelową pamięć masową i niestety nie zawsze kończy się on sukcesem.

Weźmy następujący scenariusz dla lepszego zwizualizowania istoty Disaster Recovery. W średniej firmie wydawniczej awarii uległa macierz dyskowa, na której pracują systemy produkcyjne, albo – co zdarza się o wiele częściej – macierz trzeba odłączyć i zabezpieczyć jako dowód w postępowaniu po cyberincydencie. Co w takiej sytuacji da nam backup danych? No właśnie, mamy spory problem. Dlatego podczas planowania odtwarzania awaryjnego od razu trzeba zdecydować, na jakich zasobach realizowane będą fazy failover czy partial-failover – czyli innymi słowy, gdzie będzie odbywać się przetwarzanie danych w sytuacji przełączenia awaryjnego.

6. Jak w praktyce realizowane jest Disaster Recovery w organizacji? Jaka technologia sprawdza się najlepiej i dlaczego?

W uproszczeniu, odtwarzanie awaryjne opieramy na backupie i replikacji. Zasadniczym celem backupu jest długoterminowa ochrona danych, natomiast celem replikacji jest zapewnienie dostępności systemów, np. w innej lokalizacji. Planując Odtwarzanie Awaryjne należy uwzględnić zarówno backup jak i replikację. Tylko takie podejście do DR pozwoli dostosować scenariusze odtworzeniowe do rodzaju i dotkliwości incydentu bezpieczeństwa, czy też stopnia wpływu czynnika niszczącego.

W praktyce DR to sekwencyjna replikacja asynchroniczna – a rzadziej synchroniczna – do drugiego ośrodka przetwarzania lub do chmury. Replikujemy zwykle wirtualne maszyny utrzymujące procesy krytyczne w organizacji. W przypadku awarii ośrodka podstawowego, z takich replik składowanych w ośrodku zapasowym można uruchomić środowisko IT i przełączyć pracę właśnie na ten ośrodek (failover). Po tym, gdy uzyskamy zdolność do ponownego uruchomienia ośrodka podstawowego, następuje faza failback, w której maszyny ośrodka podstawowego synchronizowane są o zmiany, które zaszły w ośrodku zapasowym. Pomyślne zakończenie fazy failback pozwala na ponowne przełączenie przetwarzania na ośrodek podstawowy.

DRC & DRaaS | replikacja | failover | failback

Rysunek 1 – Fazy DRC & DRaaS | replikacja | failover | failback

Jeżeli chodzi o technologię, to trzeba ją bezwzględnie dopasować do stosu technologicznego, który już posiadamy. Nadto, należy uwzględnić istniejące procedury, plany ciągłości działania i oczekiwania biznesowe w zakresie akceptowalnej utraty danych, jak i czasu przywracania – parametry RPO (Recovery Point Objective) i RTO (Recovery Time Objective).

Disaster Recovery - RPO & RTO

Rysunek 2 – Disaster Recovery – RPO & RTO

My realizujemy wdrożenia Disaster Recovery albo jako projekty DRC, albo jako usługę poziomu aplikacji – DRaaS. W drugim przypadku preferujemy rozwiązanie firmy Veeam Software, której jesteśmy partnerem w programie Veeam Cloud Service Provider (poziom Gold).

7. Coraz większą popularnością wśród polskich firm cieszy się od jakiegoś czasu DRaaS, czyli Disaster Recovery w formie usługi. Wyjaśnij proszę, na czym ona polega i jaka jest różnica pomiędzy DRC, a DraaS?

Generalnie model „as a Service” zdobywa rynek. Nie zawsze jednak jest on możliwy do zastosowania. Na przykład, jeżeli chodzi o Disaster Recovery, czym bardziej niszowa technologia i wyśrubowane parametry RTO/RPO, tym bardziej nieuchronne jest użycie klasycznego podejścia, czyli Disaster Recovery Center. Jest to z resztą najstarszy i najdroższy sposób realizacji DR. Polega na zdublowaniu części infrastruktury serwerowej oraz sieciowej i umieszczeniu jej w innej lokalizacji, np. w centrum danych dostawcy (kolokacja). Taka nadmiarowość oparta na dwóch centrach danych umożliwia replikację synchroniczną lub asynchroniczną wszelkich krytycznych maszyn wirtualnych i ustawień wraz z danymi, a więc de facto pozwala na utrzymywanie klona środowiska podstawowego. W oparciu o tak zaprojektowane środowisko zapasowe, można dokonać przełączenia awaryjnego (failover), a po określonym czasie wykonać failback i przełączyć się ponownie na przetwarzanie w oparciu o ośrodek podstawowy.

W przypadku stosowania popularnych technologii komercyjnych, głównie w zakresie wirtualizacji (vSphere, Hyper-V), wachlarz możliwości realizacji DR jest o wiele szerszy. Przede wszystkim, możliwe jest skorzystanie z gotowych usług budowanych przez centra danych, hyperscalerów czy dostawców usług. Wówczas unikamy inwestycji, a usługę DR odbieramy w modelu abonamentowym (Opex). Nadal możliwe jest uruchamianie awaryjne z replik, z tą różnicą, że zamiast na własnych serwerach ośrodka zapasowego, odtwarzanie następuje w chmurze dostawcy (IaaS). Na tym właśnie polega Disaster Recovery as a Service.

Usługodawcy zwykle proponują pełny outsourcing i oferują wsparcie techniczne oraz administracyjne doświadczonego w tym obszarze inżyniera IT, bo jak już wspomniałem, wiedza wdrożeniowa z tego obszaru nie jest w Polsce zbyt powszechna.

Rozmawiała: Natalia Dutkiewicz

Artykuł został napisany przez człowieka, a nie algorytm sztucznej inteligencji.

Tomasz Magda | 29.01.2024

O tym, jak zadbać o bezpieczeństwo kopii zapasowych, opowiada Tomasz Turek z Veeam Software

Co to znaczy, że kopia zapasowa jest NIENARUSZALNA i dlaczego to tak ważny aspekt ochrony danych? Czym jest linuxowe utwardzone repozytorium i czy jest to najlepsza metoda zapewnienia nienaruszalności backupu? Jak skutecznie testować kopie zapasowe i w jaki sposób wykorzystać do tego celu narzędzia ze stajni Veeam? O to i jeszcze więcej zapytaliśmy Tomasza Turka, Senior Systems Engineer z Veeam Software, który o backupie wie niemal wszystko.
 
Zapraszamy więc do materiału w dwu formatach. Dla tych, którzy wolą poczytać, mamy artykuł, a dla tych, którzy lubią pooglądać i posłuchać – wideo. Uwaga – znajdziecie tutaj sporo technicznego żargonu, więc artykuł jest skierowany raczej do specjalistów IT oraz osób z praktyczną wiedzą z obszaru backupu i odtwarzania.

Czym jest nienaruszalność kopii zapasowych i jak ją zrealizować w praktyce?

O nienaruszalności kopii zapasowej mówi nam atrybut Immutability Object Lock, który oznacza, że kopia jest nieusuwalna i niemodyfikowalna przez określony czas. Nie może jej ,,tknąć” ani administrator systemu backupu ani administrator infrastruktury, ani nikt inny w organizacji, bez względu na to, jaki poziom uprawnień posiada. 

Tomasz Turek wskazuje na kilka rozwiązań technicznych oferowanych przez Veeam Software, które realizują nienaruszalność backupu. Do stworzenia podstawowej ścieżki nienaruszalności kopii zapasowej poleca na przykład wykorzystać repozytorium linuksowe, czyli tzw. Linux Hardened Repository, w którym można oznaczyć atrybutem Immutability cały system plików.

W zależności od dostawcy chmurowego, Veeam pozwala nadać flagę Object Lock bezpośrednio na storage’u obiektowym – na przykład na Microsoft Azure lub na buckecie S3 w AWS – bez względu na to, czy mówimy o środowiskach hyperscalerowych czy o środowiskach opartych o macierze S3, znajdujących się w naszej lokalizacji, które natywnie wspierają taką opcję. W przypadku tego rozwiązania również nie ma mowy o usunięciu atrybutu Immutable, bez względu na poziom posiadanych uprawnień.

Ostatnią możliwością jest wykorzystanie urządzeń deduplikacyjnych, jak na przykład HPE StoreOnce, które w ramach swojego firmware’u również pozwala na założenie Object Locke’a i nieusuwanie backupu przez określony czas.

Czym jest linuxowe utwardzone repozytorium? Jak za jego sprawą realizowana jest ochrona przed usunięciem kopii zapasowej?

Linuxowe utwardzone repozytorium to rozwiązanie, które warto stosować, gdy nie posiadamy macierzy obiektowych i nie mamy możliwości wysłania naszych backupów ,,na zewnątrz”, czyli na przykład na taśmę. To rozwiązanie jest bardzo bezpieczne choćby dlatego, że Linux Hardened Repository spełnia kilka amerykańskich regulacji: SEC 17a-4(f), FINRA 4511(c) oraz CFTC 1.31(c)-(d) (według raportu Cohasset Associates), które stawiają to repozytorium na równi z repozytoriami WORM (Write-Once-Read-Many).

A jak to wygląda w praktyce? Veeam w czasie inicjalizacji linuxowego repozytorium wykorzystuje konto root do stworzenia znacznika Immutable w taki sposób, by użytkownik, „po którym” się komunikujemy, nie miał uprawnień do usunięcia lub modyfikacji oznaczonych danych. Można jedynie wydłużyć czas życia znacznika, nie można go natomiast skrócić lub całkowicie zdjąć. Co ważne, gdy mamy już wspierające nienaruszalność repozytorium, włączenie flagi Immutability zrealizować można z poziomu konsoli Veeam za pomocą zaledwie jednego checkboxa.

Czy utwardzone repozytorium linuxowe jest najlepszą metodą realizacji nienaruszalności kopii zapasowych?

Według Tomasza Turka linuxowe repozytorium jest jednym z podstawowych sposobów osiągnięcia nienaruszalności kopii zapasowej, ale nie jedynym. Stosunkowo bezpieczną metodą jest również wykorzystanie środowisk niezależnych od naszej firmowej infrastruktury do przechowywania kopii zapasowych. To na przykład środowiska zewnętrznych service providerów lub hyperskalerów, które gwarantują zupełnie inną domenę uwierzytelniania.

W przypadku ataku na nasze lokalne środowisko mamy jeszcze kopie zapasowe u service providera, gdzie dane są bezpieczne z dwóch powodów. Po pierwsze – zewnętrzna domena uwierzytelniania jest solidną barierą przed zaatakowaniem repozytorium Service Providera, nawet jeśli nasze lokalne dane uwierzytelniania zostały przejęte. Po drugie – dostawcy usługi backupu poza siedzibą (off-site backup) mają możliwość opóźnienia akcji usuwania kopii zapasowych ze swojego repozytorium, co znacząco zwiększa szanse na odzyskania danych po udanym ataku na lokalne repozytorium backupu. 

Rozważając to na przykładzie, gdybyście stali się ofiarą cyberataku mającego na celu nie tyle zaszyfrowanie danych, co na przykład ich usunięcie, service provider może ustanowić politykę, która mówi, że nawet w przypadku otrzymania komendy ,,Usuń kopie zapasowe” zadanie to realnie zostałoby zrealizowane dopiero po 7 dniach, co daje wystarczająco dużo czasu na odtwarzanie awaryjne.

Jakie są najlepsze praktyki testowania kopii zapasowych?

Najlepszą praktyką w zakresie testowania kopii zapasowych jest… sam fakt jej testowania. Najważniejsze jest to, żeby o regularnym testowaniu backupu pamiętać, niezależnie, czy będziemy to robić automatycznie czy manualnie, czy jakkolwiek inaczej – każda forma testowania znacząco zwiększa bezpieczeństwo danych.”

– mówi Tomasz Turek

Proces testowania backupu można skutecznie zautomatyzować – służy do tego na przykład funkcjonalność Veeam o nazwie SureBackup. Aby uruchomić regularny proces testowania backupu za pomocą tego narzędzia, wystarczy raz zdefiniować zadanie testowania, które automatycznie włącza maszyny wirtualne z repozytorium kopii zapasowych, bez konieczności wykorzystywania storage’u produkcyjnego.

Co ważne, w tym procesie maszyny wirtualne włączane są w wyizolowanej strefie sieciowej, czyli w tzw. wirtualnym laboratorium – więc nic nie stoi na przeszkodzie, aby zarówno maszyny produkcyjne, jak i maszyny testowe znajdowały się na tym samym środowisku. Funkcja SureBackup automatycznie weryfikuje, czy maszyna wirtualna została poprawnie uruchomiona, czy system operacyjny takiej maszyny został zainicjalizowany oraz czy pingujemy maszynę po to, by móc podłączyć ją do sieci. Poza tym, w tym procesie możemy zweryfikować poprawność działania aplikacji, czy taka aplikacja została poprawnie włączona. W ostatniej fazie mamy możliwość skorzystania zarówno z predefiniowanych skryptów, jak i skryptów definiowanych przez użytkownika.

W procesie testowania kopii zapasowej ważna jest również identyfikacja uszkodzeń fizycznych oraz obecności wirusów infekujących backup. SureBackup weryfikuje w tym celu cały łańcuch backupowy sprawdzając, czy nie nastąpiła na przykład awaria dysku lub kontrolera na macierzy, a także – wykorzystując najnowsze sygnatury antywirusowe – sprawdza, czy zawartość kopii zapasowej jest bezpieczna od najnowszych znanych malware’ów.

Podsumowanie

Bezpieczeństwo kopii zapasowych to zagadnienie równie szerokie, co trudne, głównie z uwagi na fakt, że niebezpieczeństwa, na które narażone są nasze dane, ewoluują w tempie logarytmicznym – codziennie pojawiają się nowe socjotechniki, coraz inteligentniejsze malware’y i jeszcze bardziej wyrafinowane techniki ataków ransomware.

A choć trudno za tym wszystkim nadążyć, jedno jest pewne – stosowanie sprawdzonych praktyk, narzędzi i strategii zabezpieczania backupu może nie tylko znacząco zwiększyć poziom bezpieczeństwa naszych danych, ale również (czego nikomu nie życzymy) stać się ostatnim bastionem w walce z cyberprzestępcami.

Dobrze zabezpieczona kopia zapasowa to przepustka do odzyskania utraconych danych, szybkiego przywrócenia ciągłości działania organizacji, ograniczenia skutków naruszenia oraz zmniejszenia potencjalnych konsekwencji finansowych i wizerunkowych dla organizacji.

Zatem jeśli wiesz już, że warto zadbać o ten obszar w Twojej organizacji, ale nie masz pewności co do tego, JAK to zrobić, jakich narzędzi użyć i od czego zacząć – zapraszamy do kontaktu z nami poprzez czat lub e-mail oraz do zapoznania się z informacjami o naszych usługach w zakresie backupu i odtwarzania na stronie produktu. Doradzimy, pomożemy i skutecznie przeprowadzimy Cię przez cały proces wdrożenia planu ochrony danych w Twojej organizacji. 


Artykuł został napisany przez człowieka, a nie algorytm sztucznej inteligencji.