Obawy przed możliwością nieutrzymania infrastruktury służącej do obsługi transmisji danych wciąż utrzymują się. Zwłaszcza wśród ekspertów ds. IT, którzy aktywnie reagują na proces rozbudowy i udoskonalenia sieci transmisyjnej. Szacuje się, że w 2025 r. zużycie  danych wzrośnie aż do 52 GB (w niektórych lokalizacjach nawet do 80 GB/SIM).

Czy w Polsce tak szybkie przetwarzanie danych jest możliwe, skoro w zeszłym roku przeciętne miesięczne zużycie danych wyniosło jedynie 3,5 GB/SIM?

Instytut Łączności przewiduje, że przy obecnej infrastrukturze sieciowej Internet nie wytrzyma obciążenia. W niektórych obszarach wiejskich transmisja danych może nawet całkowicie wyczerpać się.

Największym problemem jest zbyt mała liczba stacji bazowych. Aby rozwiązać utrudnienie, jakim jest niska przepustowość danych w sieci mobilnej, należy podwoić stacje oraz rozszerzyć pasma o nowe częstotliwości (700 MHz, 2,6 GHz i 3,6 GHz). Jednocześnie dopuszczalny poziom PEM musi zostać znacznie zwiększony, żeby udało się wprowadzić jakiekolwiek zmiany. Potencjał jest więc wysoki. Pytanie tylko, czy obostrzenia prawne zostaną ograniczone w celu powiększenia szybkości transmisji danych oraz wprowadzenia sieci 5G.

Zbyt słabe łącza i wolna transmisja danych sieci mogą być zagrożeniem dla bezpieczeństwa IT.

Do tej pory istnieją miejsca, w których dostęp do Internetu jest praktycznie niemożliwy. We współczesnym świecie, w którym trzeba być interaktywnym i mobilnym, jest to naprawdę spore utrudnienie. Niestety wypadamy też słabo pod względem prędkości przesyłania danych mobilnie.

Najwyższy wynik osiągnęła Korea Południowa – 54,2 Mb/s. W Polsce średni rezultat mobilnego przepływu danych wynosi 17,3 Mb/s, co plasuje nas na 35 miejscu z 87 badanych państw. Również dostęp do sieci 4G nie jest zadowalający – 82,9 %. Brakuje nam do liderów aż 15 %.

Liczymy na to, że sytuacja zmieni się, a Polska poprawi wyniki na tle innych krajów i zwiększy tym samym konkurencyjność i poziom bezpieczeństwa. Zwłaszcza dzięki wprowadzeniu wysokiej jakości sprzętu i rozbudowaniu komunikacyjnych łącz poza obszarem miejskim.

Nastawienie polskich użytkowników do najnowszych rozwiązań IT zmienia się. I to na lepsze. Migracja danych do chmury oraz korzystanie z bankowości elektronicznej są znakomitymi dowodami. Zwiększa się tym samym świadomość korzystania z profesjonalnych zabezpieczeń.

Za magazynem „IT Professional” wskazujemy produkty i rozwiązania informatyczne, które cieszyły największą popularnością w 2019 r.

serwer APC Smart – UPS SRT 3000 VA

Serwer wolnostojący, dostosowany do zamontowania w szafie.

konsola LCD KVM – Aten CL 3800

Służy do zamontowania w szefie rackowej. Konsola zaopatrzona jest w podświetlany touchpad i klawiaturę wysuwaną niezależnie od wyświetlacza.

Fortinet Fortigate 500E

Firewall identyfikuje niepożądany ruch już na poziomie aplikacyjnym.

SonicWall Email Security 7000

Zapora sieciowa zabezpieczająca przed atakami, które są skierowane na pocztę elektroniczną dzięki modułom Email Protection, Email Antivirus, Encryption Services.

ESET Endpoint Security 7.1

Antywirus dla klientów biznesowych, który zapewnia antyspamową ochronę przed botami oraz kontroluje treści na stronie www.

Veeam ONE 9.5

Oprogramowanie służące do zarządzania backup’em, w tym do prowadzenia monitoringu środowiska oraz analizy szczelności systemu, w zgodzie z parametrami SLA.

QNAP Virtualization Station 3.2

Aplikacja dostępna jest na serwerach NAS i służy do wirtualizacji systemami Windows, Linux, Androi i Unix. Ułatwia proces importowania i eksportowania maszyn do wielu formatów.

Axence nVision 10.5

Oprogramowanie zawiera aż 6 modułów funkcjonalnych do prowadzenia monitoringu: Network, Inventory, Users, Helpdesk, Dataguard oraz modułu zbierającego statystyki aktywności użytkowników. Odpowiada za tworzenie serwisowych zgłoszeń, zapewnia wsparcie działu IT oraz chroni przed wyciekami informacji.

Wszystkie powyższe rozwiązania posiadamy w ofercie dla klientów biznesowych. Ekipę firmy Virtline cechuje wysoka skuteczność, kilkuletnie doświadczenie we wdrożeniach IT i profesjonalne podejście do klienta.

Kopia bezpieczeństwa oznacza kopię zapasową danych, która tworzona jest w celu ochrony informacji prywatnych lub biznesowych. Sprawne zarządzanie procesem tworzenia i odtwarzania backupu, a także aktualizowanie najnowszych wersji programów zwiększa poziom bezpieczeństwa przed nieautoryzowanym dostępem.

Jakie kroki należy podjąć w celu zapewnienia ochrony danych w firmie?

W przypadku administrowania kopiami bezpieczeństwa szczególną uwagę należy zwrócić na:

– opracowanie i wprowadzenie polityk i procedur bezpieczeństwa dotyczących odpowiedzialności pracowników za wykonywane działania oraz zasad przekazywania sprzętu;

optymalizację usług sieciowych, które są powiązane z backupem;

– dokonanie podziału kompetencji odnoszących się do sieci oraz stacji roboczych;

– prowadzenie bieżącego monitoringu działania sprzętu i funkcjonującego w jego ramach oprogramowania;

– cykliczne sprawdzanie poprawności odtworzenia backupu;

testowanie integralności danych, które przetwarzane są przez sieci (bezprzewodowe oraz lokalne sieci przewodowe w obrębie infrastruktury IT).

Powyższe wymagania powinny być bezwzględnie spełnione, aby nie dochodziło do awarii, błędów technicznych czy naruszeń. Zwiększoną uwagę zalecamy przykuć do parametrów bezpieczeństwa, które są ważnymi czynnikami wpływającymi na osiągnięcie przewagi na konkurencyjnym rynku IT.

W szczególności zaś należy uwzględnić w prowadzeniu działalności biznesowej następujące działania:

– uwierzytelnianie przesyłanych informacji poprzez szyfrowanie, stosowanie access point’ów oraz wdrożenie systemu firewall;

– ograniczenie uprawnień administracyjnych w zakresie wprowadzania zmian do procedury wykonywania i cyklicznego odtwarzania backupu;

– dostosowanie się całego personelu do zasad bezpieczeństwa informacji, które zostały unormowane politykami i procedurami.

Nasze urządzenia elektroniczne, w ramach których przetwarzamy dane, są szczególnie narażone na ataki hakerskie. Do wysokiego ryzyka należy zaliczyć komputery, serwery, tablety oraz smartfony.

Celem wykluczenia ryzyka utraty danych przeprowadza się następujące analizy:

1. Weryfikacja zdarzeń powtarzających się.

W systemie IT należy określić długość występowania i częstotliwość pojawienia się zdarzeń o zwiększonym ryzyku. Do czynników zagrożenia możemy zaliczyć np. zbyt dużą liczbę prób błędnego zalogowania się do panelu webowego.

2. Wykrywanie nierozpoznanych problemów.

Opiera się na opracowaniu szczegółowego planu bezpieczeństwa wskazującego właściwe kroki, które będą podejmowane w celu utrzymania stabilności oraz wydajności systemów komputerowych i bezpieczeństwa IT. W szczególności w aspekcie rozpoznawania i zapobiegania rozprzestrzenieniu się błędów czy zawirusowanych aplikacji oraz plików.

3. Reagowanie na nieprawidłowe wykonywanie poleceń przez użytkowników.

4. Testowanie podatności systemu na zdarzenia odbiegające od przyjętych norm.

Do najczęściej stosowanych technik wykrywania prób włamań należą: analiza heurystyczna oraz modelowanie procesów w oparciu o  ustalone wzorce zagrożeń.

Analiza heurystyczna składa się z kilku etapów, których realizowanie zapewnia wysoki poziom bezpieczeństwa informacji w firmie. Można wśród nich wymienić:

– weryfikację podejrzanego programu w izolowanym środowisku;

– sprawdzenie kodu zabezpieczeń plików, które są pobierane z sieci;

– zatrzymywanie procesów i działania aplikacji, które są szczególnie narażone na oddziaływanie wirusów;

– odnajdywanie anomalii, w tym metamorfozy lub nietypowej, odbiegającej od normy budowy plików.

Zwiększenie ochrony danych oznacza stabilność funkcjonowania firmy na rynku, zwłaszcza w obliczu silnie rosnącej konkurencji. W rezultacie przekłada się na wyższe obroty finansowe. Zalecamy szczególną uwagę przyłożyć do przeprowadzania analizy lejów systemów krytycznych, również w systemach publicznych. Stosowanie się do zasad przedstawionych w artykule z pewnością przełoży się na wyższy poziom bezpieczeństwa informacji. W rezultacie zaś firma zyska prestiż i wzmocni wskaźnik zaufania wśród kluczowych klientów, którzy zyskają pewność, że ich dane są silnie zabezpieczone.

Zapewnienie spójności, integralności i bezpieczeństwa danych stanowi podstawę bezpieczeństwa informacji. Zwłaszcza prowadzenie działalności biznesowej wymaga rozdzielenia danych jawnych (publicznych) od danych zastrzeżonych tylko dla zarządu i/lub personelu.

Przesyłanie informacji bez stosowania zabezpieczeń obarczane jest sporym ryzykiem utraty danych lub wycieku.

Przetwarzając dane (zarówno wewnątrz, jak i na zewnątrz organizacji) pracownicy narażeni są na wirusy, próby przechwycenia informacji przez nieuprawnione osoby oraz awarie techniczne. Niechronione pliki czy aplikacje są znacznie bardziej podatne na złośliwy kod, w tym programy szpiegujące. Aby zapobiec niespodziewanym błędom, wprowadzane są mechanizmy służące do wykrywania, a następnie usuwania zbędnych lub zagrażających komponentów.

Zachowaniu integralności oprogramowania sprzyja stosowanie się pracowników do następujących zasad:

– pracowanie jedynie na wyznaczonych przez firmę programach;

– niepobieranie plików z nielegalnych źródeł;

– regularne przeprowadzanie audytów aplikacji oraz testów wydajności;

– wykonywanie cyklicznych aktualizacji zainstalowanych programów i wtyczek systemowych;

– przestrzeganie zasad nałożonych przez administratora IT, m.in. wymóg uzyskania pozwolenia na ściągnięcia programu komputerowego, który ułatwi codzienne obowiązki.

Powyższe zasady powinny zostać uwzględnione w dokumencie zawierającym procedury i polityki bezpieczeństwa.

Cały personel powinien zachować szczególną ostrożność w trakcie przetwarzania danych, zwłaszcza w aplikacjach sieciowych.

Każdy plik, który otrzymają lub przesyłają pracownicy zostaje przeskanowany w celu stwierdzenia jego bezpieczeństwa. Za wiarygodne dane uznawane są informacje, które przejdą pozytywnie analizę ruchu sieciowego i nie zostaną uznane za szkodliwe dla infrastruktury informatycznej.  Eliminowane jest tym samym ryzyko wykradnięcia danych bez wiedzy użytkownika. W przypadku zaś wykrycia jakichkolwiek nieprawidłowości, akcje podejmowane są w sposób automatyczny. Stanowią one istotną część planu ciągłości działania, w tym zachowania integralności oprogramowania.

Monitorowanie infrastruktury IT pozwala na szczegółową obserwację i przeprowadzanie analizy poszczególnych urządzeń i aplikacji, które funkcjonują w jej ramach. Zdecydowanie się na wdrożenie wizyjnego systemu monitoringu w firmie to znakomite rozwiązanie, dzięki któremu zostaje zapewniona ochrona przed potencjalnymi zagrożeniami.

Monitoring infrastruktury IT zapewnia ochronę przed krytycznymi błędami.

Alerty pojawiające się na zainstalowanym oprogramowaniu (m.in. Nagios czy Zabbix) informują o bieżącym działaniu serwerów, stacji roboczych, macierzy oraz procesora. Śledzą również proces wykonywania automatycznych kopii bezpieczeństwa czy etapy przetwarzania i przesyłania danych w systemie informatycznym.

Jakiekolwiek błędy oraz zawahania w sprawności działania całej infrastruktury informatycznej pojawiają się w formie ostrzeżeń (tzw. alerty). Stopień ryzyka, do którego przypisany jest odpowiedni kolor, sugeruje administratorowi monitoringu IT, że powinien podjąć konkretne działanie. Zwiększenie pamięci RAM, usunięcie zarchiwizowanych przed kilkoma miesiącami kopii zapasowych czy wymiana kabli elektrycznych urządzeń to przykładowe zadania, których wykonanie podpowiada oprogramowanie.

Jak prawidłowo rozpoznać ostrzeżenie?

Korzystanie z monitoringu wizyjnego wymaga wiedzy na temat odpowiedniego odczytywania pojawiających się informacji.

– kolor zielony wskazuje, że urządzenie/aplikacja działa poprawnie;

– kolor pomarańczowy oznacza ostrzeżenie, które należy wziąć pod uwagę – może wskazywać na coraz mniej pamięci na dysku, który niebawem całkowicie się wyczerpie lub na słabnące parametry procesora;

– kolor czerwony wymaga podjęcia natychmiastowego działania – sytuacja, w której infrastruktura jest bliska awarii wskutek pojawienia się krytycznego błędu.

Na poziomie ustawień administrator może ustawić automatyzację działań. W określonych sytuacjach (np. w przypadku braku miejsca na utworzenie nowych kopii bezpieczeństwa) system sam zareaguje. Uruchomienie „wyzwalaczy systemowych” stosuje się w sytuacjach, które informatyk jest w stanie przewidzieć w oparciu o wskaźniki optymalnego działania urządzenia multimedialnego, procesora czy istotnej aplikacji. W szczególnych przypadkach (zwłaszcza jeśli nie zostały określone etapy postępowania) oprogramowanie wysyła powiadomienie w formie SMS lub e-mail konieczności podjęcia działania lub wykonuje połączenie telefoniczne.

Dlaczego system monitoringu wizyjnego jest bardzo przydatny w firmie?

Obserwacja wizyjna nie wymaga od informatyków nieustannego śledzenia wszystkich parametrów funkcjonujących w ramach sieci i systemów IT. Wskutek ustalenia scenariusza zachowań, które wpływają na sprawne i bezpieczne działanie infrastruktury informatycznej w firmie, szereg istotnych procesów wykonywany jest w sposób automatyczny.

Monitorowanie urządzeń i aplikacji systemowych chroni firmę przed krytycznymi błędami i awariami, które wiążą się ze sporymi stratami finansowym i zastojami w wykonywaniu priorytetowych działań. System wizyjny nie tylko chroni firmę – przede wszystkim pozwala jej realizować zadania zgodnie z przyjętym schematem i w odpowiednim czasie.

Według firmy Global Markets Insights rozwiązania IT, zwłaszcza z zakresu bezpieczeństwa informacji, coraz częściej będą opierać się na korzystaniu z metod biometrycznych. Szacuje, że wartość tego rynku może osiągnąć w ciągu najbliższych pięciu lat nawet 50 mld dolarów.

Czy dowody osobiste i dokumenty identyfikacyjne (np. legitymacje szkolne) zostaną zastąpione skanerami bezpieczeństwa?

Skanowanie linii papilarnych czy tęczówek staje się coraz bardziej popularną metodą. Zwłaszcza w aspekcie uwierzytelniania wielopoziomowego. Biometria pozwala na precyzyjną identyfikację konkretnego człowieka. Chroni przed kradzieżą haseł, biznesowych danych, a nawet przed przejęciem tożsamości.

Według badań przeprowadzonych przez Ping Identity blisko 90 proc. firm uznaje systemy biometryczne za znakomity sposób na zwiększenie bezpieczeństwa danych, które są przetwarzane wewnątrz i poza firmą. Jednocześnie wspomniane rozwiązanie technologiczne zabezpiecza dostęp do informacji przechowywanych w chmurze, na co zwraca 86 proc. korporacji.

Jak biometria zapewnia ochronę danych w firmie?

Prawie 30 proc. firm stosuje systemy biometryczne w ramach lokalnej infrastruktury informatycznej. Dość duża liczba firm wykorzystuje zaś linie papilarne jako zabezpieczanie dostępu do aplikacji chmurowych. Dzięki zastosowaniu biometrii w laptopach, tabletach i smartfonach jedynie użytkownik, dla którego został przeznaczony sprzęt, uzyskuje bezpośredni dostęp do jego zasobów. Identyfikowany jest dzięki odciskowi palca, rysom twarzy czy źrenicy oka.

W zeszłym roku na rynku pojawiły się również skanery pozwalające na analizę kodu DNA. Zakres biometrycznych systemów informatycznych, które służą do rozpoznawania użytkownika i zapobiegają dostępowi do danych firmowych osobom z zewnątrz, nieustannie zwiększa się. Pojawiają się rozwiązania identyfikujące charakterystykę pisania na klawiaturze, styl chodzenia czy pisma.

Na jakie rozwiązania jeszcze pozwoli biometria? O tym z pewnością przekonamy się w najbliższych latach. Jedno jest pewne – bezpieczeństwo informacji zostaje znacznie zwiększone dzięki stosowaniu metod biometrycznych zamiast poleganiu jedynie na prostych hasłach dostępowych.

Otwarte sieci Wifi oferują głównie restauracje, pensjonaty oraz instytucje publiczne. Użytkownicy chętnie z nich korzystają – w końcu są darmowe. Istnieje jednak spore zagrożenie, że osoba z zewnątrz zaburzy naszą prywatność.

Jak sprawić, aby dane wykorzystywane podczas transmisji danych były bezpieczne?

Open Wifi wzbudza szerokie zainteresowanie. Łączy się jednak ze sporym ryzykiem wycieku, przechwycenia lub modyfikacji informacji. Aby zapewnić ochronę przed hakerami i nieuczciwymi praktykami (polegającymi na użyciu informacji bez naszej zgody), zaleca się włączenie VPN.

Funkcja stosowana jest  m.in. na smartfonach i tabletach. Tworzy zaszyfrowaną komunikację, do której dochodzi między osobą łączącą się z siecią a zdalnym serwerem. Co najważniejsze, wszelkie nasze działania przechodzą przez tunel, który nie jest dostępny dla innych użytkowników. Ukryta zostaje w ten sposób również tożsamość i lokalizacja.

Czy sieci Wifi typu open są naprawdę niebezpieczne?

Otwarte sieci są podatne na zagrożenia, zwłaszcza jeśli wykorzystuje się je w celach biznesowych lub do wykonywania operacji finansowych. Hasła do kont bankowych i profili na portalach społecznościowych czy numery kart kredytowych należą do danych, które są najczęściej pozyskiwane przez hakerów. Noszą miano danych wrażliwych, których przejęcie obarczone jest sporym ryzykiem. Najczęściej do ich wycieku dochodzi bez większej świadomości odbiorcy.

Fałszywe sieci – sposób na pozyskanie danych

Warto zwrócić uwagę również na podszywanie się pod sieci znanych marek, które oferują darmową transmisję. Zanim zdecydujemy się na ich użycie, warto upewnić się, czy korzystamy z legalnego i wiarygodnego źródła:

– po pierwsze, czy na pewno komunikacja odbywa się w ramach wskazanego lokalu,

– po drugie, czy załączyliśmy usługę VPN.

Jednocześnie przy wyborze aplikacji należy zwrócić uwagę na dostawcę i oferowanego przez niego parametry. Zachowawczy stosunek do otwartych sieci z pewnością pozwoli ustrzec się przed sytuacjami, które mogłyby silnie naruszyć naszą prywatność.

 

Spam – niechciane wiadomości, które zapełniają skrzynkę odbiorczą. Wywołują irytację wśród użytkowników. Wielokrotnie stają się przyczyną zawirusowania systemu komputerowego, a nawet całej sieci w firmie.

Nawet jedno kliknięcie może poskutkować długofalowymi, niekorzystnymi skutkami. Wyciek informacji biznesowych, przechwycenie danych o bilansach czy rozprzestrzenienie się spamu pomiędzy dalszymi pracownikami doprowadza do wielu utrudnień w firmie. Nawet zastoju w priorytetowych procesach.

Jak rozpoznać spam i przeciwdziałać jego rozprzestrzenieniu się?

Wdrożenie systemów antyspamowych umożliwia przeprowadzenie analizy nagłówków oraz treści przesyłanych wiadomości e-mailowych. Klasyfikują spam według sprecyzowanych w panelu administracyjnym kategorii. W ten sposób e-mail może zostać oznaczony (otagowany) lub odrzucony. Kontrolowane są następujące protokoły pocztowe: SMTPS, IMAP oraz POP3.

Istnieje wiele technik pozwalających na wykrycie spamu.

Informatycy, zajmujący się na co dzień kwestiami bezpieczeństwa informacji, opracowują szereg rozwiązań, które mają na celu wykrycie w automatyczny sposób niechcianych wiadomości. Na poziomie konfiguracji określają zadania, które mają zostać wykonane, jeśli:

– domena w e-mailu nie istnieje w DNS;

– e-mail nie należy do listy dopuszczonych domen w skrzynce pocztowej;

– istnieje prawdopodobieństwo, że otrzymany e-mail przekieruje do stron phishingowych lub niechcianych reklam.

Zaletą systemów antyspamowych jest zaopatrzenie ich w dodatkowe funkcje.

Aby zapewnić ochronę antyspamową w ramach wybranej domeny, informatycy załączają w panelu administracyjnym funkcję kontroli przepływu danych. W tym metod, które pozwalają wykryć wrażliwe informacje czy przypisać wagę znaczenia przesyłanym plikom celem ich sklasyfikowania.

Jednocześnie zarządzający skrzynkami mogą sprawdzić, czy personel nie próbował przesłać kluczowych informacji do nieautoryzowanych adresatów.

Ataki hakerskie nie dotyczą jedynie skrzynek e-mailowych. Według badań przeprowadzonych przez Kaspersky Lab, najczęściej media społecznościowe stają się źródłem zagrożenia. Poufne dane występują głównie w instytucjach finansowych i bankach. Dlatego też ich strony internetowe są kopiowane przez cyberprzestępców.

Phishing – popularna metoda wyłudzenia informacji wśród hakerów

Fałszywe witryny znanych firm oraz platform społecznościowych wielokrotnie nie wzbudzają podejrzeń ze strony użytkowników. Brak świadomości sprawia, że bez zastanowienia właściciele kont podają loginy, hasła czy inne wrażliwe dane osobowe. W przypadku pojawienia się komunikatu o wystąpieniu wirusa, który wyskakuje w postaci panelu „error” na takiej stronie, użytkownicy ściągają złośliwe oprogramowanie na swój komputer. Nie zdają sobie sprawy, że w ten sposób stają się ofiarami podchwytliwych hakerów.

Do ataku typu phishing wystarczy jedynie dostęp do sieci

W porównaniu do wirusa, typu koń trojański czy bomba logiczna, atak phishingowy nie powoduje infekcji w specyficznie określonym środowisku. W przypadku zarażenia wirusem złośliwe oprogramowanie skupia się na konkretnie wybranym systemie operacyjnym. Podszywanie się pod popularne strony skutkuje zaś tym, że hakerzy mogą uzyskać dostęp do danych z różnorodnych urządzeń. Obszar bezpieczeństwa informacji może zostać więc naruszony zarówno w przypadku laptopa, smartfona czy tableta.

Przed wykonaniem operacji, upewnij się, że korzystasz z właściwej strony!

Ataki phishingowe wykorzystują strony firmowe, których zasoby danych sięgają rzędu ponad kilku milionów użytkowników. Najczęściej dotyczą podstron, na których wykonywane są operacje finansowe (w tym przelewy) czy sprawdzane są salda konta.

Coraz częściej cyberprzestępcy w celu wyłudzenia informacji podszywają się pod witryny portali społecznościowych. Konta elektroniczne, z których młodzi ludzie korzystają praktycznie codziennie, stają się podatnym źródłem. Platformy, tj. Facebook czy Myspace, stają się komunikatorami, w ramach których użytkownicy przekazują sobie nie tylko informacje prywatne. Z mediów społecznościowych hakerzy pozyskują dane biznesowe o ważnych operacjach biznesowych, statystyki prowadzonego fanpage’u marki czy plany strategiczne.