Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



20.07.2020

Baramundi

Pomoc w czasie pandemii.
20.07.2020

Stop infekcjom

CloudGuard
17.07.2020

Analiza zagrożeń

Kaspersky Threat Attribution Engine
17.07.2020

Strażnik danych

QGD-1602P
16.07.2020

Dysk przemysłowy

Transcend MTE352T
16.07.2020

Połączenie sił

Fugaku
16.07.2020

Brama bezpieczeństwa

Check Point 1570R
23.06.2020

PLNOG Online

PLNOG Online
23.06.2020

Nowe zagrożenie

Ramsay

Data center

Data publikacji: 16-07-2020 Autor: Michał Jaworski

W ciągu ostatnich kilku miesięcy usłyszeliśmy o miliardowych inwestycjach w data center w Polsce. Przez ostatnie kilkanaście miesięcy powtarzam, że chmurowe data center (DC) to coś zupełnie odmiennego od znanych nam serwerowni. Nie tylko rozmiar ma znaczenie.

 

Od rozmiaru warto jednak rozpocząć. Jedno DC nie czyni różnicy. Żeby móc rzeczywiście eksploatować chmurę, w regionie powinny być dwa, a najlepiej trzy. Bo podstawowy sposób na zachowanie ciągłości to zwielokrotnienie zasobów – podwajamy pamięć masową, sterowniki pamięci, serwery w jednym DC, w każdym DC w regionie mamy kopię naszych systemów. Na końcu zaś możemy pokusić się o zwielokrotnienie w kilku regionach. Microsoft ma regionów ponad 60, a liczba DC wynosi 200. Przepustowość własnych sieci sięga 160 TB/s. Wszystko także po to, żeby zabezpieczyć przed awarią, przed atakiem, przed fizyczną ingerencją. Gdyby wystąpiła nagła potrzeba zwiększenia obciążenia, można przenosić je pomiędzy DC, ale także pomiędzy regionami.


Takie DC wymaga mocy przynajmniej kilkunastu, a zazwyczaj kilkudziesięciu megawatów. Koszt zasilania to największa pozycja w eksploatacji. Stąd komputery są budowane specjalnie dla DC i są nie do kupienia na rynku. Stąd rozwiązania, jakich nie stosuje się na mniejszą skalę – na przykład cały serwer pracuje zanurzony w cieczy chłodzącej. Lub rezygnacja z doprowadzania prądu elektrycznego do DC, bo straty na wszystkich transformatorach i prostowaniu zmiennego do stałego są zbyt duże. Wystarczy do kontenera z serwerami doprowadzić gaz, zastosować ogniwo i uzyskać prąd potrzebny do zasilenia elektroniki. Można także eksperymentalnie zanurzyć wodoszczelny kontener w morzu, żeby zasilać go prądami morskimi. Królem jest wskaźnik PUE określający, ile energii trzeba zużyć, żeby wykonywać obliczenia. W twojej serwerowni ten wskaźnik przekracza zazwyczaj 2 – zużywasz połowę energii na obliczenia, druga w największej części zamienia się w ciepło. W chmurowym DC schodzi się nawet poniżej 1,1. Kolejnym efektem walki o efektywność energetyczną jest to, że serwery w DC mają krótkie życie i już po kilkunastu miesiącach są zastępowane. Serwer o 28 rdzeniach, 12 terabajtach RAM, wieloterabajtowych dyskach SSD i sieci o przepustowości ponad 50 Gb/s, jaki dziś stanowi standard, po prostu jest oszczędniejszy niż generacja sprzed dwóch lat. O serwerach sprzed pięciu lat nawet nie wspominając. Tych kart sieciowych i specjalnych dysków SSD zresztą także nie uda się kupić na wolnym rynku…


DC to bezpieczeństwo. Nie publikuje się adresów fizycznych lokalizacji. Nie prowadzą do nich drogi, po których można się rozpędzić i sforsować bramy ciężarówką. Często mają rodzaj suchej fosy wokół. Osoby, które mają jakikolwiek fizyczny dostęp do infrastruktury, nie mają dostępu informatycznego i vice versa. Panuje zasada zerowego zaufania i „need to know”. Pracownicy podlegają wielostopniowej kontroli i są zobowiązani do zachowania tajemnicy także po zakończeniu pracy w firmie. Pamięć operacyjna czy masowa, kiedy raz trafi do DC, to już nigdy go nie opuszcza, a jej niszczenie podlega normom branżowym.

 

Dlaczego światowi giganci chmury postanowili także w Polsce uruchomić swoje regiony? Energia nie jest u nas najtańsza, klimat mamy raczej umiarkowany, a nie zimny, milszy serwerom. Czy to dlatego, że Polska opływa w informatyków najwyższej klasy? A może dlatego, że to ogromny rynek, a regulatorzy wysoko stawiają poprzeczkę lokalizacji danych? A może to jakieś nadzwyczajne koncesje zaoferowane przez polityków czyniące te inwestycje niezwykle intratnymi? Prawdziwa odpowiedź zawiera się w dwóch czynnikach. Pierwszy to rzeczywiście skala biznesu chmurowego – jeśli jest dostatecznie duża i perspektywy rozwoju są dobre, wówczas decyzja przychodzi łatwiej. Oba elementy mają związek z wielkością państwa, ale także z jego poziomem rozwoju. Kompetencje informatyków są istotnym wsparciem. Drugim kluczem jest prędkość światła i nadchodzące wdrożenie 5G. To ostatnie pozwoli na łączenie nie tysięcy, ale milionów różnych czujników, urządzeń, sterowników i aplikacji. Możemy zapomnieć o korzyściach takich rozwiązań bez solidnej chmury w nieodległym data center. Nieodległym oczywiście w rozumieniu prędkości światła.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"