Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



25.09.2020

Konferencja PIKE 2020 „Nowy...

Liderzy branży telekomunikacji i mediów o nowych wyzwaniach i przyszłości branży w...
24.09.2020

Microsoft ogłosił harmonogram...

Ta chwila prędzej czy później musiała nadejść – Microsoft ogłosił harmonogram porzucania...
24.09.2020

Nowe mobilne jabłka

Premiera iOS-a 14
24.09.2020

Kompleksowa ochrona

Kaspersky 2021
24.09.2020

Kolejny zielony robot

Android 11
24.09.2020

Mobilne bezpieczeństwo

ESET Mobile Security 6.0
24.09.2020

QNAP

QNAP wprowadził na rynek serwery NAS serii TS-x32PXU przeznaczone do montażu w szafie...
24.09.2020

Wytrzymałe SSD

WD My Passport
24.09.2020

Laptopy dla biznesu

MSI Summit

Data center

Data publikacji: 16-07-2020 Autor: Michał Jaworski

W ciągu ostatnich kilku miesięcy usłyszeliśmy o miliardowych inwestycjach w data center w Polsce. Przez ostatnie kilkanaście miesięcy powtarzam, że chmurowe data center (DC) to coś zupełnie odmiennego od znanych nam serwerowni. Nie tylko rozmiar ma znaczenie.

 

Od rozmiaru warto jednak rozpocząć. Jedno DC nie czyni różnicy. Żeby móc rzeczywiście eksploatować chmurę, w regionie powinny być dwa, a najlepiej trzy. Bo podstawowy sposób na zachowanie ciągłości to zwielokrotnienie zasobów – podwajamy pamięć masową, sterowniki pamięci, serwery w jednym DC, w każdym DC w regionie mamy kopię naszych systemów. Na końcu zaś możemy pokusić się o zwielokrotnienie w kilku regionach. Microsoft ma regionów ponad 60, a liczba DC wynosi 200. Przepustowość własnych sieci sięga 160 TB/s. Wszystko także po to, żeby zabezpieczyć przed awarią, przed atakiem, przed fizyczną ingerencją. Gdyby wystąpiła nagła potrzeba zwiększenia obciążenia, można przenosić je pomiędzy DC, ale także pomiędzy regionami.


Takie DC wymaga mocy przynajmniej kilkunastu, a zazwyczaj kilkudziesięciu megawatów. Koszt zasilania to największa pozycja w eksploatacji. Stąd komputery są budowane specjalnie dla DC i są nie do kupienia na rynku. Stąd rozwiązania, jakich nie stosuje się na mniejszą skalę – na przykład cały serwer pracuje zanurzony w cieczy chłodzącej. Lub rezygnacja z doprowadzania prądu elektrycznego do DC, bo straty na wszystkich transformatorach i prostowaniu zmiennego do stałego są zbyt duże. Wystarczy do kontenera z serwerami doprowadzić gaz, zastosować ogniwo i uzyskać prąd potrzebny do zasilenia elektroniki. Można także eksperymentalnie zanurzyć wodoszczelny kontener w morzu, żeby zasilać go prądami morskimi. Królem jest wskaźnik PUE określający, ile energii trzeba zużyć, żeby wykonywać obliczenia. W twojej serwerowni ten wskaźnik przekracza zazwyczaj 2 – zużywasz połowę energii na obliczenia, druga w największej części zamienia się w ciepło. W chmurowym DC schodzi się nawet poniżej 1,1. Kolejnym efektem walki o efektywność energetyczną jest to, że serwery w DC mają krótkie życie i już po kilkunastu miesiącach są zastępowane. Serwer o 28 rdzeniach, 12 terabajtach RAM, wieloterabajtowych dyskach SSD i sieci o przepustowości ponad 50 Gb/s, jaki dziś stanowi standard, po prostu jest oszczędniejszy niż generacja sprzed dwóch lat. O serwerach sprzed pięciu lat nawet nie wspominając. Tych kart sieciowych i specjalnych dysków SSD zresztą także nie uda się kupić na wolnym rynku…


DC to bezpieczeństwo. Nie publikuje się adresów fizycznych lokalizacji. Nie prowadzą do nich drogi, po których można się rozpędzić i sforsować bramy ciężarówką. Często mają rodzaj suchej fosy wokół. Osoby, które mają jakikolwiek fizyczny dostęp do infrastruktury, nie mają dostępu informatycznego i vice versa. Panuje zasada zerowego zaufania i „need to know”. Pracownicy podlegają wielostopniowej kontroli i są zobowiązani do zachowania tajemnicy także po zakończeniu pracy w firmie. Pamięć operacyjna czy masowa, kiedy raz trafi do DC, to już nigdy go nie opuszcza, a jej niszczenie podlega normom branżowym.

 

Dlaczego światowi giganci chmury postanowili także w Polsce uruchomić swoje regiony? Energia nie jest u nas najtańsza, klimat mamy raczej umiarkowany, a nie zimny, milszy serwerom. Czy to dlatego, że Polska opływa w informatyków najwyższej klasy? A może dlatego, że to ogromny rynek, a regulatorzy wysoko stawiają poprzeczkę lokalizacji danych? A może to jakieś nadzwyczajne koncesje zaoferowane przez polityków czyniące te inwestycje niezwykle intratnymi? Prawdziwa odpowiedź zawiera się w dwóch czynnikach. Pierwszy to rzeczywiście skala biznesu chmurowego – jeśli jest dostatecznie duża i perspektywy rozwoju są dobre, wówczas decyzja przychodzi łatwiej. Oba elementy mają związek z wielkością państwa, ale także z jego poziomem rozwoju. Kompetencje informatyków są istotnym wsparciem. Drugim kluczem jest prędkość światła i nadchodzące wdrożenie 5G. To ostatnie pozwoli na łączenie nie tysięcy, ale milionów różnych czujników, urządzeń, sterowników i aplikacji. Możemy zapomnieć o korzyściach takich rozwiązań bez solidnej chmury w nieodległym data center. Nieodległym oczywiście w rozumieniu prędkości światła.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"