Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.
Data publikacji: 31-03-2022 | Autor: | Sebastian Jary |
System chłodzenia to drugi co do wielkości odbiorca energii elektrycznej w data center. Jeśli jest dobrze zarządzany, może znacznie zredukować koszty eksploatacji obiektu. Niewłaściwa konfiguracja oraz eksploatacja systemów chłodzenia centrów przetwarzania danych oznacza z kolei wzrost ilości pobieranej energii elektrycznej.
Analiza efektywności energetycznej centrum danych jest priorytetem, jeżeli zależy nam na zmniejszeniu zużycia energii elektrycznej, a co za tym idzie – comiesięcznych rachunków za prąd. To działanie pozwala zrozumieć operatorowi data center, jaki jest obecny poziom wydajności centrum danych. Po zaimplementowaniu dodatkowych elementów mających podnieść efektywność energetyczną pomaga ocenić skuteczność wprowadzonych ulepszeń.
> Współczynnik PUE
W 2007 r. amerykańska organizacja Green Grid, zrzeszająca producentów rozwiązań technologicznych, architektów infrastruktury data center oraz użytkowników końcowych zaprezentowała środowisku branżowemu data center sposób, w jaki możemy oszacować efektywność wykorzystania energii elektrycznej pobieranej przez centrum przetwarzania danych. Stworzono w tym celu nowe pojęcie – współczynnik PUE (ang. Power Usage Effectiveness). Opisuje on efektywność zużycia energii, czyli stosunek całkowitej energii dostarczanej do serwerowni do energii zużywanej przez sprzęt ICT, i w pełni odzwierciedla efektywność energetyczną w centrach danych.
Im niższa wartość PUE, tym wyższa jest efektywność energetyczna centrum danych. Według magazynu „Datacenter Dynamics” obecnie średnie PUE eksploatowanych obiektów DC wynosi około 1,5. PUE równe 1,5 oznacza, że sprzęt ICT zużywa 67% całkowitego zasilania centrum danych, a pozostałe 33% zużywają inne systemy, takie jak chłodzenie, system BMS itd. „Datacenter Dynamics” (stan na 22 lipca 2021 r.) podaje również, że najniższe średnioroczne PUE, jakie kiedykolwiek odnotowano w branży, osiągnięto w Huawei Smart Modular Data Center w Pekinie i wyniosło ono 1,111. W celu zweryfikowania współczynnika PUE dla obiektu Huawei Smart Modular Data Center przeprowadzono certyfikację przy współudziale Cloud Computing & Big Data Research Institute. W czasie testu zasymulowano różne warunki środowiskowe w zakresie od –5°C do 35°C przy zmieniającym się obciążeniu od strony urządzeń ICT. Najwyższą efektywnością energetyczną (najniższym współczynnikiem PUE) w Polsce może pochwalić się centrum danych Beyond.pl. Dla tego obiektu PUE wynosi 1,2.
Najlepsze praktyki eksploatacji centrów przetwarzania danych zakładają zautomatyzowanie raportowania wydajności energetycznej obiektu (PUE) oraz umożliwienie personelowi data center monitorowanie w czasie rzeczywistym energii pobieranej przez poszczególne systemy oraz automatyczne wyliczanie chwilowej wartości współczynnika PUE.
> Efektywność energetyczna
Przyjmuje się, że dla prawidłowej pracy urządzeń elektronicznych, które montuje się w szafach rack, odpowiednia temperatura nawiewu mieści się w zakresie od 18˚C do 27˚C (dopuszczalny jest zakres od 15°C do 32,2°C).
Najważniejszą organizacją definiującą wytyczne środowiskowe dla centrów przetwarzania danych jest ASHRAE (ang. American Society of Heating, Refrigerating and Air-Conditioning Engineers). W ramach ASHRAE działa komitet techniczny ASHRAE – TC 9.9 (ang. Technical Commitee 9.9). W komitecie technicznym TC 9.9 funkcjonuje specjalistyczna grupa ds. obiektów o znaczeniu krytycznym, centrów przetwarzania danych, przestrzeni technologicznych i sprzętu elektronicznego IT. Grupa ta jest głównym źródłem informacji na temat najnowszych trendów w branży IT wykorzystywanych przy opracowywaniu wytycznych środowiskowych.
Według ASHRAE:
Celem optymalnego zarządzania przepływem powietrza jest wymuszenie przepływu powietrza w ilości niezbędnej do usunięcia ciepła faktycznie generowanego przez sprzęt ICT. To oznacza, że żadne powietrze nie powinno powracać do układu chłodzenia bez pochłaniania ciepła i żadne powietrze nie powinno przepływać przez sprzęt ICT więcej niż jeden raz.
Wraz z ciągłym wzrostem gęstości mocy przypadającej na szafę rack konieczne staje się zapewnienie równomiernej dystrybucji chłodnego powietrza dla szafy rack oraz szaf w obrębie tego samego korytarza. Z pomocą przychodzą rozwiązania opierające się na wydzielaniu stref ciepłych i zimnych w ramach komory IT. Koncepcja gorących/zimnych korytarzy wyrównuje temperaturę oraz przepływ powietrza na wlocie do szaf.
> Przepływ powietrza w komorze IT
Problemy z przepływem powietrza w obszarze szaf rack dzielą się na dwie kategorie:
Nadmierny bypass prowadzi do zmniejszenia ciśnienia statycznego pod podłogą, co najczęściej skutkuje: niewystarczającym przepływem powietrza do sprzętu ICT (może to być jedną z przyczyn recyrkulacji powietrza) oraz obniżeniem temperatury powietrza powracającego do urządzeń chłodzących (przekłada się to na spadek wydajności urządzeń chłodniczych i wzrost pobieranej energii elektrycznej).
W czasie recyrkulacji zimne powietrze miesza się z ciepłym powietrzem wydmuchiwanym przez inne urządzenia i podnosi temperaturę powietrza nawiewanego do sprzętu ICT. Sytuacja ta prowadzi bezpośrednio do podwyższenia temperatury na wlocie do sprzętu ICT (zimne powietrze jest podgrzewane). Nie podejmując żadnej akcji naprawczej, a chcąc obniżyć temperaturę na wlocie do sprzętu ICT, musimy zwiększyć ilości nadmuchiwanego zimnego powietrza (wzrost obrotów wentylatorów urządzeń chłodniczych). Działanie to jest niewłaściwe i skutkuje wzrostem mocy elektrycznej pobieranej przez wentylatory klimatyzatorów.
[...]
Autor jest ekspertem ds. utrzymania i rozwoju infrastruktury data center w największej skandynawskiej instytucji finansowej. Od 13 lat zajmuje się problematyką budowy, utrzymania i efektywnego zarządzania centrami przetwarzania danych. Posiada międzynarodowe certyfikaty branżowe: CDCS, CDFOM oraz DCPRO Cooling Professional.
Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.
Transmisje online zapewnia: StreamOnline