Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



03.03.2023

Nowość dla przemysłowych...

Cisco ogłosiło innowacje w zakresie sieci zarządzanych w chmurze.
03.03.2023

Wielofunkcyjna platforma

Nowe narzędzie firmy Veeam Software to zintegrowana platforma oferująca zaawansowane...
03.03.2023

Bard rywalem dla ChatGPT

Google ogłosiło uruchomienie chatbota napędzanego sztuczną inteligencją o nazwie Bard,...
03.03.2023

Monitoring środowisk...

Firma Schneider Electric opublikowała dokument White Paper nr 281 dotyczący tego, jak...
03.03.2023

Chmura danych

Snowflake, firma działająca w obszarze usług cloudowych, uruchomiła chmurę danych dla...
03.03.2023

Bezpieczeństwo w świecie...

HPE rozszerzył gamę serwerów HPE ProLiant Gen11 nowej generacji.
03.03.2023

Bezobsługowa projekcja

Firma Panasonic Connect Europe zaprezentowała nową generację projektorów laserowych DLP z...
03.03.2023

Zasilanie awaryjne

Firma Vertiv, dostawca rozwiązań krytycznej infrastruktury cyfrowej i zapewniających...
03.03.2023

Monitory biznesowe

Marka AOC prezentuje siedem monitorów do zastosowań biznesowych oraz home office.

Chłodzenie komory IT w centrum danych

Data publikacji: 31-03-2022 Autor: Sebastian Jary

System chłodzenia to drugi co do wielkości odbiorca energii elektrycznej w data center. Jeśli jest dobrze zarządzany, może znacznie zredukować koszty eksploatacji obiektu. Niewłaściwa konfiguracja oraz eksploatacja systemów chłodzenia centrów przetwarzania danych oznacza z kolei wzrost ilości pobieranej energii elektrycznej.

 

Analiza efektywności energetycznej centrum danych jest priorytetem, jeżeli zależy nam na zmniejszeniu zużycia energii elektrycznej, a co za tym idzie – comiesięcznych rachunków za prąd. To działanie pozwala zrozumieć operatorowi data center, jaki jest obecny poziom wydajności centrum danych. Po zaimplementowaniu dodatkowych elementów mających podnieść efektywność energetyczną pomaga ocenić skuteczność wprowadzonych ulepszeń.


> Współczynnik PUE


W 2007 r. amerykańska organizacja Green Grid, zrzeszająca producentów rozwiązań technologicznych, architektów infrastruktury data center oraz użytkowników końcowych zaprezentowała środowisku branżowemu data center sposób, w jaki możemy oszacować efektywność wykorzystania energii elektrycznej pobieranej przez centrum przetwarzania danych. Stworzono w tym celu nowe pojęcie – współczynnik PUE (ang. Power Usage Effectiveness). Opisuje on efektywność zużycia energii, czyli stosunek całkowitej energii dostarczanej do serwerowni do energii zużywanej przez sprzęt ICT, i w pełni odzwierciedla efektywność energetyczną w centrach danych.


Im niższa wartość PUE, tym wyższa jest efektywność energetyczna centrum danych. Według magazynu „Datacenter Dynamics” obecnie średnie PUE eksploatowanych obiektów DC wynosi około 1,5. PUE równe 1,5 oznacza, że sprzęt ICT zużywa 67% całkowitego zasilania centrum danych, a pozostałe 33% zużywają inne systemy, takie jak chłodzenie, system BMS itd. „Datacenter Dynamics” (stan na 22 lipca 2021 r.) podaje również, że najniższe średnioroczne PUE, jakie kiedykolwiek odnotowano w branży, osiągnięto w Huawei Smart Modular Data Center w Pekinie i wyniosło ono 1,111. W celu zweryfikowania współczynnika PUE dla obiektu Huawei Smart Modular Data Center przeprowadzono certyfikację przy współudziale Cloud Computing & Big Data Research Institute. W czasie testu zasymulowano różne warunki środowiskowe w zakresie od –5°C do 35°C przy zmieniającym się obciążeniu od strony urządzeń ICT. Najwyższą efektywnością energetyczną (najniższym współczynnikiem PUE) w Polsce może pochwalić się centrum danych Beyond.pl. Dla tego obiektu PUE wynosi 1,2.


Najlepsze praktyki eksploatacji centrów przetwarzania danych zakładają zautomatyzowanie raportowania wydajności energetycznej obiektu (PUE) oraz umożliwienie personelowi data center monitorowanie w czasie rzeczywistym energii pobieranej przez poszczególne systemy oraz automatyczne wyliczanie chwilowej wartości współczynnika PUE.


> Efektywność energetyczna


Przyjmuje się, że dla prawidłowej pracy urządzeń elektronicznych, które montuje się w szafach rack, odpowiednia temperatura nawiewu mieści się w zakresie od 18˚C do 27˚C (dopuszczalny jest zakres od 15°C do 32,2°C).


Najważniejszą organizacją definiującą wytyczne środowiskowe dla centrów przetwarzania danych jest ASHRAE (ang. American Society of Heating, Refrigerating and Air-Conditioning Engineers). W ramach ASHRAE działa komitet techniczny ASHRAE – TC 9.9 (ang. Technical Commitee 9.9). W komitecie technicznym TC 9.9 funkcjonuje specjalistyczna grupa ds. obiektów o znaczeniu krytycznym, centrów przetwarzania danych, przestrzeni technologicznych i sprzętu elektronicznego IT. Grupa ta jest głównym źródłem informacji na temat najnowszych trendów w branży IT wykorzystywanych przy opracowywaniu wytycznych środowiskowych.


Według ASHRAE:

 

  • procesor urządzenia ICT może mieć temperaturę nawet 90°C,
  • zalecana temperatura na wlocie powietrza do urządzeń ICT powinna mieścić się w zakresie od 18°C do 27°C,
  • dopuszczalna temperatura na wlocie powietrza do urządzeń ICT powinna mieścić się w zakresie od 15°C do 32,2°C. Jeśli w pewnych obszarach naszego data center mamy stałe problemy z utrzymaniem właściwej temperatury nawiewanego powietrza na wlocie do serwerów, pomimo wystarczającej mocy chłodniczej pochodzącej z zainstalowanych klimatyzatorów, to bezwzględnie należy przyjrzeć się przepływom powietrza w gorących/zimnych korytarzach. W wielu przypadkach przyczyną znacznego obniżenia efektywności energetycznej data center jest złe zarządzanie przepływem powietrza.


Celem optymalnego zarządzania przepływem powietrza jest wymuszenie przepływu powietrza w ilości niezbędnej do usunięcia ciepła faktycznie generowanego przez sprzęt ICT. To oznacza, że żadne powietrze nie powinno powracać do układu chłodzenia bez pochłaniania ciepła i żadne powietrze nie powinno przepływać przez sprzęt ICT więcej niż jeden raz.


Wraz z ciągłym wzrostem gęstości mocy przypadającej na szafę rack konieczne staje się zapewnienie równomiernej dystrybucji chłodnego powietrza dla szafy rack oraz szaf w obrębie tego samego korytarza. Z pomocą przychodzą rozwiązania opierające się na wydzielaniu stref ciepłych i zimnych w ramach komory IT. Koncepcja gorących/zimnych korytarzy wyrównuje temperaturę oraz przepływ powietrza na wlocie do szaf.


> Przepływ powietrza w komorze IT


Problemy z przepływem powietrza w obszarze szaf rack dzielą się na dwie kategorie:

 

  • recyrkulacja powietrza – chłodne powietrze nawiewane do urządzenia ICT miesza się z ciepłym powietrzem wywiewanym przez sprzęt ICT zamontowany w tej samej szafie rack lub sąsiednich szafach (recyrkulacja to powietrze wchodzące do sprzętu ICT, które już raz przeszło przez sprzęt ICT);
  • bypass powietrza – chłodne powietrze, które nigdy nie dociera do serwerów i nie chłodzi sprzętu ICT.


Nadmierny bypass prowadzi do zmniejszenia ciśnienia statycznego pod podłogą, co najczęściej skutkuje: niewystarczającym przepływem powietrza do sprzętu ICT (może to być jedną z przyczyn recyrkulacji powietrza) oraz obniżeniem temperatury powietrza powracającego do urządzeń chłodzących (przekłada się to na spadek wydajności urządzeń chłodniczych i wzrost pobieranej energii elektrycznej).
W czasie recyrkulacji zimne powietrze miesza się z ciepłym powietrzem wydmuchiwanym przez inne urządzenia i podnosi temperaturę powietrza nawiewanego do sprzętu ICT. Sytuacja ta prowadzi bezpośrednio do podwyższenia temperatury na wlocie do sprzętu ICT (zimne powietrze jest podgrzewane). Nie podejmując żadnej akcji naprawczej, a chcąc obniżyć temperaturę na wlocie do sprzętu ICT, musimy zwiększyć ilości nadmuchiwanego zimnego powietrza (wzrost obrotów wentylatorów urządzeń chłodniczych). Działanie to jest niewłaściwe i skutkuje wzrostem mocy elektrycznej pobieranej przez wentylatory klimatyzatorów.

 

[...]

 

Autor jest ekspertem ds. utrzymania i rozwoju infrastruktury data center w największej skandynawskiej instytucji finansowej. Od 13 lat zajmuje się problematyką budowy, utrzymania i efektywnego zarządzania centrami przetwarzania danych. Posiada międzynarodowe certyfikaty branżowe: CDCS, CDFOM oraz DCPRO Cooling Professional.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik \"IT Professional\"