Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.


17.09.2019

PLNOG23 czyli sieci 5G,...

Największa polska konferencja telekomunikacyjna powraca do Krakowa! Wśród nowości ścieżka...
05.09.2019

Cloudya – nowa usługa NFON

Po ponad dekadzie ciągłego rozwoju technologii Cloudya, swobodna i niczym nie ograniczona...
02.09.2019

Na dużą skalę

Kaspersky Hybrid Cloud Security
02.09.2019

Bezpieczny brzeg sieci

Fortinet Secure SD-Branch
02.09.2019

Nowoczesne centra danych

AMD EPYC
30.08.2019

Dostęp do AI i ML

VMware Cloud Foundation
30.08.2019

Lekkość i moc

Toshiba Portégé A30-E
30.08.2019

Bez przestojów

APC Easy UPS On-Line
29.08.2019

Duże moce

Lenovo ThinkSystem SR635 i SR655

Monitorowanie i wydajność środowiska hiperkonwergentnego

Data publikacji: 29-08-2019 Autor: Mikołaj Kujawa
Rys. 1. Wynik działania...

W poprzednim artykule na temat S2D – Storage Spaces Direct – dowiedzieliśmy się, jak działa hiperkonwergentne rozwiązanie oferowane przez Microsoft („IT Professional” 4/2019, s. 59). Po skonfigurowaniu środowiska sprawdzamy jego wydajność oraz przygotowujemy się do jego monitorowania.

 

W sieci można znaleźć wiele opracowań na temat wydajności Storage Spaces Direct. Dużo z nich pokazuje konfiguracje, w których użyto bardzo szybkich dysków NVME lub ich połączenia z dyskami SSD. Jeśli chcielibyśmy zbudować tego typu rozwiązanie i zamknąć się w mniejszym budżecie, możemy zaprojektować je z użyciem pamięci SSD jako cache oraz dysków SATA/SAS jako storage. Jakiej wydajności możemy się wtedy spodziewać?

> WYNIKI WYDAJNOŚciOWE VMFLEET

Na początku warto doprecyzować, co tak naprawdę kryje się pod hasłem wydajność. Oczywiście każdy intuicyjnie rozumie, że coś działa szybko lub wolno, jednak nas interesują konkretne wartości liczbowe. Są one szczególnie ważne w przypadku porównywania różnych systemów.

Podczas badania wydajności systemów dyskowych porównywane są opóźnienia (Latency), a także średnia przepustowość mierzona w bajtach na sekundę i/lub liczbie operacji na sekundę (IOPS). Oczywiście można używać wielu innych różnych wartości liczbowych, jednak te dwie są najważniejsze. Jeżeli porównamy system storage do kolejki do kontroli bezpieczeństwa na lotnisku, wspomniane parametry będą odpowiadać średniemu czasowi obsługi jednego pasażera i liczbie pasażerów obsłużonych np. w ciągu godziny. Tak naprawdę nie interesuje nas, ile osób jest przed nami ani ile skanerów bezpieczeństwa działa – ważne jest tylko, jak szybko zostaniemy obsłużeni.

Badanie wydajności w przypadku systemu S2D przyjęto wykonywać z wykorzystaniem VMFleet – zestawu skryptów, które umożliwiają testy i w pewnym zakresie monitoring środowiska S2D. Jak prowadzone są testy? W skrócie: na każdym serwerze fizycznym uruchamiane są maszyny wirtualne, na których uruchamiany jest DISKSPD.exe. Program przy zadanych parametrach testuje operacje odczytu i zapisu informacji na dyskach (z poziomu maszyn wirtualnych), a dane wynikowe z wszystkich maszyn są agregowane i w efekcie określana jest wydajność całego podsystemu dyskowego. Ponieważ maszyny wirtualne umieszczone są na dyskach S2D, ich łączna wydajność pozwala wiarygodnie ocenić badany system.

> WYDAJNOŚĆ TESTOWANEGO SYSTEMU

Przyjrzyjmy się wydajności klastra zbudowanego z dziewięciu serwerów rackowych, z których każdy posiada dwa dyski SSD Intel 800G SATA, działające jako cache, oraz cztery dyski 3,5” 4 TB SATA 7.2K jako storage. Dyski Clustered Shared Volume (CSV) wystawione przez S2D zostały skonfigurowane jako three-way mirror.

Start-sweep.ps1 to składowa zestawu skryptów dostarczanych przez pakiet VMFleet, która w tle uruchamia program DISKSPD.EXE (opis, jak zainstalować i skonfigurować VMFleet, znajduje się w dalszej części artykułu). Składnia Start-sweep.ps1 jest następująca:

b: list of buffer sizes (KiB)
t: list of thread counts
o: list of outstanding IO counts
w: list of write ratios
p: list of patterns (random: r, sequential: s, sequential interlocked: si)
warm: duration of pre-measurement warmup (seconds)
d: duration of measured interval (seconds)
cool: duration of post-measurement cooldown (seconds).

Poniższe przykładowe polecenie uruchamia DISKSPD.EXE, który operuje w jednym wątku na buforze o wielkości 16 KiB. Pozostałe parametry to: głębokość kolejki 8 (outstanding IO), operacje zapisu 35%, operacje odczytu 65%, czas trwania testu 60 sekund:

 

Wyniki dla opisanego wcześniej środowiska testowego pokazano na rys. 1. Jak widać, w takim przypadku jesteśmy w stanie uzyskać ok. 170 000 IOPS przy transferze ok. 2,8 GB/s. Taki wynik otrzymano, określając podział 35% zapis, 65% odczyt. Dla samych operacji odczytu wydajność wzrośnie do ok. 230 000 IOPS.

Naturalne jest, że odczyt będzie szybszy niż zapis, ponieważ przy konfiguracji typu Three-Way Mirror dla dysków widocznych w środowisku S2D zapisywane są dane oraz ich dwie kopie. Ważny jest też rozmiar bloku użyty do testu – przy domyślnej konfiguracji dyski CSV (Clustered Shared Volume) formatowane są z użyciem RFS (Resilient File System) o rozmiarze bloku 4 KB. Aby warunki testów były jak najbardziej zbliżone do warunków produkcji, należy posługiwać się wartością używaną przez stosowane aplikacje i system.

 

> JAK URUCHOMIĆ VMFLEET

Z podanej lokalizacji na GitHubie pobieramy VMFleet (git­hub.com/microsoft/diskspd), rozpakowujemy plik na jednym z serwerów S2D (np. bezpośrednio na dysku C) i tworzymy tyle nowych wolumenów, ile mamy węzłów w klastrze:
 

 

Dodatkowo tworzymy jeszcze jeden wolumen w celu zbierania wyników:

 

 

Następnie pobieramy program DISKPSD.EXE ze stron Microsoftu (tinyurl.com/DiskSpd-Storage) i kopiujemy go do c:ClusterStoragecollectcontroltools. Równolegle instalujemy czysty system operacyjny (np. Windows Server 2016 Core) jako wzorzec i nadajemy hasło lokalnego administratora. Wyłączamy maszynę i kopiujemy ją do ścieżki C:ClusterStorageCollectBaseIMage.vhdx. Korzystając z dysku wzorcowego, tworzymy kolejne wirtualne maszyny. Jest to proces czasochłonny, więc dobrze jest zacząć od stworzenia po jednej maszynie na każdym węźle klastra.

 

 

Gdzie:

adminpass – to hasło zdefiniowane na instalowanej wcześniej maszynie wzorcowej,

connectuser.user –connectpass – to lokalny użytkownik i hasło dla konta na węzłach klastra S2D.

 

[...]

 

Pasjonat rozwiązań wirtualizacyjnych oraz tematyki wydajnościowej. Posiada certyfikacje firm Citrix i Microsoft. Prelegent na konferencjach poświęconych technologii Citrix i wirtualizacji. Przygodę z rozwiązaniem Storage Spaces rozpoczął w 2015 roku. Obecnie produkcyjnie zarządza rozwiązaniem Storage Spaces Direct.

Artykuł pochodzi z miesięcznika: IT Professional

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"