Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



10.06.2019

Inteligentne zarządzanie...

W dniach 11, 12 i 13 czerwca – odpowiednio – w Gdańsku, w Warszawie i w Katowicach,...
27.05.2019

Rozwiązania na platformie GCP

Citrix SD-WAN i Citrix ADC
27.05.2019

Chmura hybrydowa

Dell Technologies Cloud
27.05.2019

Uproszczona komunikacja

Cisco Webex
24.05.2019

Konferencja IT Manager of...

W dniach 12–14 czerwca w Sopocie odbędzie się konferencja IT Manager of Tomorrow 2019. To...
24.05.2019

Ochrona sieci

Fortinet FortiOS 6.2
24.05.2019

Mniejsza złożoność

Rittal VX25 Ri4Power
24.05.2019

All-in-one NAS

QNAP TDS-16489U R2
24.05.2019

Układy SoC

AMD Ryzen Embedded R1000

Maxta – zarządzanie pamięcią masową

Data publikacji: 28-12-2018 Autor: Marek Sokół
Rys. 1. Jeden z ważniejszych...

Produkty oferowane w ramach infrastruktury hiperkonwergentnej (HCI) powinny być zbliżone do siebie, spełniać te same założenia i oferować podobne podstawowe funkcje. Zdarza się jednak, że pewne mechanizmy nie są dostępne we wszystkich konkurencyjnych rozwiązaniach, a specyficzne obciążenia są obsługiwane w skrajnie różny sposób. Dlatego przed wdrożeniem zawsze należy przeprowadzić testy oddające charakter występujących w środowisku obciążeń – pozwoli to zdecydować, na ile dane rozwiązanie spełnia potrzeby organizacji.

 

W  poprzedniej części artykułu („IT Professional” 12/2018, s. 69) opisana została architektura sprzętowa i programowa oraz możliwości rozwiązania hiperkonwergentnego Maxta. W niniejszym artykule przyjrzymy się, jak to rozwiązanie działa w praktyce – opiszemy użytą platformę testową oraz przedstawimy interfejs zarządzania rozwiązaniem, procedury wymiany komponentów i wyniki zachowania się platformy pod przykładowymi obciążeniami.

> PLATFORMA SPRZĘTOWA ORAZ INSTALACJA

Do testów wykorzystaliśmy trzywęzłowy klaster VMware bazujący na trzech serwerach SuperMicro SYS-1028, z których każdy wyposażonych był w:
 

  • 2 procesory Intel Xenon E5-2695 (2 x 16 rdzeni),
  • 256 GB pamięci RAM,
  • kartę sieciową 10 GbE (na potrzeby ruchu storage),
  • kartę sieciową 1 GbE (dla pozostałego ruchu),
  • 6 dysków HDD 900 GB (przestrzeń przechowywania danych),
  • 2 dyski SSD NVMe 800 GB.


W środowisku poza klastrem używane są również serwer DNS, NTP, vCenter. Środowisko vSphere jest w wersji 6.5. W celu uruchomienia procesu instalacji klastra Maxta potrzebujemy maszyny z Windows, na której uruchomiony zostanie instalator. Maszyna musi mieć dostęp do serwera vCenter oraz serwerów ESXi. Sam kreator nie ma możliwości importu lub eksportu wprowadzonych danych, zatem ponawiając instalację, wszystkie dane trzeba wpisywać ponownie.

W pierwszym kroku akceptujemy postanowienia licencyjne, zapoznajemy się ze skróconymi wymaganiami dotyczącymi instalacji klastra, następnie podajemy dane dostępowe użytkownika administracyjnego vCenter. Instalator wymaga podania nazwy centrum danych (Datacenter) oraz klastra, w którym rozwiązanie ma być zainstalowane. W przypadku małych środowisk wybór polega jedynie na zatwierdzeniu pojedynczych elementów widocznych na liście. Kolejny krok, przedstawiony na rys. 1, wymaga wprowadzenia większej ilości danych, których w większości nie będzie można zmienić po uruchomieniu klastra. Dalsze etapy wymagają wskazania lokalnych dysków w serwerach ESXi, które będą wykorzystane do budowy współdzielonego zasobu dyskowego. W przypadku wyboru wersji all-flash należy wskazać, które dyski SSD będą pracować w warstwie buforującej, a które w warstwie przechowywania danych.

Kolejne kroki konfiguracji wymagają podania interfejsów/vSwitchy dla sieci zarządzającej oraz izolowanej (storage), używanej do przesyłania ruchu pomiędzy kontrolerami Maxta oraz do udostępniania rozproszonego zasobu dyskowego dla hostów ESXi. Następnie wpisujemy dane dostępowe do hostów ESXi. Po ich walidacji oraz wyświetleniu podsumowania może zostać uruchomiony proces instalacji, podczas którego zostaną zainstalowane na każdym ESXi kontrolery wirtualne będące podstawą MxSP. Maksymalnie po kilkunastu minutach system oraz rozproszona, wysoko dostępna przestrzeń dyskowa powinny być gotowe do pracy. Z poziomu vCenter widoczne będą dodatkowe maszyny wirtualne zainstalowane na lokalnych dyskach ESXi, które mają podłączone w trybie RDM dyski wskazane w czasie instalacji. Widoczny powinien być także datastore, podmontowany do każdego hosta za pośrednictwem protokołu NFS.

Mając zainstalowane rozwiązanie, można zalogować się i używać interfejsu graficznego pozwalającego na zarządzanie MxSP. Wykorzystujemy do tego przeglądarkę internetową oraz adres IP zdefiniowany w procesie instalacji jako Management Server IP. Logujemy się, używając danych użytkownika administracyjnego z vCenter – nie ma potrzeby, ani możliwości, zakładania niezależnych kont użytkowników dedykowanych tylko do tego interfejsu. Widok głównego panelu pokazano na rys. 2.

> PRACA Z INTERFEJSEM ORAZ DANYMI

Jakie możliwości oferuje udostępniany interfejs? W górnej części okna widoczny jest pasek nawigacyjny prezentujący nazwę klastra oraz takie szczegóły jak adres vCenter oraz wersja MxSP. Wyświetlana jest też lista alarmów – po kliknięciu wybranego przeniesieni zostaniemy na stronę ze szczegółowym opisem problemu w środowisku. Na końcu wyświetlana jest nazwa użytkownika vCenter, którego dane zostały użyte do zalogowania. Dostępny poniżej pasek menu oferuje następujące opcje:

 

  • Dashboard – ekran główny pokazany na rys. 2;
  • Monitoring – w ramach tej sekcji mamy dostęp do statystyk i wykresów dotyczących danych w klastrze, samego hosta oraz poszczególnych dysków. Kolejne dostępne informacje to: alarmy, zlecone zadania, zdarzenia oraz informacje o resynchronizacjach maszyn wirtualnych (proces resynchronizacji polega na dopasowywaniu rozmieszczenia danych w klastrze lub przywracaniu wymaganej nadmiarowości danych maszyny wirtualnej w przypadku ich utraty np. na skutek awarii jakiegoś komponentu);
  • Configuration – oferuje dostęp do opcji tworzenia, zarządzania i modyfikowania maszyn wirtualnych oraz definiowania polityk migawek i funkcji ręcznego wykonywania migawek;
  • Administration – daje dostęp do parametrów klastra, licencji i logów zbieranych w środowisku i w razie potrzeby możliwych do przekazania do działu wsparcia IT.

[...]

 

Autor jest administratorem systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA.  

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"