Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.


19.10.2018

4K, HDR i USB-C

Philips 328P6VUBREB
16.10.2018

Pełna optymalizacja

Quest Foglight for Virtualization Enterprise 8.8 (FVE)
12.10.2018

Linux w chmurze Azure

SUSE Linux Enterprise 15 / Microsoft Azure
09.10.2018

Nowe antywirusy

Bitdefender 2019
03.10.2018

Niezawodny tandem

Veeam Hyper-Availability Platform i Cisco HyperFlex
26.09.2018

Zarządzane z chmury

NETGEAR GC752X(P)
21.09.2018

Kolor razy 6

Kyocera ECOSYS i TASKalfa
18.09.2018

Na ataki piątej generacji

Check Point 23900
14.09.2018

UHD dla pro

Samsung UJ59

Platforma Cisco HyperFlex

Data publikacji: 10-01-2018 Autor: Marek Sokół
Rys. 1. Interfejs dedykowanej...

W poprzednim artykule opisaliśmy historię powstania, dostępne konfiguracje sprzętowe oraz możliwości platformy HyperFlex. Teraz sprawdzimy, jak rozwiązanie działa w praktyce, zaczynając od procesu instalacji, poprzez opis interfejsów zarządzających, na testach odporności na awarie komponentów kończąc.

Zapoznawszy się z ideą hiperkonwergencji oraz jej implementacją w postaci produktu Cisco HyperFlex, przyjrzymy się, jak rozwiązanie to sprawuje się w praktyce.

 

Wszystkie testy wykonywaliśmy na platformie hybrydowej, a część mieliśmy okazję powtórzyć na klastrze all flash. Platforma sprzętowa zbudowana była z czterech serwerów Cisco HX240c M4SX, dwóch przełączników Fabric Interconnect z portami 10 GbE, podłączonych do przełączników sieciowych portami 1 GbE (topologia zgodna z rys. 2 z poprzedniego artykułu).

Pojedyncze serwery składały się z:

 

  • dwóch procesorów Intel E5-2690 (14 rdzeni obliczeniowych);
  • 512 GB RAM;
  • dysku SSD 480 GB;
  • sześciu dysków HDD 1,2 TB;
  • dwóch połączeń 10 GbE prowadzących do dwóch urządzeń Fabric Interconnect.


Dostępny system all flash składał się z węzłów o następujących parametrach:

 

  • dwa procesory Intel E5-2698, po 20 rdzeni obliczeniowych każdy;
  • 256 GB RAM;
  • dysk SSD 800GB na potrzeby przyśpieszania operacji zapisów;
  • sześć dysków SSD 960 GB dla warstwy magazynowania danych;
  • dwa połączenia 40 GbE prowadzące do dwa Fabric Interconnect.

 

Testowany system Hyperflex był w wersji 2.5. Warto odnotować małą liczbę kabli wymaganych dla pojedynczego węzła w klastrze – niezbędne są tylko dwa podłączenia zasilania i dwa połączenia sieciowe oraz, ewentualnie, dodatkowe podłączenia dla KVM (monitor oraz USB dla klawiatury i myszy).

> Instalacja klastra

Mając przygotowane fizyczne połączenia pomiędzy komponentami klastra, możemy przystąpić do jego uruchomienia. Przypominając założenia z poprzedniego artykułu, następujące komponenty powinny być uruchomione niezależnie od klastra:

 

  • vCenter;
  • DHCP;
  • NTP;
  • DNS;
  • Active Directory.


Dodatkowo potrzebujemy jeszcze jednego komponentu, jakim jest Hyperflex Installer – jest to dedykowana maszyna wirtualna z zainstalowanymi wszelkimi elementami niezbędnymi do uruchomienia systemu, udostępniająca interfejs WWW z intuicyjnym kreatorem. Po uruchomieniu maszyny i zalogowaniu się do interfejsu mamy dostępne trzy opcje: utworzenie klastra zwykłego lub klastra Edge, a  także rozszerzenie istniejącego klastra.

Nawet w przypadku nowej instalacji możemy skorzystać z pliku odpowiedzi utworzonego podczas innych instalacji, co pozwoli zmniejszyć ilość wprowadzanych danych. Podczas instalacji zrekonfigurowane zostaną: USC Manager zarządzający Fabric Interconnectami i szablonami serwerów UCS, vCenter oraz hosty ESXi (zainstalowane jeszcze w fabryce zgodnie z zamówieniem klienta), dlatego w pierwszym kroku należy wprowadzić dane dostępowe do wspomnianych narzędzi. Następnie weryfikujemy listę automatycznie wykrytych serwerów w środowisku, definiujemy parametry serwerów, którymi zarządza UCS Manager, nazwy i numery VLAN-ów, zakres adresów MAC, a także adres interfejsu CIMC służącego do zarządzania pojedynczymi serwerami oraz ustanawiania połączenia poprzez wbudowany KVM.

Także tu mamy możliwość zdefiniowania dostępów do macierzy dyskowych pozwalających na dostęp do danych poprzez protokoły iSCSI i FC. W kolejnym kroku definiujemy parametry dla hostów ESXi, które wejdą w skład klastra. Kluczowe na tym etapie jest, by  nazwy, z których korzystamy, już były wprowadzone do konfiguracji serwerów DNS. W następnym kroku definiujemy adresy IP dla najważniejszych elementów klastra hiperkonwergentnego – kontrolerów wirtualnych. W ostatnim kroku decydujemy o wartości parametru Replication Factor (domyślnie przyjmuje wartość 3), podajemy adresy serwerów NTP, DNS, strefę czasową oraz decydujemy, czy włączyć funkcję Auto Support. Po zakończeniu tego etapu rozpoczyna się automatyczny wieloetapowy proces instalacji klastra HyperFlex.

[...]

Autor jest administratorem systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA

Artykuł pochodzi z miesięcznika: IT Professional

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"