Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



01.12.2022

Wyższy poziom programowania

Progress oferuje nowe narzędzia programistyczne: Progress Telerik, Progress Kendo UI i...
01.12.2022

Łączność w podróży

VMware SD-WAN VMware zaprezentował rozwiązanie SD-WAN nowej generacji, w tym nowego...
01.12.2022

Bezpieczne e-maile

Nowa aplikacja firmy Cypherdog Security Inc. umożliwia bezpieczną wymianę maili i...
01.12.2022

Pierwszy w branży

Schneider Electric wprowadza na rynek APC Smart-UPS Ultra. To pierwszy w branży...
01.12.2022

Przełączniki 10G dla MŚP

Nowe urządzenia to przełączniki 10G kompatybilne z systemem Omada SDN.
01.12.2022

Zarządzanie danymi

Firma Synology wprowadziła na rynek czterokieszeniowy DiskStation DS923+.
01.12.2022

Nowatorski system chłodzenia

OVHcloud zaprezentował nową, autorską technologię hybrydowego zanurzeniowego chłodzenia...
01.12.2022

Linia smart routerów

D-Link zaprezentował najnowszą rodzinę routerów Smart Wi-Fi z algorytmami sztucznej...
04.11.2022

Nowa platforma Red Hat

Nowa platforma Red Hat Enterprise Linux (RHEL) w wersjach 8.7 i 9.1 Beta obsługuje...

Test systemu Nutanix

Data publikacji: 02-09-2016 Autor: Marek Sokół
Rys. 1. W procesie...
Rys. 2. Pierwszy widok w...
Rys. 3. Spadek wydajności...
Rys. 4. Zestawienie...
Rys. 5. Podczas restartu...
Rys. 6. Widok konsoli po...

Po przybliżeniu prognoz rynkowych dotyczących rozwoju pamięci masowych oraz przedstawieniu rozwiązania największego producenta systemów hiperkonwergentnych – firmy Nutanix, przyszedł czas, aby przyjrzeć się temu rozwiązaniu w praktyce.

Po teoretycznym przygotowaniu pora na praktyczne testy systemu Nutanix. Pod lupę trafił model NX-3050, przedstawiciel serii o dużej gęstości, gdzie w obudowie 2U może znajdować się do czterech serwerów (testowany sprzęt składał się z trzech serwerów).

Serwery o wysokiej gęstości zajmują mniej miejsca w szafach rack, ale pociąga to za sobą konieczność ergonomicznego ułożenia w małej przestrzeni dużej liczby kabli krosowych. W konfiguracji czterech serwerów w bloku, przy pełnym okablowaniu, jednostka 2U posiadałaby następujące połączenia:

 

  • 2 połączenia zasilające,
  • 8 połączeń 10GbE,
  • 12 połączeń 1 GbE,
  • 4 połączenia VGA,
  • 4 połączenia USB (klawiatura, mysz).


Daje to trzydzieści kabli, które należy dobrze rozmieścić, w szczególności zadbać o to, by nie zakłócały przepływu ciepłego powietrza, które przez ten obszar jest wypychane z serwerów. Kolejną niestandardową trudnością przy późniejszym utrzymaniu takiej infrastruktury jest zapewnienie możliwości wyjęcia jednego z serwerów bez zakłócenia pracy pozostałych – serwery wysuwają się do tyłu. Przód obudowy jest w całości wypełniony dyskami twardymi. Prawdopodobnie taka konstrukcja wynika z tego, że częściej wymagana będzie wymiana pojedynczych dysków twardych niż serwerów w bloku.

Konfiguracja sprzętowa pojedynczego serwera wygląda następująco:

 

  • 2x Intel Xenon E5-2670,
  • 2x SSD 400 GB,
  • 4x HDD 1 TB 7200 RPM,
  • 128 GB RAM,
  • 2x 10 GbE SFP+,
  • 2x 1 GbE RJ45.

> Instalacja ręczna

Po skonfigurowaniu fizycznych połączeń można przejść do instalacji klastra. Dostępne są metody automatyczne oraz ręczna. Wszelkie metody automatyczne bardzo skracają czas i są oczekiwane przez konsumentów, jednak w sytuacji gdy automat zawodzi, dobrze jest umieć przeprowadzić proces ręcznie. Pierwszą serię kroków należy powtórzyć dla każdego serwera, aby ostatecznie utworzyć klaster łączący wszystkie serwery.

Kroki do wykonania na pojedynczym serwerze:

 

  1. Uruchamiamy serwer i wchodzimy do ustawień BIOS, gdzie konfigurujemy interfejs IPMI, pozwalający konfigurować serwer przez sieć;
  2. Łączymy się z serwerem za pomocą interfejsu IPMI i rozpoczynamy instalację wirtualizatora (w testowanym środowisku był to ESXi 5.5). Istotne jest nadanie określonego w dokumentacji hasła dla użytkownika root. Sam host ESXi należy zainstalować na dedykowanej pamięci flash – dyski twarde służą wyłącznie do przechowywania danych klastra. Dostępne w procesie instalacji inne dyski twarde będą przekazane w zarządzanie maszynie wirtualnej CVM. W ramach instalacji hosta należy jeszcze odpowiednio skonfigurować adresy IP do zarządzania serwerem ESXi;

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

prenumerata Numer niedostępny Spis treści

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik \"IT Professional\"