Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.


23.05.2019

Wzmocniony model

Panasonic Toughbook FZ-N1
23.05.2019

Szybsze sieci

D-Link Smart Mesh Wi-Fi AC1900/AC2600/AC3000
23.05.2019

Curved 4K

Samsung LU32R590
14.05.2019

Bezpłatna konferencja OSEC...

Jako patron medialny serdecznie zapraszamy na bezpłatną konferencję OSEC Forum 2019, któa...
23.04.2019

Optymalizacja zużycia chmury

HPE GreenLake Hybrid Cloud
23.04.2019

Zarządzanie wydajnością

VMware vRealize Operations 7.5
19.04.2019

Technologie open source

SUSECON 2019
19.04.2019

Wyjątkowo małe

OKI seria C800
19.04.2019

Łatwy montaż

Rittal AX i KX

NetApp HCI

Data publikacji: 22-03-2019 Autor: Marek Sokół
Rys. 1. Magiczny kwadrat...

Hiperkonwergencja, czyli upraszczanie infrastruktury poprzez eliminację pamięci masowych, to trend w środowisku centrów przetwarzania danych. Kolejny opisywany w czasopiśmie produkt różni się od dotychczas przedstawionych. Nowe podejście do architektury jest na tyle odmienne od standardowego modelu, że są wątpliwości, czy jest to hiperkonwergencja. Być może wpłynie to na zmianę definicji tego rozwiązania.

 

Aktualnie na rynku produktów dla centrów przetwarzania danych coraz częściej mówi się o hiperkonwergencji. Coraz trudniej jest spotkać osobę z branży, która nie wie, czym jest vSAN czy inne rozwiązania HCI. Analizy odnotowują znaczny wzrost tego rynku oraz przewidują dalsze wzmocnienie trendu. Wzrost ten został zauważony także przez firmę Gartner publikującą znane w środowisku tzw. magiczne kwadranty. W lutym 2018 roku opublikowała ona pierwszą analizę poświęconą wyłącznie rynkowi HCI. Kolejna taka analiza pojawiła się już w listopadzie tego samego roku (rys. 1). Gartner wskazuje NetAppa jako globalnego gracza, a jego produkt – NetApp HCI – ma rywalizować z dostawcami innych rozwiązań hiperkonwergentnych, lecz nie spełnia on funkcjonalnej definicji HCI stosowanej przez Gartnera, w wyniku czego produkt ten jest wykluczony z porównania. Bardzo prawdopodobne, że wynika to z różnicy w architekturze – w rozwiązaniu tym węzły z hiperwizorem nie mają lokalnych dysków, z których tworzony jest współdzielony zasób.

NetApp w ramach powiększania portfolio swoich produktów, dążąc do jak najlepszego spełnienia potrzeb swoich klientów, na początku 2016 roku zakupił firmę SolidFire specjalizującą się w rozproszonych, skalowalnych systemach pamięci masowych typu All-Flash. To na bazie funkcji nowego produktu powstał NetApp HCI – ogłoszony w październiku 2017 roku. Oficjalną nazwą komponentu dostarczającego pamięć masową został „NetApp SolidFire Element OS”; w miesiącu premiery wydano wersję oznaczoną numerem 10 tego systemu. W następnych miesiącach powstawały kolejne mniejsze aktualizacje, a w listopadzie 2018 roku została wydana wersja systemu z numerem 11.

> ARCHITEKTURA

Rozwiązania HCI są alternatywą dla firm pozostających we własnym centrum przetwarzania danych, pragnących jednak zachować elastyczność i szybkość rozbudowy, jaką daje infrastruktura chmury publicznej. Oczywiście chmura publiczna to znacznie więcej niż tylko maszyny wirtualne, składa się na nią zestaw dodatkowych warstw abstrakcji i automatyzacji. Wiele firm korzysta z lokalnych serwerowni oraz usług chmurowych. NetApp, widząc te trendy, może oferować swoim klientom dodatkowe produkty do integracji z chmurą publiczną, a także usprawniania lokalnej infrastruktury.

Oferowane rozwiązanie HCI jest przedstawiane jako solidna i elastyczna podstawa, na której można zbudować kolejne warstwy usług, zabezpieczeń i automatyzacji. Podstawą fizyczną w minimalnej konfiguracji są dwie obudowy wielkości 2RU każda z zainstalowanymi trzema serwerami. Dwa z nich dostarczają pamięć masową do klastra, a trzeci to hiperwizor (rys. 2), zatem otrzymujemy klaster VMware z dwoma serwerami ESXi oraz czterema serwerami zapewniającymi przestrzeń dyskową. W przypadku potrzeby rozbudowy przestrzeni dyskowej dokupujemy węzeł storage, gdy natomiast brakuje CPU czy RAM-u dla maszyn wirtualnych, dodajemy węzeł obliczeniowy.

Po zapoznaniu się z podstawowymi założeniami tego rozwiązania mogą się pojawić dodatkowe pytania czy zarzuty wynikające z tego, że standardowy model hiperkonwergencji opiera się na uniwersalnych węzłach, z których każdy dostarcza CPU, RAM oraz zasoby dyskowe dla maszyn wirtualnych. Uniwersalność ta jest jednocześnie tzw. podatkiem HCI, gdyż serwery ESXi licencjonujemy na procesory, a część ich mocy oddajemy do obsługi pamięci masowej dla maszyn wirtualnych, zatem zmniejsza się moc dostępna dla maszyn wirtualnych. W sytuacji gdy nie możemy do istniejących serwerów dodać kolejnych dysków (lub zamienić ich na większe), a potrzebujemy dodatkowej przestrzeni (lub wydajności) dyskowej, musimy zakupić dodatkowy serwer i licencję firmy VMware oraz na nasze rozwiązanie HCI – jest to kolejny przejaw wspomnianego podatku. Podatek ten się jeszcze zwiększy, jeżeli systemy operacyjne w maszynach wirtualnych będą wymagać zalicencjonowania nowego hosta ESXi. NetApp z powodu tych ograniczeń określa pozostałe rozwiązania HCI mianem hiperkonwergencji pierwszej generacji, a swoją propozycję – HCI następnej generacji.

Bardzo trudno się oprzeć wrażeniu powrotu do klasycznej architektury serwerów i macierzy, poprawionej jednak w następujących aspektach: węzły storage są elastyczniejsze w rozbudowie i utrzymaniu; oba rodzaje węzłów instaluje się w takich samych obudowach; węzły storage ściśle się integrują ze środowiskiem VMware. Wymienione różnice rozwiązują problemy braku elastyczności klasycznych systemów macierzowych oraz problemy wprowadzane przez systemy HCI.

 

[...]
 

Autor jest administratorem systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA.  

Artykuł pochodzi z miesięcznika: IT Professional

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"