Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.


11.12.2017

Dla biznesu

BenQ MH760
07.12.2017

Pamięć masowa SDS

SUSE Enterprise Storage 5
05.12.2017

Bezpieczna platforma

Red Hat OpenStack Platform 12
30.11.2017

ITewolucja w bezpieczeństwie....

9 listopada w katowickim hotelu Novotel odbyła się kolejna odsłona konferencji z cyklu...
28.11.2017

Smukle i elegancko

HP Spectre 13 i x360
23.11.2017

Z IEEE 802.3bz

Przełączniki Netgear
21.11.2017

4K z USB-C

EIZO FlexScan EV2785
16.11.2017

Wielofunkcyjne MFP

Canon imageRUNNER ADVANCE C256i, C356i oraz C356P
14.11.2017

Fabryka Przyszłości w drodze...

W dniach 25 i 26 października we Wrocławiu odbyła się czwarta edycja konferencji...

Platforma Cisco HyperFlex

Data publikacji: 30-11-2017 Autor: Marek Sokół
RYS. 1. WIZJA ROZWOJU...

Firma Cisco od lat kojarzona z produktami sieciowymi, w roku 2009 wkroczyła zdecydowanie na rynek serwerów. Od tego czasu rynkowe trendy się zmieniają, pojawiają się systemy bardziej zwinne, typu software defined storage. Nie dziwi zatem, że również w ofercie Cisco znalazło się rozwiązanie hiperkonwergentne, któremu przyjrzymy się w niniejszym artykule.

Świat technologii się zmienia, udoskonala, optymalizuje oraz konsoliduje. W każdym kwartale pojawiają się ulepszenia istniejących technologii lub całkowicie nowe rozwiązania. Start-upy rosną jak grzyby po deszczu, łatwość zdobywania finansowania poprzez np. crowdfunding zmniejsza próg wejścia dla nowych idei i pomysłów. Rosnąca popularność chmur obliczeniowych, gdzie płaci się tylko za zasoby, których się potrzebuje i używa, to kolejne ułatwienie dla nowych firm i pomysłów.

Co zatem z dużymi organizacjami, posiadającymi ogromne centra przetwarzania danych, potężne silosy technologiczne, które z różnych powodów nie chcą przenosić swojej infrastruktury do chmury? Czy są skazane na powolne wymieranie, nie będąc w stanie dotrzymać kroku nowym, małym zwinnym konkurentom, którzy szybciej i skuteczniej wypełniają nisze rynkowe? Odpowiedzią na to pytanie jest uniwersalne i zawsze prawdziwe: to zależy. W artykule skupiamy się na technologii, która może pozwolić firmom szybciej dostarczać infrastrukturę pod nowe potrzeby, nie migrując do chmury. Aby to osiągnąć, muszą rozważyć uproszczenie wdrażania i skalowania infrastruktury serwerowej. Przykładem takiego uproszczenia jest architektura hiperkonwergentna, która w ramach jednego bloku oferuje wszystkie potrzebne elementy: procesor, RAM i najważniejszy komponent – przestrzeń dyskową. To właśnie przestrzeń dyskowa zawarta w każdym bloku stanowi istotę hiperkonwergencji.

> Wizja

Proces projektowania własnej realizacji hiperkonwergencji przez Cisco uwzględnia realizację następujących celów:

 

  • szybkość i prostota, jednolita platforma zarządzania w ramach wszystkich centrów przetwarzania danych, będących w utrzymaniu;
  • ekonomia podobna do usług chmury publicznej, rozbudowa środowiska adekwatna do wymagań, czego efektem jest skalowanie kosztów proporcjonalnie do potrzeb (cloud as experience, cloud as economics).

 

Spełnienie tych postulatów wymaga nowego podejścia, które dostarcza kompleksowego rozwiązania, niezależnego od innych usług czy technologii. Integracja sieci obejmuje ostatni obszar będący pod kontrolą innych dostawców, wymagający osobnego zarządzania, monitorowania i rozwoju. Kolejnym wyzwaniem jest stworzenie wydajnego, niezawodnego systemu plików udostępnianego w ramach klastra, którego niezależne fragmenty znajdują się w poszczególnych węzłach. Ostatnim krokiem jest stworzenie rozwiązania będącego w stanie przejąć obciążenia obecnej infrastruktury często dedykowanej konkretnym zadaniom, a w szczególności gotowego na obsługę nowych aplikacji, które będą się pojawiać w kolejnych latach.

> Platforma sprzętowa

Podstawą klastra Cisco HX jest architektura UCS, bazująca na dwóch przełącznikach Fabric Interconnect (FI), do których podłączone są serwery typu rack wielkości 1 lub 2 RU. Przykładowe połączenie klastra przedstawiono na rys. 2. Każdy serwer podłączony jest dwoma konwergentnymi łączami 10 GbE lub 40 GbE (w zależności od wybranej opcji) do obu FI, a FI połączone są ze sobą w celu uzyskania wspólnej warstwy zarządzania (dane pomiędzy serwerami nie są transmitowane). W prawidłowo skonfigurowanym środowisku cały ruch klastra zamyka się w obębie jednego FI, jednak w sytuacji specyficznej awarii ruch może wychodzić do przełączników LAN w celu przekazania go do drugiego FI. Autorska architektura Cisco UCS pozwala definiować w serwerach karty sieciowe oraz światłowodowe, w wyniku czego w jednym fizycznym połączeniu może być realizowany ruch LAN oraz SAN. W sytuacji gdy dysponujemy odrębną siecią SAN, każdy FI należy niezależnie z nią połączyć. Dzięki integracji automatycznie nakładane są odpowiednie polityki QoS oraz konfiguracja separacji ruchu za pomocą wirtualnych interfejsów oraz VLAN-ów, zapewniając odpowiedni priorytet dla danej klasy ruchu, a serwery uzyskują dodatkowe logiczne połączenie bez potrzeby fizycznego wpinania w nie dodatkowych komponentów. Warto wspomnieć, że dla zachowania takich samych parametrów wydajnościowych nie jest wspierana rozbudowa urządzeń Fabric Interconnect za pomocą Fabric Extenderów.

Fizyczne połączenia nie różnią się od tych stosowanych w ramach architektury UCS. Występują natomiast różnice w obsadzeniu pojedynczych serwerów dodatkowymi dyskami, a ponadto oprogramowanie uruchomione na serwerach ma wyłączność w zarządzaniu wspomnianymi dyskami.

Serwer w ramach klastra HyperFlex dostarczany jest wg wymagań klientów, zatem ilość pamięci RAM i procesory mogą się różnić. Przy projektowaniu klastra należy podjąć decyzję o konfiguracji all flash lub hybrydowej oraz wymaganej pojemności pojedynczego węzła. Wsparcie w takiej decyzji dostarczają oczywiście odpowiednie narzędzia Cisco, gdyż samodzielny wybór mógłby nie być optymalny. Biorąc pod uwagę wielkość serwerów, mamy następujące możliwości:•serwer 1 RU – model HX220c dla wersji hybrydowej oraz HXAF220c dla all flash. W serwerach tych można zainstalować do sześciu dysków przeznaczonych na dane o wielkości 1,2 TB w konfiguracji hybrydowej oraz 960 GB lub 3,8 TB w konfiguracji all flash;•serwer 2 RU – model HX240c dla wersji hybrydowej oraz HXAF240c dla all flash. W serwerach tych można zainstalować do dwudziestu trzech dysków przeznaczonych na dane o wielkości 1,2 TB w konfiguracji hybrydowej oraz do dziesięciu 960 GB lub 3,8 TB w konfiguracji all flash. Instalowanie maksymalnie dziesięciu dysków w konfiguracji all flash nie wynika z ograniczeń sprzętowych, lecz z potrzeby zapewnienia maksymalnej wydajności. W sytuacji potrzeby wsparcia dla obliczeń wykonywanych na GPU w serwerach tej serii jest możliwa instalacja odpowiednich kart rozszerzeń.

[...]

Autor jest administratorem systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA. 

Artykuł pochodzi z miesięcznika: IT Professional

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"