Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



23.11.2017

Z IEEE 802.3bz

Przełączniki Netgear
21.11.2017

4K z USB-C

EIZO FlexScan EV2785
16.11.2017

Wielofunkcyjne MFP

Canon imageRUNNER ADVANCE C256i, C356i oraz C356P
14.11.2017

Fabryka Przyszłości w drodze...

W dniach 25 i 26 października we Wrocławiu odbyła się czwarta edycja konferencji...
14.11.2017

Pamięć definiowana programowo

Red Hat Container-Native Storage 3.6
09.11.2017

Zgodnie z rodo

Snow Software GDPR Risk Assessment
07.11.2017

Bezpieczna stacja robocza

F-Secure Protection Service for Business (PSB)
03.11.2017

III Forum Bezpieczeństwa...

21 listopada 2017 r. w PSE w Konstancinie-Jeziornie odbędzie się III Forum Bezpieczeństwa...
27.10.2017

Zasilanie gwarantowane

Schneider Electric Galaxy VX

vSAN i VxRail – hiperkonwergencja w wydaniu VMware

Data publikacji: 03-04-2017 Autor: Marek Sokół

VMware, będący pionierem i liderem w dziedzinie wirtualizacji serwerów, przez długi czas wymuszał na klientach korzystanie z zewnętrznych platform przechowywania danych. Dziś firma nadrabia zaległości w tym obszarze. Dodatkowo, dzięki kompletnej platformie sprzętowej, klienci mają szanse ograniczyć liczbę dostawców i związanych z tym problemów przy jednoczesnym skróceniu czasu wdrażania i utrzymania środowiska.

Systemy komputerowe ulegają ciągłym zmianom. Pojawiają się nowe wersje, nowe pomysły nowe rozwiązania. Niektóre nowe rozwiązania to tak naprawdę stare pomysły – rozwiązania, które zostały wyparte przez lepsze, tańsze wersje. O fakcie, czy nowe rozwiązanie się przyjmie, decyduje wiele czynników, a im więcej zostanie wziętych pod uwagę, tym bardziej zróżnicowane wyniki są uzyskiwane. Nowe rozwiązanie nie zawsze musi być lepsze, wystarczy, że będzie dużo tańsze i w jakimś istotnym obszarze efektywniejsze od starego. Przykładowo przed wejściem wirtualizacji awaria jednego serwera była ograniczona tylko do tego urządzenia. Po wprowadzeniu wirtualizacji awaria fizycznej jednostki dotyka wszystkie maszyny wirtualne na niej uruchomione. Gdyby więc skupić się tylko na tym aspekcie podczas analizy nowej technologii, nigdy by się ona nie upowszechniła.

Patrząc jednak szerzej, okazuje się, że zasoby serwera nie są wykorzystane optymalnie, moc obliczeniowa marnuje się, a ilość pamięci operacyjnej także przewyższa bieżące potrzeby, gdyż jest dobrana pod kątem pracy przy najwyższych obciążeniach. Zaczyna się liczenie pieniędzy i okazuje się, że zakup dwóch lub trzech dużo potężniejszych serwerów jest bardziej opłacalny od posiadania kilkunastu maszyn, na których uruchomione są pojedyncze usługi. Takie podejście generuje jednak znowu ryzyko, że przy awarii jednego z nowych serwerów problemy obejmą większą liczbę usług. Jest to cena oszczędności i słabość nowej technologii. Lecz zyski nie ograniczają się tylko do pieniędzy, okazuje się bowiem, że jest szereg dodatkowych korzyści – można szybciej uruchamiać nowe usługi czy robić kopie całych serwerów wirtualnych w celu przetestowania nowych pomysłów. Zyski te zdecydowanie przewyższają powstałe ryzyko. Technologia się rozwija i nowe zagrożenia można minimalizować – przeniesienie plików maszyn wirtualnych do zewnętrznej pamięci masowej rozwiązuje opisane problemy. Taki rozwój technologii wymaga jednak specjalistów, a specjaliści tworzą zespoły. Zatem w dużej firmie mamy zespół administratorów wirtualizacji oraz zespół administratorów macierzy. Zespoły muszę ze sobą ściśle współpracować, a wszelkie aktualizacje muszę być starannie testowane. Problemów przybywa, rosną też koszty.

W wyniku istniejącej potrzeby pojawia się pomysł na rozwiązanie – powrót do koncepcji dysków w serwerach. Oczywiście nie chcemy, aby awaria jednego serwera powodowała utratę danych, dlatego nowe rozwiązanie musi być bardziej złożone, a kopie danych przechowywane przynajmniej na jednym dodatkowym serwerze. W takim modelu łatwiej jest rozbudować przestrzeń dyskową, można to zrobić mniejszymi partiami, prace trwają szybciej i wymagają zaangażowania mniejszej liczby specjalistów. Można część zasobów przenieść do chmury – na rynku obecne są bardzo szybko zdobywające popularność usługi chmury publicznej, wprawdzie nie wszystkie firmy chcą i mogę z nich korzystać, jednak wciąż potrzebują zwiększyć elastyczność i szybkość rozbudowy swojego centrum przetwarzania danych. Odpowiedzią na te potrzeby jest opisywana w niniejszym artykule hiperkonwergencja. VMware, wychodząc naprzeciw tym oczekiwaniom, od dłuższego czasu pracuje nad własnym rozwiązaniem opisanych problemów.

[...]

Autor jest administratorem systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"