Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



21.04.2017

Nowe pamięci

Samsung Z-SSD
18.04.2017

Dozorowanie w 4K

Panasonic True 4K
14.04.2017

Kompleksowe zarządzanie

Quest Active Administrator 8.1
11.04.2017

EMM dla Androida i IoT

Sophos Mobile 7
07.04.2017

Kontrola dostępu i...

VMware Workspace ONE, VMware AirWatch 9.1
05.04.2017

HPE Reimagine IT 2017

27 kwietnia 2017 r. w Warszawie odbędzie się HPE Reimagine IT 2017, nowa odsłona Wyzwań...
04.04.2017

Nadzór nad ID

NetIQ Identity Governance 2.5
31.03.2017

Technologia SuperMLC

Transcend JetFlash 740
28.03.2017

Flash na błysk

NetApp AFF A700s

vSAN i VxRail – hiperkonwergencja w wydaniu VMware

Data publikacji: 03-04-2017 Autor: Marek Sokół

VMware, będący pionierem i liderem w dziedzinie wirtualizacji serwerów, przez długi czas wymuszał na klientach korzystanie z zewnętrznych platform przechowywania danych. Dziś firma nadrabia zaległości w tym obszarze. Dodatkowo, dzięki kompletnej platformie sprzętowej, klienci mają szanse ograniczyć liczbę dostawców i związanych z tym problemów przy jednoczesnym skróceniu czasu wdrażania i utrzymania środowiska.

Systemy komputerowe ulegają ciągłym zmianom. Pojawiają się nowe wersje, nowe pomysły nowe rozwiązania. Niektóre nowe rozwiązania to tak naprawdę stare pomysły – rozwiązania, które zostały wyparte przez lepsze, tańsze wersje. O fakcie, czy nowe rozwiązanie się przyjmie, decyduje wiele czynników, a im więcej zostanie wziętych pod uwagę, tym bardziej zróżnicowane wyniki są uzyskiwane. Nowe rozwiązanie nie zawsze musi być lepsze, wystarczy, że będzie dużo tańsze i w jakimś istotnym obszarze efektywniejsze od starego. Przykładowo przed wejściem wirtualizacji awaria jednego serwera była ograniczona tylko do tego urządzenia. Po wprowadzeniu wirtualizacji awaria fizycznej jednostki dotyka wszystkie maszyny wirtualne na niej uruchomione. Gdyby więc skupić się tylko na tym aspekcie podczas analizy nowej technologii, nigdy by się ona nie upowszechniła.

Patrząc jednak szerzej, okazuje się, że zasoby serwera nie są wykorzystane optymalnie, moc obliczeniowa marnuje się, a ilość pamięci operacyjnej także przewyższa bieżące potrzeby, gdyż jest dobrana pod kątem pracy przy najwyższych obciążeniach. Zaczyna się liczenie pieniędzy i okazuje się, że zakup dwóch lub trzech dużo potężniejszych serwerów jest bardziej opłacalny od posiadania kilkunastu maszyn, na których uruchomione są pojedyncze usługi. Takie podejście generuje jednak znowu ryzyko, że przy awarii jednego z nowych serwerów problemy obejmą większą liczbę usług. Jest to cena oszczędności i słabość nowej technologii. Lecz zyski nie ograniczają się tylko do pieniędzy, okazuje się bowiem, że jest szereg dodatkowych korzyści – można szybciej uruchamiać nowe usługi czy robić kopie całych serwerów wirtualnych w celu przetestowania nowych pomysłów. Zyski te zdecydowanie przewyższają powstałe ryzyko. Technologia się rozwija i nowe zagrożenia można minimalizować – przeniesienie plików maszyn wirtualnych do zewnętrznej pamięci masowej rozwiązuje opisane problemy. Taki rozwój technologii wymaga jednak specjalistów, a specjaliści tworzą zespoły. Zatem w dużej firmie mamy zespół administratorów wirtualizacji oraz zespół administratorów macierzy. Zespoły muszę ze sobą ściśle współpracować, a wszelkie aktualizacje muszę być starannie testowane. Problemów przybywa, rosną też koszty.

W wyniku istniejącej potrzeby pojawia się pomysł na rozwiązanie – powrót do koncepcji dysków w serwerach. Oczywiście nie chcemy, aby awaria jednego serwera powodowała utratę danych, dlatego nowe rozwiązanie musi być bardziej złożone, a kopie danych przechowywane przynajmniej na jednym dodatkowym serwerze. W takim modelu łatwiej jest rozbudować przestrzeń dyskową, można to zrobić mniejszymi partiami, prace trwają szybciej i wymagają zaangażowania mniejszej liczby specjalistów. Można część zasobów przenieść do chmury – na rynku obecne są bardzo szybko zdobywające popularność usługi chmury publicznej, wprawdzie nie wszystkie firmy chcą i mogę z nich korzystać, jednak wciąż potrzebują zwiększyć elastyczność i szybkość rozbudowy swojego centrum przetwarzania danych. Odpowiedzią na te potrzeby jest opisywana w niniejszym artykule hiperkonwergencja. VMware, wychodząc naprzeciw tym oczekiwaniom, od dłuższego czasu pracuje nad własnym rozwiązaniem opisanych problemów.

[...]

Autor jest administratorem systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"