Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.
Data publikacji: 02-07-2012 | Autor: | Michał Kaźmierczyk |
W klasycznym rozumieniu architektury sprzętowej zbudowanej w oparciu o model „jedna aplikacja – jeden serwer” kluczową rolę odgrywały parametry serwera fizycznego, takie jak ilość pamięci RAM czy szybkość działania procesora. Odseparowanie warstwy fizycznej od aplikacji oraz wprowadzenie możliwości dynamicznego dostosowywania parametrów maszyn wirtualnych znacznie zniwelowały często występujące w klasycznej infrastrukturze problemy powodowane brakiem prostej skalowalności pionowej.
Niestety, wzrost gęstości warstwy programowej, wynikający z konsolidacji wielu środowisk aplikacyjnych na pojedynczych maszynach fizycznych, wprowadził szereg nowych wyzwań i problemów. Główny nacisk przeniesiony został z komponentów sprzętowych serwera fizycznego na infrastrukturę sieciową oraz systemy przechowywania danych. Dodatkowo część kluczowych funkcjonalności wirtualizacji (m.in. takich jak klastry HA czy dynamiczne zarządzanie obciążeniem) nie jest możliwa do wykorzystania bez zapewnienia współdzielonego nośnika pamięci masowej i koherentnej topologii sieciowej.
Istnieje kilka metod zapewnienia odpowiedniego magazynu danych dla infrastruktury wirtualnej. Wybór technologii jest jednak bardzo złożony i wielowątkowy. Każda z dostępnych opcji oferuje różne parametry w zakresie przepustowości czy wydajności dla specyficznych aplikacji. Decydując się na konkretną technologię, trzeba też mieć świadomość, z czym wiąże się wdrożenie danego rozwiązania w odniesieniu do stosowanych technologii sieciowych. Jest to szczególnie istotne w przypadku konieczności zapewnienia pełnej wysokiej dostępności (wykorzystanie wielu ścieżek, redundantnych urządzeń sieciowych czy zapasowego storage’u).
Artykuł pochodzi z miesięcznika: IT Professional
Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.
Transmisje online zapewnia: StreamOnline