Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



23.06.2020

PLNOG Online

PLNOG Online
23.06.2020

Nowe zagrożenie

Ramsay
23.06.2020

Chmurowe kopie

Veeam Backup dla Microsoft Azure
19.06.2020

Nowości w kontenerach

Red Hat OpenShift 4.4
19.06.2020

Analityka bezpieczeństwa

FortiAI
19.06.2020

UPS dla obliczeń edge

Schneider APC Smart-UPS
16.06.2020

Przemysłowe SD

Nowe karty Transcend
16.06.2020

Storage dla SMB

QNAP TS-451DeU
16.06.2020

Pamięć masowa

Dell EMC PowerStore

Przegląd wirtualizatorów dla stacji roboczych

Data publikacji: 21-09-2015 Autor: Jacek Kurek
Dysponując wielordzeniowym...
Jeśli do codziennej pracy...

Wirtualizację stosujemy dziś nie tylko na serwerach i w centrach danych. Coraz częściej obecna jest ona też na komputerach osobistych. By optymalnie wykorzystać zasoby sprzętowe i zainstalować kilka koegzystujących systemów, wystarczy sięgnąć po jeden z wielu darmowych hipernadzorców.

Dobrze pamiętamy komputery, na których pracowaliśmy dziesięć czy piętnaście lat temu. Z pewnością wielu z nas tego typu „zabytki” trzyma w szafie zachowane w nienagannym stanie i ciągle mogłyby one (przynajmniej teoretycznie) zostać użyte do niezbyt skomplikowanych zadań. Tymczasem dzięki postępującej ewolucji sprzętu informatycznego statystyczny Kowalski posługuje się na co dzień smartfonem o mocy obliczeniowej i wydajności przewyższającej nierzadko stare komputery osobiste z poprzedniej dekady. Racjonalne i możliwie najlepsze zagospodarowanie tych zasobów stanowi wyzwanie, niezależnie od tego, czy mamy do czynienia z nowym superserwerem, czy komputerem przenośnym używanym do pracy.

> Droga ewolucji

Dawniej wzrost wydajności nowo opracowywanych i wprowadzanych na rynek modeli centralnych jednostek obliczeniowych osiągano zazwyczaj, przyspieszając taktowanie zegara czy zwiększając pojemność pamięci podręcznej procesora. Rewolucją było wprowadzenie obsługi przez pojedynczy CPU wielu wątków, co dawało użytkownikowi wrażenie znacznego poszerzenia możliwości obliczeniowych jego komputera. Prawdziwym krokiem milowym prowadzącym do znacznego wzrostu wydajności obliczeniowej, a więc wyraźnego przyspieszenia komputerów było jednak opracowanie i wprowadzenie na rynek układów zawierających wiele autonomicznych procesorów zawartych w pojedynczym układzie scalonym. Istota tego przełomu była tym większa i bardziej znacząca, że dotychczas korzystanie z kilku procesorów w jednym komputerze było zarezerwowane głównie dla rozwiązań profesjonalnych, ponieważ wymagało zakupu płyty głównej z wieloma gniazdami dla procesorów, samych CPU oraz odpowiedniej ilości pamięci. Cena takiej konfiguracji była często zaporowa dla użytkownika indywidualnego.

Rozwój wieloprocesorowych jednostek obliczeniowych w połączeniu z dostępnością pamięci operacyjnej RAM o coraz większych pojemnościach zmusiły architektów systemów operacyjnych do poszukiwania sposobów na optymalne zagospodarowanie rosnącej mocy obliczeniowej i innych, często nadmiarowych zasobów sprzętowych. Szybko okazało się, że systemy fizyczne zainstalowane na mocnych wieloprocesorowych maszynach nie są w stanie skutecznie i optymalnie wykorzystywać możliwości wydajnie działającego sprzętu.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"