Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



25.02.2020

Koszty w górę

Zmiany w licencjach VMware
24.02.2020

VPN na nowo

WireGuard w Linuksie
24.02.2020

Wydajność pod kontrolą

Citrix Analytics for Performance
24.02.2020

Zaawansowany backup

Veeam Availability Suite v10
20.02.2020

Serwery Enterprise

OVHCloud stawia na Ryzeny
20.02.2020

Monitory dla biznesu

Newline IP
20.02.2020

Przemysłowe SSD

Dyski Transcend M.2 NVMe
23.01.2020

Google Project Zero

Inicjatywa Google Project Zero
23.01.2020

Ochrona tylko w chmurze

Kaspersky Security Cloud Free

Przegląd wirtualizatorów dla stacji roboczych

Data publikacji: 21-09-2015 Autor: Jacek Kurek
Dysponując wielordzeniowym...
Jeśli do codziennej pracy...

Wirtualizację stosujemy dziś nie tylko na serwerach i w centrach danych. Coraz częściej obecna jest ona też na komputerach osobistych. By optymalnie wykorzystać zasoby sprzętowe i zainstalować kilka koegzystujących systemów, wystarczy sięgnąć po jeden z wielu darmowych hipernadzorców.

Dobrze pamiętamy komputery, na których pracowaliśmy dziesięć czy piętnaście lat temu. Z pewnością wielu z nas tego typu „zabytki” trzyma w szafie zachowane w nienagannym stanie i ciągle mogłyby one (przynajmniej teoretycznie) zostać użyte do niezbyt skomplikowanych zadań. Tymczasem dzięki postępującej ewolucji sprzętu informatycznego statystyczny Kowalski posługuje się na co dzień smartfonem o mocy obliczeniowej i wydajności przewyższającej nierzadko stare komputery osobiste z poprzedniej dekady. Racjonalne i możliwie najlepsze zagospodarowanie tych zasobów stanowi wyzwanie, niezależnie od tego, czy mamy do czynienia z nowym superserwerem, czy komputerem przenośnym używanym do pracy.

> Droga ewolucji

Dawniej wzrost wydajności nowo opracowywanych i wprowadzanych na rynek modeli centralnych jednostek obliczeniowych osiągano zazwyczaj, przyspieszając taktowanie zegara czy zwiększając pojemność pamięci podręcznej procesora. Rewolucją było wprowadzenie obsługi przez pojedynczy CPU wielu wątków, co dawało użytkownikowi wrażenie znacznego poszerzenia możliwości obliczeniowych jego komputera. Prawdziwym krokiem milowym prowadzącym do znacznego wzrostu wydajności obliczeniowej, a więc wyraźnego przyspieszenia komputerów było jednak opracowanie i wprowadzenie na rynek układów zawierających wiele autonomicznych procesorów zawartych w pojedynczym układzie scalonym. Istota tego przełomu była tym większa i bardziej znacząca, że dotychczas korzystanie z kilku procesorów w jednym komputerze było zarezerwowane głównie dla rozwiązań profesjonalnych, ponieważ wymagało zakupu płyty głównej z wieloma gniazdami dla procesorów, samych CPU oraz odpowiedniej ilości pamięci. Cena takiej konfiguracji była często zaporowa dla użytkownika indywidualnego.

Rozwój wieloprocesorowych jednostek obliczeniowych w połączeniu z dostępnością pamięci operacyjnej RAM o coraz większych pojemnościach zmusiły architektów systemów operacyjnych do poszukiwania sposobów na optymalne zagospodarowanie rosnącej mocy obliczeniowej i innych, często nadmiarowych zasobów sprzętowych. Szybko okazało się, że systemy fizyczne zainstalowane na mocnych wieloprocesorowych maszynach nie są w stanie skutecznie i optymalnie wykorzystywać możliwości wydajnie działającego sprzętu.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"