Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.
Data publikacji: 01-06-2012 | Autor: | Krzysztof Jakubik |
Niewiele jest firm, które nie muszą prowadzić cyfrowego archiwum generowanych przez siebie danych. Konieczność tej archiwizacji wynika nie tylko z potrzeby dostępu do nich w celach operacyjnych i biznesowych. Szybki dostęp do informacji może czasem uratować przed przegranym procesem sądowym, zaś w wybranych instytucjach sposób i czas archiwizacji jest określany przez prawo.
Czy jednak ciągły przyrost dużych ilości danych zawsze musi wiązać się z koniecznością dokupienia kolejnych dysków twardych bądź całych macierzy? W kontekście malejących budżetów, ograniczonego miejsca lub braku możliwości zapewnienia dodatkowego zasilania serwerowni w wielu firmach taka sytuacja jest nie do przyjęcia. Należy zatem poszukać innego rozwiązania.
Przechowywane dane mają różną wartość biznesową, która najczęściej zmniejsza się wraz z upływem czasu. Jedną z podstawowych kwestii jest próba oceny tej wartości i jej rozkładu w czasie. Statystyki pokazują, że średnio aż 95% danych, od których wytworzenia minęło więcej niż trzy miesiące, już nigdy nie będzie odczytywanych. Trzeba je jednak przechowywać, nie tylko ze względów prawnych. Nigdy nie wiadomo, które informacje znajdą się w pozostałych pięciu procentach.
Firmom, które mają problem ze zbyt szybkim przyrostem ilości przetwarzanych i przechowywanych danych, z pomocą przychodzą nowe technologie pamięci masowych. Na początku zawsze można spróbować deduplikacji, czyli automatycznej analizy w celu wykrycia i eliminacji duplikujących się bloków danych. Zastosowanie tego typu rozwiązań jest najbardziej efektywne w macierzach przechowujących kopie zapasowe danych oraz obrazy maszyn wirtualnych. Jednak tam, gdzie powtarzalność danych jest niewielka, trzeba zastosować inne metody.
Artykuł pochodzi z miesięcznika: IT Professional
Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.
Transmisje online zapewnia: StreamOnline