Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



11.12.2017

Dla biznesu

BenQ MH760
07.12.2017

Pamięć masowa SDS

SUSE Enterprise Storage 5
05.12.2017

Bezpieczna platforma

Red Hat OpenStack Platform 12
30.11.2017

ITewolucja w bezpieczeństwie....

9 listopada w katowickim hotelu Novotel odbyła się kolejna odsłona konferencji z cyklu...
28.11.2017

Smukle i elegancko

HP Spectre 13 i x360
23.11.2017

Z IEEE 802.3bz

Przełączniki Netgear
21.11.2017

4K z USB-C

EIZO FlexScan EV2785
16.11.2017

Wielofunkcyjne MFP

Canon imageRUNNER ADVANCE C256i, C356i oraz C356P
14.11.2017

Fabryka Przyszłości w drodze...

W dniach 25 i 26 października we Wrocławiu odbyła się czwarta edycja konferencji...

NVidia DGX-1. Architektura serwerów do deep learningu i HPC

Data publikacji: 25-07-2017 Autor: Jerzy Michalczyk

O nowej architekturze Volta i kartach graficznych V100 przeznaczonych do przetwarzania dużych ilości danych pisaliśmy w poprzednim numerze „IT Professional”. Wspomnieliśmy wówczas, że NVidia jest również dostawcą gotowych rozwiązań serwerowych wykorzystujących akceleratory obliczeniowe tego producenta. Przyjrzyjmy się im z bliska.

Jeszcze kilka lat temu mogłoby się wydawać, że superkomputery wkrótce będą niepotrzebne, a rosnąca moc obliczeniowa stacji roboczych i serwerów całkowicie wystarczy, by zaspokoić większość potrzeb użytkowników. Tak się jednak nie stało. Zarówno w starych, jak i zupełnie nowych obszarach zastosowań zapotrzebowanie na moc obliczeniową rośnie. Pojawia się też coraz większa specjalizacja – z jednej strony mamy zastosowania naukowe związane z obliczeniami wymagającymi wysokiej wydajności, z drugiej – zapotrzebowania typowo konsumenckie, które również wymagają coraz większej mocy obliczeniowej. Różne są też rozwiązania sprzętowe, które pozwalają realizować założone cele: od typowych klastrów wieloprocesorowych spotykanych w superkomputerach, poprzez farmy serwerów przeznaczonych do świadczenia usług chmurowych, po specjalistyczne systemy ułatwiające tworzenie sieci neuronowych, charakteryzujące się wysoką wydajnością w zakresie ich trenowania.

Jednym z rozwiązań tego ostatniego typu jest zaprezentowany w ubiegłym roku przez firmę NVidia zintegrowany system serwerowy o nazwie DGX-1. Przeznaczony do głębokiego uczenia, obliczeń HPC i usług przetwarzania grafiki zlokalizowanych w chmurze został oparty na dwuprocesorowej platformie obsługującej wiele kart graficznych. Pojedynczy moduł serwera DGX-1 zamknięty w obudowie o wysokości 3U zawiera do ośmiu akceleratorów GPU Tesla P100 połączonych szybkim interfejsem NVlink. Według producenta DGX-1 wraz z dwurdzeniowymi procesorami Intel Xeon i czterema kartami interfejsu sieciowego InfiniBand o pojemności 100 Gbit/s, jest w stanie zapewnić bardzo wysoką wydajność w zakresie trenowania sieci neuronowych, znacznie większą niż typowe systemy wieloprocesorowe.

Po tegorocznej premierze układów V100 wykonanych w architekturze Volta również one są dostępne w serwerach DGX-1. Oznacza to automatycznie zwielokrotnienie wydajności tych urządzeń i uzyskanie jeszcze większej mocy obliczeniowej.

Dla przypomnienia – Tesla Volta V100 została wyposażona w 5120 rdzeni CUDA i dzięki nim jest w stanie zapewnić wydajność obliczeń pojedynczej precyzji na poziomie 15 TFLOPS i 7,5 TFLOPS dla obliczeń podwójnej precyzji FP64. Ponadto w akceleratorze tym zastosowano nowy typ specjalistycznych procesorów obliczeniowych o nazwie Tensor Core umożliwiających przeprowadzanie złożonych obliczeń na macierzach. 640 rdzeni obliczeniowych tworzy 80 multiprocesorów strumieniowych (po 8 rdzeni na multiprocesor), a każdy z nich reprezentuje macierz 4x4x4.

[...]

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"