Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



15.02.2018

Druk cyfrowy A3

Accurio Print C759
12.02.2018

Procesory z GPU

Intel Core z Radeon RX Vega M
08.02.2018

Widoczność i kontrola...

Cisco Security Connector
05.02.2018

Firmowa sieć w zasięgu ręki

NETGEAR Insight 4.0 Premium
01.02.2018

Nowe funkcje dla NAS

QNAP QTS 4.3.4
26.01.2018

Serwery dla AI

IBM Power9
23.01.2018

Infrastruktura konwergentna

NFLEX firm Fujitsu i NetApp
19.01.2018

Wysoka gęstość

D-Link DGS-3630
16.01.2018

Odporne na korozję

Kamery Panasonic WV-X6531NS i WV-S1531LNS

NVidia DGX-1. Architektura serwerów do deep learningu i HPC

Data publikacji: 25-07-2017 Autor: Jerzy Michalczyk

O nowej architekturze Volta i kartach graficznych V100 przeznaczonych do przetwarzania dużych ilości danych pisaliśmy w poprzednim numerze „IT Professional”. Wspomnieliśmy wówczas, że NVidia jest również dostawcą gotowych rozwiązań serwerowych wykorzystujących akceleratory obliczeniowe tego producenta. Przyjrzyjmy się im z bliska.

Jeszcze kilka lat temu mogłoby się wydawać, że superkomputery wkrótce będą niepotrzebne, a rosnąca moc obliczeniowa stacji roboczych i serwerów całkowicie wystarczy, by zaspokoić większość potrzeb użytkowników. Tak się jednak nie stało. Zarówno w starych, jak i zupełnie nowych obszarach zastosowań zapotrzebowanie na moc obliczeniową rośnie. Pojawia się też coraz większa specjalizacja – z jednej strony mamy zastosowania naukowe związane z obliczeniami wymagającymi wysokiej wydajności, z drugiej – zapotrzebowania typowo konsumenckie, które również wymagają coraz większej mocy obliczeniowej. Różne są też rozwiązania sprzętowe, które pozwalają realizować założone cele: od typowych klastrów wieloprocesorowych spotykanych w superkomputerach, poprzez farmy serwerów przeznaczonych do świadczenia usług chmurowych, po specjalistyczne systemy ułatwiające tworzenie sieci neuronowych, charakteryzujące się wysoką wydajnością w zakresie ich trenowania.

Jednym z rozwiązań tego ostatniego typu jest zaprezentowany w ubiegłym roku przez firmę NVidia zintegrowany system serwerowy o nazwie DGX-1. Przeznaczony do głębokiego uczenia, obliczeń HPC i usług przetwarzania grafiki zlokalizowanych w chmurze został oparty na dwuprocesorowej platformie obsługującej wiele kart graficznych. Pojedynczy moduł serwera DGX-1 zamknięty w obudowie o wysokości 3U zawiera do ośmiu akceleratorów GPU Tesla P100 połączonych szybkim interfejsem NVlink. Według producenta DGX-1 wraz z dwurdzeniowymi procesorami Intel Xeon i czterema kartami interfejsu sieciowego InfiniBand o pojemności 100 Gbit/s, jest w stanie zapewnić bardzo wysoką wydajność w zakresie trenowania sieci neuronowych, znacznie większą niż typowe systemy wieloprocesorowe.

Po tegorocznej premierze układów V100 wykonanych w architekturze Volta również one są dostępne w serwerach DGX-1. Oznacza to automatycznie zwielokrotnienie wydajności tych urządzeń i uzyskanie jeszcze większej mocy obliczeniowej.

Dla przypomnienia – Tesla Volta V100 została wyposażona w 5120 rdzeni CUDA i dzięki nim jest w stanie zapewnić wydajność obliczeń pojedynczej precyzji na poziomie 15 TFLOPS i 7,5 TFLOPS dla obliczeń podwójnej precyzji FP64. Ponadto w akceleratorze tym zastosowano nowy typ specjalistycznych procesorów obliczeniowych o nazwie Tensor Core umożliwiających przeprowadzanie złożonych obliczeń na macierzach. 640 rdzeni obliczeniowych tworzy 80 multiprocesorów strumieniowych (po 8 rdzeni na multiprocesor), a każdy z nich reprezentuje macierz 4x4x4.

[...]

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"