Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



21.09.2018

Kolor razy 6

Kyocera ECOSYS i TASKalfa
18.09.2018

Na ataki piątej generacji

Check Point 23900
14.09.2018

UHD dla pro

Samsung UJ59
11.09.2018

Ochrona dla firm

ESET Security Management Center
07.09.2018

Skanowanie podatności

Beyond Security AVDS
04.09.2018

Open source do automatyzacji...

Red Hat Ansible Engine 2.6
28.08.2018

CPU dla stacji roboczych

Intel Xeon E-2100
24.08.2018

Macierze do DC

Infortrend EonStor GS 5000
21.08.2018

Elastyczne PoE

Netgear GS11xxx

NVidia DGX-1. Architektura serwerów do deep learningu i HPC

Data publikacji: 25-07-2017 Autor: Jerzy Michalczyk

O nowej architekturze Volta i kartach graficznych V100 przeznaczonych do przetwarzania dużych ilości danych pisaliśmy w poprzednim numerze „IT Professional”. Wspomnieliśmy wówczas, że NVidia jest również dostawcą gotowych rozwiązań serwerowych wykorzystujących akceleratory obliczeniowe tego producenta. Przyjrzyjmy się im z bliska.

Jeszcze kilka lat temu mogłoby się wydawać, że superkomputery wkrótce będą niepotrzebne, a rosnąca moc obliczeniowa stacji roboczych i serwerów całkowicie wystarczy, by zaspokoić większość potrzeb użytkowników. Tak się jednak nie stało. Zarówno w starych, jak i zupełnie nowych obszarach zastosowań zapotrzebowanie na moc obliczeniową rośnie. Pojawia się też coraz większa specjalizacja – z jednej strony mamy zastosowania naukowe związane z obliczeniami wymagającymi wysokiej wydajności, z drugiej – zapotrzebowania typowo konsumenckie, które również wymagają coraz większej mocy obliczeniowej. Różne są też rozwiązania sprzętowe, które pozwalają realizować założone cele: od typowych klastrów wieloprocesorowych spotykanych w superkomputerach, poprzez farmy serwerów przeznaczonych do świadczenia usług chmurowych, po specjalistyczne systemy ułatwiające tworzenie sieci neuronowych, charakteryzujące się wysoką wydajnością w zakresie ich trenowania.

Jednym z rozwiązań tego ostatniego typu jest zaprezentowany w ubiegłym roku przez firmę NVidia zintegrowany system serwerowy o nazwie DGX-1. Przeznaczony do głębokiego uczenia, obliczeń HPC i usług przetwarzania grafiki zlokalizowanych w chmurze został oparty na dwuprocesorowej platformie obsługującej wiele kart graficznych. Pojedynczy moduł serwera DGX-1 zamknięty w obudowie o wysokości 3U zawiera do ośmiu akceleratorów GPU Tesla P100 połączonych szybkim interfejsem NVlink. Według producenta DGX-1 wraz z dwurdzeniowymi procesorami Intel Xeon i czterema kartami interfejsu sieciowego InfiniBand o pojemności 100 Gbit/s, jest w stanie zapewnić bardzo wysoką wydajność w zakresie trenowania sieci neuronowych, znacznie większą niż typowe systemy wieloprocesorowe.

Po tegorocznej premierze układów V100 wykonanych w architekturze Volta również one są dostępne w serwerach DGX-1. Oznacza to automatycznie zwielokrotnienie wydajności tych urządzeń i uzyskanie jeszcze większej mocy obliczeniowej.

Dla przypomnienia – Tesla Volta V100 została wyposażona w 5120 rdzeni CUDA i dzięki nim jest w stanie zapewnić wydajność obliczeń pojedynczej precyzji na poziomie 15 TFLOPS i 7,5 TFLOPS dla obliczeń podwójnej precyzji FP64. Ponadto w akceleratorze tym zastosowano nowy typ specjalistycznych procesorów obliczeniowych o nazwie Tensor Core umożliwiających przeprowadzanie złożonych obliczeń na macierzach. 640 rdzeni obliczeniowych tworzy 80 multiprocesorów strumieniowych (po 8 rdzeni na multiprocesor), a każdy z nich reprezentuje macierz 4x4x4.

[...]

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"