Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



22.06.2018

Monitor z USB-C

AOC I1601FWUX
19.06.2018

Konwertowalny mikrus

HP EliteBook x360 1030 G3
15.06.2018

Druga generacja

AMD Ryzen
12.06.2018

Przejście na SDI

SUSE OpenStack Cloud 8
08.06.2018

Chmurowy firewall

Barracuda WAF-as-a-Service
05.06.2018

Kopie środowisk hybrydowych

NetVault Backup 12.0
01.06.2018

Zgodność z rodo

baramundi Management Suite 2018
28.05.2018

Dotyk dla monitorów

Nakładki interaktywne Sony
24.05.2018

Do obsługi konferencji

HP Elite Slice G2

NVidia DGX-1. Architektura serwerów do deep learningu i HPC

Data publikacji: 25-07-2017 Autor: Jerzy Michalczyk

O nowej architekturze Volta i kartach graficznych V100 przeznaczonych do przetwarzania dużych ilości danych pisaliśmy w poprzednim numerze „IT Professional”. Wspomnieliśmy wówczas, że NVidia jest również dostawcą gotowych rozwiązań serwerowych wykorzystujących akceleratory obliczeniowe tego producenta. Przyjrzyjmy się im z bliska.

Jeszcze kilka lat temu mogłoby się wydawać, że superkomputery wkrótce będą niepotrzebne, a rosnąca moc obliczeniowa stacji roboczych i serwerów całkowicie wystarczy, by zaspokoić większość potrzeb użytkowników. Tak się jednak nie stało. Zarówno w starych, jak i zupełnie nowych obszarach zastosowań zapotrzebowanie na moc obliczeniową rośnie. Pojawia się też coraz większa specjalizacja – z jednej strony mamy zastosowania naukowe związane z obliczeniami wymagającymi wysokiej wydajności, z drugiej – zapotrzebowania typowo konsumenckie, które również wymagają coraz większej mocy obliczeniowej. Różne są też rozwiązania sprzętowe, które pozwalają realizować założone cele: od typowych klastrów wieloprocesorowych spotykanych w superkomputerach, poprzez farmy serwerów przeznaczonych do świadczenia usług chmurowych, po specjalistyczne systemy ułatwiające tworzenie sieci neuronowych, charakteryzujące się wysoką wydajnością w zakresie ich trenowania.

Jednym z rozwiązań tego ostatniego typu jest zaprezentowany w ubiegłym roku przez firmę NVidia zintegrowany system serwerowy o nazwie DGX-1. Przeznaczony do głębokiego uczenia, obliczeń HPC i usług przetwarzania grafiki zlokalizowanych w chmurze został oparty na dwuprocesorowej platformie obsługującej wiele kart graficznych. Pojedynczy moduł serwera DGX-1 zamknięty w obudowie o wysokości 3U zawiera do ośmiu akceleratorów GPU Tesla P100 połączonych szybkim interfejsem NVlink. Według producenta DGX-1 wraz z dwurdzeniowymi procesorami Intel Xeon i czterema kartami interfejsu sieciowego InfiniBand o pojemności 100 Gbit/s, jest w stanie zapewnić bardzo wysoką wydajność w zakresie trenowania sieci neuronowych, znacznie większą niż typowe systemy wieloprocesorowe.

Po tegorocznej premierze układów V100 wykonanych w architekturze Volta również one są dostępne w serwerach DGX-1. Oznacza to automatycznie zwielokrotnienie wydajności tych urządzeń i uzyskanie jeszcze większej mocy obliczeniowej.

Dla przypomnienia – Tesla Volta V100 została wyposażona w 5120 rdzeni CUDA i dzięki nim jest w stanie zapewnić wydajność obliczeń pojedynczej precyzji na poziomie 15 TFLOPS i 7,5 TFLOPS dla obliczeń podwójnej precyzji FP64. Ponadto w akceleratorze tym zastosowano nowy typ specjalistycznych procesorów obliczeniowych o nazwie Tensor Core umożliwiających przeprowadzanie złożonych obliczeń na macierzach. 640 rdzeni obliczeniowych tworzy 80 multiprocesorów strumieniowych (po 8 rdzeni na multiprocesor), a każdy z nich reprezentuje macierz 4x4x4.

[...]

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"