Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



22.08.2017

Przemysłowy SSD

Transcend SSD430K
17.08.2017

24 porty i PoE

NETGEAR GS724TPv2
11.08.2017

Z helem

WD Red / Red Pro
08.08.2017

Kontener jako usługa

SUSE CaaS Platform
03.08.2017

Natywna obsługa kontenerów

Red Hat OpenShift Online
28.07.2017

Luksusowa hybryda

HP Spectre x2
25.07.2017

Nowy napęd SSD

KC1000 NVMe PCIe
21.07.2017

Rekord świata

Lenovo x3950 X6
18.07.2017

Brightness Intellgence Plus

BenQ EW2770QZ

NVidia DGX-1. Architektura serwerów do deep learningu i HPC

Data publikacji: 25-07-2017 Autor: Jerzy Michalczyk

O nowej architekturze Volta i kartach graficznych V100 przeznaczonych do przetwarzania dużych ilości danych pisaliśmy w poprzednim numerze „IT Professional”. Wspomnieliśmy wówczas, że NVidia jest również dostawcą gotowych rozwiązań serwerowych wykorzystujących akceleratory obliczeniowe tego producenta. Przyjrzyjmy się im z bliska.

Jeszcze kilka lat temu mogłoby się wydawać, że superkomputery wkrótce będą niepotrzebne, a rosnąca moc obliczeniowa stacji roboczych i serwerów całkowicie wystarczy, by zaspokoić większość potrzeb użytkowników. Tak się jednak nie stało. Zarówno w starych, jak i zupełnie nowych obszarach zastosowań zapotrzebowanie na moc obliczeniową rośnie. Pojawia się też coraz większa specjalizacja – z jednej strony mamy zastosowania naukowe związane z obliczeniami wymagającymi wysokiej wydajności, z drugiej – zapotrzebowania typowo konsumenckie, które również wymagają coraz większej mocy obliczeniowej. Różne są też rozwiązania sprzętowe, które pozwalają realizować założone cele: od typowych klastrów wieloprocesorowych spotykanych w superkomputerach, poprzez farmy serwerów przeznaczonych do świadczenia usług chmurowych, po specjalistyczne systemy ułatwiające tworzenie sieci neuronowych, charakteryzujące się wysoką wydajnością w zakresie ich trenowania.

Jednym z rozwiązań tego ostatniego typu jest zaprezentowany w ubiegłym roku przez firmę NVidia zintegrowany system serwerowy o nazwie DGX-1. Przeznaczony do głębokiego uczenia, obliczeń HPC i usług przetwarzania grafiki zlokalizowanych w chmurze został oparty na dwuprocesorowej platformie obsługującej wiele kart graficznych. Pojedynczy moduł serwera DGX-1 zamknięty w obudowie o wysokości 3U zawiera do ośmiu akceleratorów GPU Tesla P100 połączonych szybkim interfejsem NVlink. Według producenta DGX-1 wraz z dwurdzeniowymi procesorami Intel Xeon i czterema kartami interfejsu sieciowego InfiniBand o pojemności 100 Gbit/s, jest w stanie zapewnić bardzo wysoką wydajność w zakresie trenowania sieci neuronowych, znacznie większą niż typowe systemy wieloprocesorowe.

Po tegorocznej premierze układów V100 wykonanych w architekturze Volta również one są dostępne w serwerach DGX-1. Oznacza to automatycznie zwielokrotnienie wydajności tych urządzeń i uzyskanie jeszcze większej mocy obliczeniowej.

Dla przypomnienia – Tesla Volta V100 została wyposażona w 5120 rdzeni CUDA i dzięki nim jest w stanie zapewnić wydajność obliczeń pojedynczej precyzji na poziomie 15 TFLOPS i 7,5 TFLOPS dla obliczeń podwójnej precyzji FP64. Ponadto w akceleratorze tym zastosowano nowy typ specjalistycznych procesorów obliczeniowych o nazwie Tensor Core umożliwiających przeprowadzanie złożonych obliczeń na macierzach. 640 rdzeni obliczeniowych tworzy 80 multiprocesorów strumieniowych (po 8 rdzeni na multiprocesor), a każdy z nich reprezentuje macierz 4x4x4.

[...]

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"