Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



07.06.2022

Red Hat Enterprise Linux 9

Red Hat zaprezentował system operacyjny Red Hat Enterprise Linux 9 (RHEL 9)...
07.06.2022

Technologiczna piaskownica

Koalicja partnerów KIR, IBM, Chmura Krajowa, PKO Bank Polski, Urząd Komisji Nadzoru...
07.06.2022

Sztuczna inteligencja w...

OVHcloud wprowadziło na rynek AI Notebooks – najnowszy element w ofercie usług...
07.06.2022

Spójna ochrona brzegu sieci

Fortinet zaprezentował FortiOS 7.2 – najnowszą wersję swojego flagowego systemu...
07.06.2022

Zarządzanie transferem

Firma Progress wypuściła nową wersję oprogramowania do zarządzania transferem plików...
07.06.2022

Notebook ekstremalny

Panasonic przedstawił 14-calowy Toughbook 40, notebook do pracy w ekstremalnych...
07.06.2022

Zestaw startowy dla robotyki

Firma AMD przedstawiła najnowszy produkt w portfolio adaptacyjnych modułów SOM...
07.06.2022

Precyzja kadrowania

Najnowsze rozwiązania klasy pro firmy Poly mają sprostać zmieniającym się potrzebom...
07.06.2022

Serwer klasy korporacyjnej

QNAP zaprezentował nowy model serwera NAS, TS-h1886XU-RP R2, który działa na systemie...

Prawo Hernandeza*

Data publikacji: 26-08-2021 Autor: Maciej Olanicki

Sytuację panującą na rynku układów półprzewodnikowych można już nazwać kryzysem, przede wszystkim za sprawą spowolnienia rozwoju architektury x86 i niewystarczających dostaw. W epoce podawania w wątpliwość prawa Moore’a naturalna zdaje się chęć odnalezienia teorii zastępczej. Według wielu komentatorów dobrym kandydatem jest hipoteza już dziś nazywana prawem Hernandeza.

 

Aby pojąć ewentualną analogię między prawem Moore’a i wynikami badań przeprowadzonych pod kierownictwem Danny’ego Hernandeza, szefa departamentu danych i sztucznej inteligencji w IBM, należy w pierwszej kolejności wskazać zmianę paradygmatu w zakresie charakteru pożądanej mocy obliczeniowej. Przez całe dekady tę determinował rozwój pojedynczego mikroprocesora – jak pisaliśmy w jednym z poprzednich numerów („IT Professional” 4/2020, s. 34), opisywało to prawo Moore’a.

Rzecz w tym, że trudno o jego jedną, uniwersalną formę, gdyż ta ewoluowała z czasem. Ta pierwotna, która była raczej luźną prognozą i spostrzeżeniem, a dopiero później okrzyknięta prawem, brzmiała: „złożoność minimalnego nakładu komponentów podwaja się co rok. Z pewnością można oczekiwać, że wskaźnik ten utrzyma się w najbliższym czasie, a może nawet wzrośnie”. W drugiej dekadzie XXI wieku wielu ekspertów zaczęło dostrzegać, że problemy z miniaturyzacją procesu litograficznego oraz liczne inne czynniki spowodowały, że tempo rozwoju procesorów x86 zaczyna odstawać od kreślonej przez „wyznawców” prawa Moore’a krzywej ekstrapolacji. Dziś jest to przedmiotem teoretycznych dyskusji, w których mnogość sprzecznych opinii nijak nie przekłada się na rozwiązywanie największych problemów x86.

NIE CPU, LECZ SI

Biorąc pod uwagę coraz lepszą dostępność ogromnych klastrów składających się z dziesiątek zaawansowanych procesorów wspieranych dodatkowo przez akceleratory GPU, których wydajność możemy wykupywać w postaci usług, nasuwa się pytanie – na ile jeszcze istotna jest kwestia „złożoności minimalnego nakładu komponentów” pojedynczego CPU, skoro ich liczbę możemy w zależności od potrzeb skalować w zasadzie bez ograniczeń? To pytanie zadał sobie także Hernandez, który w swoich badaniach postanowił skupić się na innym aspekcie – w jaki sposób zwiększać dziś wydajność kluczowych obciążeń, przede wszystkim zaś sztucznej inteligencji? Skoro problem miniaturyzacji procesorów schodzi na dalszy plan, gdyż możemy osiągać niezbędną moc obliczeniową, skalując ich liczbę, to jak sformułować odpowiednik prawa Moore’a w odniesieniu do zwiększania skuteczności szeroko pojętych algorytmów sztucznej inteligencji?

Zagadnienie to okazało się niezwykle złożone. Zwłaszcza że eksperci zaczynają studzić hurraoptymizm, według którego sztuczna inteligencja, zarówno w zakresie skuteczności (np. w rozpoznawaniu obrazu czy dźwięku), jak i wydajności operacyjnej będzie rozwijać się liniowo, a nawet wykładniczo. Problemy w tej kwestii sygnalizowali między innymi uczestnicy zeszłorocznej odsłony NeurIPS, którą bez przesady można nazwać największą konferencją poświęconą zagadnieniom związanym z rozwojem sztucznej inteligencji. Ważnymi spostrzeżeniami podzielił się wówczas Jerome Pesenti, szef departamentu rozwoju SI w Facebooku. Stwierdził on między innymi, że w większości obszarów rozwój SI poprzez skalowanie dostępnej mocy obliczeniowej nie przynosi już tak wymiernych korzyści jak jeszcze kilka lat temu.

 

[...]

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"