Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.


26.10.2020

Nowa wersja nVision

Można już pobierać nową wersję nVision
26.10.2020

Monitorowanie infrastruktury

Vertiv Environet Alert
23.10.2020

Telefonia w chmurze

NFON Cloudya
23.10.2020

Nowości w EDR

Bitdefender GravityZone
23.10.2020

Wykrywanie anomalii

Flowmon ADS11
23.10.2020

Mobilny monitor

AOC 16T2
22.10.2020

HP Pavilion

HP zaprezentowało nowe laptopy z linii Pavilion.
22.10.2020

Inteligentny monitoring

WD Purple SC QD101
22.10.2020

Przełącznik 2,5GbE

QNAP QSW-1105-5T

EDGE COMPUTING – założenia i przyszłość obliczeń brzegowych

Data publikacji: 24-09-2020 Autor: Marcin Bieńkowski
Rys. 1. Infrastruktura edge...

Rozwój internetu rzeczy, zwłaszcza w przemyśle, wymusza na systemach informatycznych, aby przetwarzanie danych odbywało się jak najbliżej miejsca zbierania danych. Celem jest ograniczenie przesyłania nieobrobionych, dużych objętościowo informacji, a także odciążenie centrów danych. Taką możliwość daje edge computing, czyli przetwarzanie brzegowe lub krawędziowe.

 

Koncepcja edge computingu pojawiła się na przełomie wieków i dotyczy rozproszonego przetwarzania danych tak, aby dane te, a przynajmniej znaczna ich część, były przetwarzane jak najbliżej miejsca ich powstawania, czyli na krawędzi internetu, stąd nazwa. Gartner definiuje przetwarzanie krawędziowe jeszcze wężej, jako „część topologii przetwarzania rozproszonego, w której przetwarzanie informacji znajduje się blisko krawędzi, czyli tam gdzie rzeczy i ludzie produkują lub konsumują te informacje”.


Z kolei IDC jako przetwarzanie brzegowe rozumie zaś procesy przetwarzania danych związanych z internetem rzeczy, które mają miejsce poza rdzeniem infrastruktury IT, czyli serwerownią lub centrum danych, ale nie jest to też podstawowe przetwarzanie informacji, które jest właściwe dla czujników czy maszyn. To ostatnie zastrzeżenie związane jest z tym, że w przeciwnym razie całą koncepcję przetwarzania brzegowego sprowadziliśmy do architektury w modelu klient-serwer. Tak oczywiście nie jest, o czym za chwilę.


Jak widać, niezależnie od tego, jak ściśle, i w jaki sposób zdefiniujemy samo pojęcie przetwarzania krawędziowego, to założeniem edge computingu jest przede wszystkim rozmieszczenie procesów roboczych możliwie jak najbliżej brzegu infrastruktury, czyli tam, gdzie tworzone i konsumowane są dane, a także podejmowane są związane z nimi działania. Jakie są płynące z tego korzyści?


> ZALEW DANYCH


Magazyn „Forbes” w prognozie opublikowanej w listopadzie 2018 r. przewidywał, że do 2025 r. do internetu podłączonych będzie ponad 80 miliardów urządzeń – począwszy od komputerów i notebooków, poprzez smartfony, inteligentne urządzenia, np. lodówki, autonomiczne samochody, maszyny i roboty przemysłowe, po czujniki systemów automatyki i inteligentne sensory domowe oraz miejskie działające w inteligentnych domach i inteligentnych miastach. W tym samym roku, zgodnie z raportem „Data Age 2025: The Digitization of the World, From Edge to Core” przygotowanym przez IDC na zlecenie Seagate’a, ludzie oraz wszystkie pracujące w sieci urządzenia wygenerują aż 175 zettabajtów, czyli bilionów gigabajtów danych. W 2018 roku były to „zaledwie” 33 ZB.

> ODCIĄŻAMY CHMURĘ I ŁĄCZA


Podstawową zaletą modelu przetwarzania brzegowego jest obniżenie wymagań dotyczących przepustowości łącz internetowych. Można też w pewnym stopniu uniezależnić się od połączenia z internetem, dzięki czemu przetwarzanie krawędziowe sprawdzi się dobrze wszędzie tam, gdzie dostęp sieci jest utrudniony lub połączenie może ulec awarii. Innymi słowy, przeniesienie przetwarzania danych bliżej miejsca ich powstawania obniża w znaczący sposób ryzyko przestojów spowodowanych awarią łącza internetowego.


Kolejną zaletą jest zmniejszenie opóźnień w danych przetwarzanych na bieżąco. Wysyłając dane do centrum obliczeniowego, musimy mieć gwarancję, że będą one tam trafiały i wracały już przetworzone z opóźnieniami nie większymi niż jedna milisekunda (wymaganie pracy w czasie rzeczywistym). W praktyce oznacza to, że centrum danych nie może być oddalone od użytkownika o więcej niż 150 km. Przeniesienie przetwarzania w miejsce generowania danych sprawi, że kwestia opóźnienia będzie niemal irrelewantna.


Jest to szczególnie istotne w systemach krytycznych, związanych z branżą finansową, a także w przemysłowych systemach produkcyjnych. Na zmniejszeniu czasu opóźnień zyskają też pasażerowie autonomicznych samochodów, gdzie najmniejsze opóźnienie może oznaczać poważne zagrożenie, a także systemy logistyczno-produkcyjne, w tym bazujące na różnego rodzaju dronach i autonomicznych systemach transportu wewnętrznego, gdzie reakcja na zarejestrowane zdarzenia musi być natychmiastowa.


Edge computing pozwala też na obniżenie wymagań pod kątem mocy obliczeniowej i pamięci masowej w centrum danych. Dzięki temu można w znaczący sposób obniżyć całkowite koszty zakupu i utrzymania sprzętu odpowiedzialnego za daną usługę, a także obniżyć koszty eksploatacji całego systemu, m.in. zmniejszając pobór prądu niezbędnego do zasilenia serwerów i klimatyzacji.
Równie ważną cechą przetwarzania brzegowego jest możliwość łatwiejszego spełnienia wymogów dotyczących poufności przetwarzania danych związanych m.in. z rodo. Dzięki zlokalizowaniu przetwarzania danych na krawędzi sieci wszelkie poufne dane, w tym dane osobowe i dane wrażliwe, nie muszą być przesyłane poza chronioną strefę (np. budynek urzędu czy siedziba firmy), nad którą przedsiębiorstwo ma kontrolę.

 

[...]

 

Autor jest niezależnym dziennikarzem zajmującym się propagowaniem nauki i techniki.

Artykuł pochodzi z miesięcznika: IT Professional

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"