Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



29.12.2022

Nowe funkcje od Oracle

W aplikacjach CX, SCM, EPM i HCM Fusion Cloud firmy Oracle pojawiło się wiele nowych...
29.12.2022

Inteligentne sygnały

Nowa usługa Vectra MDR zapewnia wsparcie ekspertów w zakresie bezpieczeństwa...
29.12.2022

Wieloetapowa analiza treści

Firma WithSecure wprowadziła nową warstwę ochrony w swojej opartej na chmurze platformie...
29.12.2022

Kontrola aplikacji

Fortinet zaprezentował nowe funkcje systemu FortiSASE: bezpieczny prywatny dostęp (Secure...
29.12.2022

Zgodnie z przepisami

Nowe rozwiązanie do zarządzania danymi firmy Commvault, oferowane w formie usługi,...
29.12.2022

Większa elastyczność w...

Schneider Electric ogłosił wprowadzenie na rynek urządzenia zasilającego APC NetShelter...
29.12.2022

Firewall nowej generacji

Fortinet zaprezentował nową rodzinę zapór sieciowych nowej generacji (NGFW) – FortiGate...
29.12.2022

Nowy przełącznik źródeł...

Vertiv przedstawił nową rodzinę przełączników źródeł zasilania Vertiv Geist RTS, które...
29.12.2022

Routery VPN Omada

TP-Link poszerza portfolio routerów VPN o dwa nowe urządzenia. ER7212PC to urządzenie 3 w...

Ronna i Quetta

Data publikacji: 29-12-2022 Autor: Michał Jaworski

Jednym z ubocznych skutków rewolucji francuskiej była standaryzacja miar. Dla wygody unormowano także przedrostki. I tak w 1795 r. wprowadzono przedrostki deka- (101), hekto- (102), kilo- (103) oraz decy- (10-1), centy- (10-2) i mili- (10-3). Powinny wystarczyć na długo… I rzeczywiście niewielkie uzupełnienie przyszło dopiero po niemal 100 latach – dodano mega- (106) oraz mikro- (10-6).


Na długi czas wypełniono nimi lukę, ale od kiedy w 1960 r. pojawiły się giga- i tera- (w towarzystwie nano- i piko-) uzupełnień dokonywano jeszcze trzykrotnie. W 1975 r. do obiegu trafiają peta- i exa-, w 1991 r. zetta- i yotta-, zaś w zeszłym roku dodano ronna- i quetta-. To odpowiednio 1027 i 1030. Istnieje robocza hipoteza, że informatyka ma coś z tym wspólnego, ponieważ wszystko nabrało tempa, kiedy w 1948 r. sformułowano pojęcie bitu, a w 1956 r. bajtu.


Porzućmy na moment przedrostki i dodajmy do naszej potrawy inne ingrediencje. Pewien weteran informatyki w finansach powiedział mi, że jeszcze 20 lat temu w bankach korzystano z kilkunastu, może kilkudziesięciu aplikacji. Były one dobrze wygrzane, zbudowane zgodnie z myślą architekta oprogramowania, starannie pielęgnowane i służyły przez długie lata bez oglądania się na technologiczne mody. Dzisiaj zaś, powiedział, w bankach jest kilkaset aplikacji, robi się je szybko i tanio przy każdej okazji, ale nikt nie przejmuje się ich zbyt dokładnymi testami, ponieważ z założenia równie szybko jak powstały, tak równie szybko znikną. Tylko nieliczne przetrwają próbę czasu i dotrwają do okresu dojrzałości, gdzieś za horyzontem wersji 3.0. Wydaje się, że nie jest to błąd ani uleganie trendom, tylko znak czasu. Tak się dzisiaj „robi informatykę”.


Teraz przeskoczmy do danych. Niektóre źródła podają, że ludzkość w ciągu ostatnich dwóch lat wytworzyła tyle danych co od początku istnienia cywilizacji. Prognozy mówią, że w 2025 r. będziemy zarządzali 180 ZB danych, czyli 180 miliardami petabajtów. Proces przyrostu może nawet przyspieszyć ze względu na popularyzację IoT i sztucznej inteligencji, z których pierwsze te dane produkuje, a drugie trzeba nimi karmić w ogromnych ilościach.


W charakterze przypraw możemy dodać, że low-code/no-code będzie zyskiwało na popularności, a zatem informatykiem stanie się każdy. Oznacza to rozrost wszelkich platform automatyzujących powstawanie aplikacji, pracę w rozproszonych zespołach, powielanie raz przygotowanego kodu. Dressingiem zaś będą politycy i prawnicy, którzy rzucą się na regulowanie ochrony, dokumentowania, zapobiegania, przeciwstawiania się, przechowywania, przetwarzania i kasowania, a szczególną opieką raczą otoczyć prawa obywatela i konsumenta. Wprawdzie czas tworzenia kodu znacząco się skróci, ale wypełnianie obowiązków informacyjnych, potwierdzanie przeczytania kolejnego regulaminu, akceptacja ciasteczek czy formularza oceny ryzyka wydłużą się w nieskończoność. Oczywiście wszystko dla naszego dobra lub dla dalszego dynamicznego rozwoju innowacyjności.


Wszystko to bardzo interesująco brzmi, ale ze strony zarządów usłyszymy banalne pytania: „gdzie ja zarabiam/oszczędzam pieniądze?” oraz „czy uzyskuję jakąś przewagę nad konkurencją?”. Trzeba powiedzieć, że to ostatnie pytanie nie jest nowym dylematem, bo już niemal 20 lat temu Nicholas Carr opublikował sławny artykuł „IT Doesn’t Matter”, gdzie wykazywał, że skoro każdy ma dostęp do tych samych narzędzi i podobnie zorganizował przetwarzanie danych, to informatyka przestaje mieć charakter przewagi konkurencyjnej. Krytyka tego artykułu wprawdzie wskazywała, że brak informatyki na pewno tworzy podstawy do porażki biznesowej, więc – chcąc nie chcąc – pieniądze trzeba wydać, ale... Pytanie jednak wróciło. Jak zatem odpowiedzieć naszym szefom i ich szefom, po co nam DevOpsy, AI czy inne roboty? Posłużmy się przykładem. Ciągle jeszcze opłaca się wydobywać lub płukać złoto tymi samymi metodami co w Klondike, choć szanse znalezienia obfitego złoża czy wielkiego samorodka nie są duże, a sam proces uciążliwy. Z drugiej strony wody oceanów skrywają około 20 mln ton złota wartego mniej więcej 40-krotność rocznego PKB USA. Rzecz w tym, że dotychczas nikt nie znalazł opłacalnego sposobu, by wydobyć choćby część szlachetnego metalu. To samo dotyczy quettabajtów danych, które tylko czekają na pozyskanie, analizę i przetworzenie. Zaś podczas poszukiwań złota ludzie wiele razy znajdowali coś znacznie bardziej cennego…

 

Michał Jaworski – autor od niepamiętnych czasów związany z polskim oddziałem firmy Microsoft.

prenumerata Numer niedostępny Spis treści

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik \"IT Professional\"