Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.


26.10.2020

Nowa wersja nVision

Można już pobierać nową wersję nVision
26.10.2020

Monitorowanie infrastruktury

Vertiv Environet Alert
23.10.2020

Telefonia w chmurze

NFON Cloudya
23.10.2020

Nowości w EDR

Bitdefender GravityZone
23.10.2020

Wykrywanie anomalii

Flowmon ADS11
23.10.2020

Mobilny monitor

AOC 16T2
22.10.2020

HP Pavilion

HP zaprezentowało nowe laptopy z linii Pavilion.
22.10.2020

Inteligentny monitoring

WD Purple SC QD101
22.10.2020

Przełącznik 2,5GbE

QNAP QSW-1105-5T

Uczenie maszynowe oraz sztuczna inteligencja

Data publikacji: 27-08-2020 Autor: Bartosz Jussak

Uznaje się, że eksploracja tekstów i danych jest jedną z najważniejszych technik wydobywania wartości z ogromnej ilości informacji. Odgrywa ona kluczową rolę w efektywnym korzystaniu z big data. Technika jest łączona obecnie z tematyką uczenia maszynowego oraz sztucznej inteligencji. Zagadnienia te są stopniowo obudowywane normami prawnymi.

 

Przez pojęcie big data najczęściej rozumiane są duże zbiory danych, którymi nie można zarządzać za pomocą czysto ludzkich analiz. Zazwyczaj oznacza to, że zbiór danych jest opracowywany i utrzymywany zgodnie z 3 literami V: Volume – objętość, Various sources – zróżnicowane źródła oraz high Velocity data updates – szybkie aktualizowanie danych (bit.ly/2XL2RSl). Najczęściej eksploracja tekstów i danych (ang. text and data mining – dalej oznaczone jako TDM) jest opisywana jako proces polegający na analizowaniu danych (powiązany często z pobraniem tych danych) znajdujących się w dużych, nieustrukturyzowanych źródłach i odkrywaniu w  nich wzorców i zależności, które pozwalają wydobyć potrzebne (wartościowe) informacje. Przegląd definicji znajduje się w dokumencie „Study on the legal framework of text and data mining (TDM)”: bit.ly/3kv6KV6. Techniki TDM są wykorzystywane zarówno w ramach prowadzenia badań naukowych, jak i czysto biznesowo.


Coraz doskonalsze techniki eksploracji tekstów i danych są odpowiedzią w szczególności na potrzeby dzisiejszej gospodarki, której duża część opiera się na przetwarzaniu danych. Na poziomie UE wskazuje się, że: „[w] 2014 roku wartość unijnej gospodarki opartej na danych oszacowano na 257 mld euro, czyli 1,85% unijnego PKB. W 2015 roku liczba ta wzrosła do 272 mld euro, czyli 1,87% unijnego PKB (wzrost o 5,6% w porównaniu z rokiem poprzednim). Według tej samej prognozy, jeśli w odpowiednim czasie zostaną stworzone ramy prawne dla funkcjonowania gospodarki opartej na danych, jej wartość w 2020 roku wzrośnie do 643 mld euro, czyli 3,17% całkowitego PKB Unii Europejskiej” (Komunikat Komisji Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów „Budowa Europejskiej Gospodarki Opartej Na Danych”, s. 1 – bit.ly/3fE4cQQ).


> TDM, ML oraz AI


Dla poznania szerszego kontekstu warto przyjrzeć się od razu różnicom w postrzeganiu TDM, uczenia maszynowego (machine learning – dalej jako „ML”) oraz sztucznej inteligencji (artificial intelligence – dalej jako AI). TDM skupia się na odkrywaniu relacji pomiędzy dwiema lub więcej zmiennymi w zbiorze danych i wyodrębnianiu użytecznych spostrzeżeń (wzorców). Dane są przeglądane pod kątem wzorców, a następnie stosowane są kryteria do określenia najczęstszych i najważniejszych relacji. TDM wykorzystuje informacje wejściowe do wydobycia użytecznej informacji na dany moment czasowy, a więc nie na bieżąco (bit.ly/30G8mDC). W przeciwieństwie do „zwykłej” eksploracji danych w ML maszyna automatycznie uczy się parametrów modeli z danych. Uczenie maszynowe wykorzystuje samouczące się algorytmy poprawiające ich wydajność w zadaniu wraz z nabywaniem doświadczenia w czasie. Dzięki uczeniu maszynowemu program komputerowy potrafi działać bez konieczności tworzenia kodu programistycznego w formie poleceń typu „jeśli–to” (IF THEN). Program może w rezultacie samodzielnie znajdować rozwiązania problemów, które opisane są przetwarzanymi danymi (T. Zalewski, „Definicja sztucznej inteligencji” w: Prawo sztucznej inteligencji, red. Luigi Lai, prof. UKSW dr hab. Marek Świerczyński, Legalis, 2020). ML sprawdza się przy przekazywaniu informacji zwrotnych niemal w czasie rzeczywistym. Wyróżnia się w tym kontekście najczęściej 3 rodzaje algorytmów używanych do analizowania danych: uczenie nadzorowane, uczenie nienadzorowane oraz uczenie się ze wzmocnieniem.


Uczenie nadzorowane to rodzaj uczenia, w którym zarówno dane wejściowe, jak i pożądane dane wyjściowe są zapewniane przez człowieka, a maszyna musi nauczyć się, jak połączyć te dane między sobą. Dla osiągnięcia tego maszyna jest szkolona w oparciu o statystycznie reprezentatywny zbiór danych wejściowych i korespondujących z nimi danych wyjściowych. Po stronie zalet takiego systemu można wskazać, że może być on lepiej kontrolowany, a precyzyjność zwykle wzrasta wraz z dostarczonymi przykładami lub próbkami. Jako wadę należy zaznaczyć konieczność odpowiedniego oznaczania przykładów lub wzorców, tak żeby mogły zostać użyte do treningu (co może być czasochłonne i ograniczyć skalowalność projektu/działalności).

 

[...]

 

Radca prawny w Kancelarii Barta&Kaliński sp.j. Specjalizuje się w projektach związanych z prawem nowych technologii, prawem własności intelektualnej oraz ochroną danych osobowych.

Artykuł pochodzi z miesięcznika: IT Professional

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"