Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.


31.12.2020

Cykl webinarów

weinnovators.club
30.12.2020

Integracja z Teams

Veeam Backup
30.12.2020

Namierzanie zagrożeń

Flowmon Networks i Fortinet
30.12.2020

Wsparcie dla przedsiębiorstw

VMware Cloud on AWS
29.12.2020

Nowe NAS-y Thunderbolt 3

QNAP QuTS TVS-h1288X i TVS-h1688X
29.12.2020

Modele kompaktowe

VPL-PHZ60 i VPL-PHZ50
28.12.2020

Dedykowane przemysłowi

Seria TJ
28.12.2020

Nowa generacja

Router QHora-301W

Uczenie maszynowe oraz sztuczna inteligencja

Data publikacji: 27-08-2020 Autor: Bartosz Jussak

Uznaje się, że eksploracja tekstów i danych jest jedną z najważniejszych technik wydobywania wartości z ogromnej ilości informacji. Odgrywa ona kluczową rolę w efektywnym korzystaniu z big data. Technika jest łączona obecnie z tematyką uczenia maszynowego oraz sztucznej inteligencji. Zagadnienia te są stopniowo obudowywane normami prawnymi.

 

Przez pojęcie big data najczęściej rozumiane są duże zbiory danych, którymi nie można zarządzać za pomocą czysto ludzkich analiz. Zazwyczaj oznacza to, że zbiór danych jest opracowywany i utrzymywany zgodnie z 3 literami V: Volume – objętość, Various sources – zróżnicowane źródła oraz high Velocity data updates – szybkie aktualizowanie danych (bit.ly/2XL2RSl). Najczęściej eksploracja tekstów i danych (ang. text and data mining – dalej oznaczone jako TDM) jest opisywana jako proces polegający na analizowaniu danych (powiązany często z pobraniem tych danych) znajdujących się w dużych, nieustrukturyzowanych źródłach i odkrywaniu w  nich wzorców i zależności, które pozwalają wydobyć potrzebne (wartościowe) informacje. Przegląd definicji znajduje się w dokumencie „Study on the legal framework of text and data mining (TDM)”: bit.ly/3kv6KV6. Techniki TDM są wykorzystywane zarówno w ramach prowadzenia badań naukowych, jak i czysto biznesowo.


Coraz doskonalsze techniki eksploracji tekstów i danych są odpowiedzią w szczególności na potrzeby dzisiejszej gospodarki, której duża część opiera się na przetwarzaniu danych. Na poziomie UE wskazuje się, że: „[w] 2014 roku wartość unijnej gospodarki opartej na danych oszacowano na 257 mld euro, czyli 1,85% unijnego PKB. W 2015 roku liczba ta wzrosła do 272 mld euro, czyli 1,87% unijnego PKB (wzrost o 5,6% w porównaniu z rokiem poprzednim). Według tej samej prognozy, jeśli w odpowiednim czasie zostaną stworzone ramy prawne dla funkcjonowania gospodarki opartej na danych, jej wartość w 2020 roku wzrośnie do 643 mld euro, czyli 3,17% całkowitego PKB Unii Europejskiej” (Komunikat Komisji Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów „Budowa Europejskiej Gospodarki Opartej Na Danych”, s. 1 – bit.ly/3fE4cQQ).


> TDM, ML oraz AI


Dla poznania szerszego kontekstu warto przyjrzeć się od razu różnicom w postrzeganiu TDM, uczenia maszynowego (machine learning – dalej jako „ML”) oraz sztucznej inteligencji (artificial intelligence – dalej jako AI). TDM skupia się na odkrywaniu relacji pomiędzy dwiema lub więcej zmiennymi w zbiorze danych i wyodrębnianiu użytecznych spostrzeżeń (wzorców). Dane są przeglądane pod kątem wzorców, a następnie stosowane są kryteria do określenia najczęstszych i najważniejszych relacji. TDM wykorzystuje informacje wejściowe do wydobycia użytecznej informacji na dany moment czasowy, a więc nie na bieżąco (bit.ly/30G8mDC). W przeciwieństwie do „zwykłej” eksploracji danych w ML maszyna automatycznie uczy się parametrów modeli z danych. Uczenie maszynowe wykorzystuje samouczące się algorytmy poprawiające ich wydajność w zadaniu wraz z nabywaniem doświadczenia w czasie. Dzięki uczeniu maszynowemu program komputerowy potrafi działać bez konieczności tworzenia kodu programistycznego w formie poleceń typu „jeśli–to” (IF THEN). Program może w rezultacie samodzielnie znajdować rozwiązania problemów, które opisane są przetwarzanymi danymi (T. Zalewski, „Definicja sztucznej inteligencji” w: Prawo sztucznej inteligencji, red. Luigi Lai, prof. UKSW dr hab. Marek Świerczyński, Legalis, 2020). ML sprawdza się przy przekazywaniu informacji zwrotnych niemal w czasie rzeczywistym. Wyróżnia się w tym kontekście najczęściej 3 rodzaje algorytmów używanych do analizowania danych: uczenie nadzorowane, uczenie nienadzorowane oraz uczenie się ze wzmocnieniem.


Uczenie nadzorowane to rodzaj uczenia, w którym zarówno dane wejściowe, jak i pożądane dane wyjściowe są zapewniane przez człowieka, a maszyna musi nauczyć się, jak połączyć te dane między sobą. Dla osiągnięcia tego maszyna jest szkolona w oparciu o statystycznie reprezentatywny zbiór danych wejściowych i korespondujących z nimi danych wyjściowych. Po stronie zalet takiego systemu można wskazać, że może być on lepiej kontrolowany, a precyzyjność zwykle wzrasta wraz z dostarczonymi przykładami lub próbkami. Jako wadę należy zaznaczyć konieczność odpowiedniego oznaczania przykładów lub wzorców, tak żeby mogły zostać użyte do treningu (co może być czasochłonne i ograniczyć skalowalność projektu/działalności).

 

[...]

 

Radca prawny w Kancelarii Barta&Kaliński sp.j. Specjalizuje się w projektach związanych z prawem nowych technologii, prawem własności intelektualnej oraz ochroną danych osobowych.

Artykuł pochodzi z miesięcznika: IT Professional

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"