Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



07.06.2022

Red Hat Enterprise Linux 9

Red Hat zaprezentował system operacyjny Red Hat Enterprise Linux 9 (RHEL 9)...
07.06.2022

Technologiczna piaskownica

Koalicja partnerów KIR, IBM, Chmura Krajowa, PKO Bank Polski, Urząd Komisji Nadzoru...
07.06.2022

Sztuczna inteligencja w...

OVHcloud wprowadziło na rynek AI Notebooks – najnowszy element w ofercie usług...
07.06.2022

Spójna ochrona brzegu sieci

Fortinet zaprezentował FortiOS 7.2 – najnowszą wersję swojego flagowego systemu...
07.06.2022

Zarządzanie transferem

Firma Progress wypuściła nową wersję oprogramowania do zarządzania transferem plików...
07.06.2022

Notebook ekstremalny

Panasonic przedstawił 14-calowy Toughbook 40, notebook do pracy w ekstremalnych...
07.06.2022

Zestaw startowy dla robotyki

Firma AMD przedstawiła najnowszy produkt w portfolio adaptacyjnych modułów SOM...
07.06.2022

Precyzja kadrowania

Najnowsze rozwiązania klasy pro firmy Poly mają sprostać zmieniającym się potrzebom...
07.06.2022

Serwer klasy korporacyjnej

QNAP zaprezentował nowy model serwera NAS, TS-h1886XU-RP R2, który działa na systemie...

Uczenie maszynowe oraz sztuczna inteligencja

Data publikacji: 27-08-2020 Autor: Bartosz Jussak

Uznaje się, że eksploracja tekstów i danych jest jedną z najważniejszych technik wydobywania wartości z ogromnej ilości informacji. Odgrywa ona kluczową rolę w efektywnym korzystaniu z big data. Technika jest łączona obecnie z tematyką uczenia maszynowego oraz sztucznej inteligencji. Zagadnienia te są stopniowo obudowywane normami prawnymi.

 

Przez pojęcie big data najczęściej rozumiane są duże zbiory danych, którymi nie można zarządzać za pomocą czysto ludzkich analiz. Zazwyczaj oznacza to, że zbiór danych jest opracowywany i utrzymywany zgodnie z 3 literami V: Volume – objętość, Various sources – zróżnicowane źródła oraz high Velocity data updates – szybkie aktualizowanie danych (bit.ly/2XL2RSl). Najczęściej eksploracja tekstów i danych (ang. text and data mining – dalej oznaczone jako TDM) jest opisywana jako proces polegający na analizowaniu danych (powiązany często z pobraniem tych danych) znajdujących się w dużych, nieustrukturyzowanych źródłach i odkrywaniu w  nich wzorców i zależności, które pozwalają wydobyć potrzebne (wartościowe) informacje. Przegląd definicji znajduje się w dokumencie „Study on the legal framework of text and data mining (TDM)”: bit.ly/3kv6KV6. Techniki TDM są wykorzystywane zarówno w ramach prowadzenia badań naukowych, jak i czysto biznesowo.


Coraz doskonalsze techniki eksploracji tekstów i danych są odpowiedzią w szczególności na potrzeby dzisiejszej gospodarki, której duża część opiera się na przetwarzaniu danych. Na poziomie UE wskazuje się, że: „[w] 2014 roku wartość unijnej gospodarki opartej na danych oszacowano na 257 mld euro, czyli 1,85% unijnego PKB. W 2015 roku liczba ta wzrosła do 272 mld euro, czyli 1,87% unijnego PKB (wzrost o 5,6% w porównaniu z rokiem poprzednim). Według tej samej prognozy, jeśli w odpowiednim czasie zostaną stworzone ramy prawne dla funkcjonowania gospodarki opartej na danych, jej wartość w 2020 roku wzrośnie do 643 mld euro, czyli 3,17% całkowitego PKB Unii Europejskiej” (Komunikat Komisji Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów „Budowa Europejskiej Gospodarki Opartej Na Danych”, s. 1 – bit.ly/3fE4cQQ).


> TDM, ML oraz AI


Dla poznania szerszego kontekstu warto przyjrzeć się od razu różnicom w postrzeganiu TDM, uczenia maszynowego (machine learning – dalej jako „ML”) oraz sztucznej inteligencji (artificial intelligence – dalej jako AI). TDM skupia się na odkrywaniu relacji pomiędzy dwiema lub więcej zmiennymi w zbiorze danych i wyodrębnianiu użytecznych spostrzeżeń (wzorców). Dane są przeglądane pod kątem wzorców, a następnie stosowane są kryteria do określenia najczęstszych i najważniejszych relacji. TDM wykorzystuje informacje wejściowe do wydobycia użytecznej informacji na dany moment czasowy, a więc nie na bieżąco (bit.ly/30G8mDC). W przeciwieństwie do „zwykłej” eksploracji danych w ML maszyna automatycznie uczy się parametrów modeli z danych. Uczenie maszynowe wykorzystuje samouczące się algorytmy poprawiające ich wydajność w zadaniu wraz z nabywaniem doświadczenia w czasie. Dzięki uczeniu maszynowemu program komputerowy potrafi działać bez konieczności tworzenia kodu programistycznego w formie poleceń typu „jeśli–to” (IF THEN). Program może w rezultacie samodzielnie znajdować rozwiązania problemów, które opisane są przetwarzanymi danymi (T. Zalewski, „Definicja sztucznej inteligencji” w: Prawo sztucznej inteligencji, red. Luigi Lai, prof. UKSW dr hab. Marek Świerczyński, Legalis, 2020). ML sprawdza się przy przekazywaniu informacji zwrotnych niemal w czasie rzeczywistym. Wyróżnia się w tym kontekście najczęściej 3 rodzaje algorytmów używanych do analizowania danych: uczenie nadzorowane, uczenie nienadzorowane oraz uczenie się ze wzmocnieniem.


Uczenie nadzorowane to rodzaj uczenia, w którym zarówno dane wejściowe, jak i pożądane dane wyjściowe są zapewniane przez człowieka, a maszyna musi nauczyć się, jak połączyć te dane między sobą. Dla osiągnięcia tego maszyna jest szkolona w oparciu o statystycznie reprezentatywny zbiór danych wejściowych i korespondujących z nimi danych wyjściowych. Po stronie zalet takiego systemu można wskazać, że może być on lepiej kontrolowany, a precyzyjność zwykle wzrasta wraz z dostarczonymi przykładami lub próbkami. Jako wadę należy zaznaczyć konieczność odpowiedniego oznaczania przykładów lub wzorców, tak żeby mogły zostać użyte do treningu (co może być czasochłonne i ograniczyć skalowalność projektu/działalności).

 

[...]

 

Radca prawny w Kancelarii Barta&Kaliński sp.j. Specjalizuje się w projektach związanych z prawem nowych technologii, prawem własności intelektualnej oraz ochroną danych osobowych.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"