Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



19.10.2018

4K, HDR i USB-C

Philips 328P6VUBREB
16.10.2018

Pełna optymalizacja

Quest Foglight for Virtualization Enterprise 8.8 (FVE)
12.10.2018

Linux w chmurze Azure

SUSE Linux Enterprise 15 / Microsoft Azure
09.10.2018

Nowe antywirusy

Bitdefender 2019
03.10.2018

Niezawodny tandem

Veeam Hyper-Availability Platform i Cisco HyperFlex
26.09.2018

Zarządzane z chmury

NETGEAR GC752X(P)
21.09.2018

Kolor razy 6

Kyocera ECOSYS i TASKalfa
18.09.2018

Na ataki piątej generacji

Check Point 23900
14.09.2018

UHD dla pro

Samsung UJ59

Artificial Intelligence – szanse i zagrożenia

Data publikacji: 29-05-2018 Autor: Marcin Szeliga
Autor: Rys. K. Kanoniak

Ostatnia dekada to czas bezprecedensowego rozwoju sztucznej inteligencji – nie tylko przełomowych badań nad algorytmami uczenia maszynowego, ale również coraz powszechniejszego stosowania inteligentnych maszyn w najróżniejszych dziedzinach naszego życia.

I  chociaż większość publikacji opisuje korzyści, jakie niesie ze sobą sztuczna inteligencja, coraz wyraźniej słychać pytania, czy jej rozwój nie jest za szybki i czy nie powinien być lepiej kontrolowany. Celem artykułu jest przedstawienie aktualnego stanu badań i wdrożeń sztucznej inteligencji, a także związanych z nimi korzyści i zagrożeń.


Na początek krótka historia sztucznej inteligencji. Tak jak większość technologii, SI rozwijała się w cyklach – po okresie sukcesów i związanego z nimi optymizmu przychodził moment zastoju i pesymizmu. Pierwsza fala rozwoju sztucznej inteligencji przypada na lata 60. XX wieku. W roku 1950 Alan Turing zaproponował test pozwalający ocenić inteligencję maszyny na podstawie tego, czy zachowuje się ona w sposób nieodróżnialny od człowieka. Sześć lat później na konferencji zorganizowanej przez Marvina Minsky'ego, Johna McCarthy’ego, Claude'a Shannona i Nathana Rochestera przyjęty został termin „sztuczna inteligencja” i rozpoczął się pierwszy okres rozwoju tej nowej dziedziny nauki. To wtedy opracowane zostały pierwsze wersje takich algorytmów uczenia maszynowego jak drzewa decyzyjne, sztuczne sieci neuronowe oraz sposób ich uczenia metodą najszybszego spadku gradientu.

Rozczarowanie wynikające między innymi z niespełnienia nadmiernie optymistycznych zapowiedzi przyszło w roku 1974. Nie tylko systemy sztucznej inteligencji nie znalazły praktycznych zastosowań (czego powodem była niewystarczająca moc obliczeniowa ówczesnych komputerów), ale również pojawiły się poważne teoretyczne wątpliwości co do możliwości rozwiązywania przez nie różnych zadań, bez konieczności przygotowywania danych treningowych indywidualnie dla każdego z tych problemów.

Drugą falę sztucznej inteligencji, przypadającą na lata 1980–1987, zawdzięczamy nadziejom pokładanym w systemach eksperckich – systemach, które automatycznie uczyły się rozwiązywać problemy na podstawie podanych reguł. Do działania wymagały one specjalistycznych, drogich i kosztownych w utrzymaniu komputerów, co przyczyniło się do drugiego kryzysu sztucznej inteligencji.

Kryzys ten udało się przezwyciężyć w roku 1993, demonstrując praktyczne zastosowania systemów eksperckich działających już na standardowych, choć wielokrotnie szybszych od typowych serwerów, komputerach. Największym sukcesem systemów eksperckich było pokonanie w 1997 roku przez system Deep Blue Garriego Kasparowa – ówczesnego mistrza świata – w rewanżowym meczu szachowym 3½ do 2½ (pierwszy, rozegrany rok wcześniej mecz Kasparow wygrał z poprzednią wersją komputera Deep Blue 4 do 2).

Uczenie komputerów reguł postępowania okazało się jednak niesłychanie skomplikowane. Gra w szachy rządzi się niewielką liczbą dobrze ustalonych i niezmiennych reguł, więc Deep Blue, analizując 200 milionów pozycji na sekundę, był w stanie sprawdzić wszystkie możliwe kombinacje kilkunastu kolejnych ruchów. Takie podejście nie pozwalało jednak rozwiązywać problemów rządzących się bardziej skomplikowanymi, a tym bardziej nieznanymi, regułami.


W tym samym roku gdy Deep Blue wygrał z Kasparowem, Tom Mitchell wydał książkę zatytułowaną „Machine Learning”, w której podał definicję uczenia maszynowego: „Program komputerowy uczy się z doświadczenia E w odniesieniu do pewnej klasy zadań T i miary wydajności P, jeśli jego skuteczność w zadaniach w T, mierzona wydajnością P, poprawia się wraz z doświadczeniem E.”. Szybko okazało się, że podejście polegające na tym, że to komputer sam ma znaleźć sposób rozwiązywania problemów na podstawie danych historycznych, pozwala tworzyć systemy sztucznej inteligencji mające zastosowanie w wielu dziedzinach życia. Rozpoczęła się czwarta fala rozwoju sztucznej inteligencji – etap uczenia maszynowego. Wiele używanych dzisiaj systemów sztucznej inteligencji należy do tej właśnie kategorii: są to np. systemy wykrywające próby oszustwa przy użyciu kart kredytowych, systemy rekomendujące klientom produkty czy systemy oceniające ryzyko odejścia klienta do konkurencji, czyli systemy uczące się z wykorzystaniem takich algorytmów jak las drzew decyzyjnych, maszyna wektorów nośnych, regresja logistyczna czy sieci neuronowe.

[...]

Pracownik naukowy Wyższej Szkoły Bankowej w Poznaniu Wydział Zamiejscowy w Chorzowie, jest autorem książek poświęconych analizie danych i posiada tytuł Microsoft Most Valuable Professional.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"