Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



14.08.2018

Zabezpieczenia prognostyczne

Sophos Email Security Advanced
10.08.2018

Polski Azure Stack...

Beyond.pl Data Center 2
07.08.2018

Zarządzanie urządzeniami...

Quest KACE Cloud MDM, KACE Systems Deployment Appliance (SDA)
03.08.2018

Multimodalny OS

SUSE Linux Enterprise 15
27.07.2018

Skalowalne all-flash

QSAN XCubeFAS XF2026D
24.07.2018

Interaktywne kioski

Pyramid Polytouch 32
20.07.2018

Laserowe benefity

Brother TonerBenefit
17.07.2018

Laptop konwertowalny

HP ProBook x360 440 G1
13.07.2018

Wiele kanałów komunikacji

Avaya IP Office

Artificial Intelligence – szanse i zagrożenia

Data publikacji: 29-05-2018 Autor: Marcin Szeliga
Autor: Rys. K. Kanoniak

Ostatnia dekada to czas bezprecedensowego rozwoju sztucznej inteligencji – nie tylko przełomowych badań nad algorytmami uczenia maszynowego, ale również coraz powszechniejszego stosowania inteligentnych maszyn w najróżniejszych dziedzinach naszego życia.

I  chociaż większość publikacji opisuje korzyści, jakie niesie ze sobą sztuczna inteligencja, coraz wyraźniej słychać pytania, czy jej rozwój nie jest za szybki i czy nie powinien być lepiej kontrolowany. Celem artykułu jest przedstawienie aktualnego stanu badań i wdrożeń sztucznej inteligencji, a także związanych z nimi korzyści i zagrożeń.


Na początek krótka historia sztucznej inteligencji. Tak jak większość technologii, SI rozwijała się w cyklach – po okresie sukcesów i związanego z nimi optymizmu przychodził moment zastoju i pesymizmu. Pierwsza fala rozwoju sztucznej inteligencji przypada na lata 60. XX wieku. W roku 1950 Alan Turing zaproponował test pozwalający ocenić inteligencję maszyny na podstawie tego, czy zachowuje się ona w sposób nieodróżnialny od człowieka. Sześć lat później na konferencji zorganizowanej przez Marvina Minsky'ego, Johna McCarthy’ego, Claude'a Shannona i Nathana Rochestera przyjęty został termin „sztuczna inteligencja” i rozpoczął się pierwszy okres rozwoju tej nowej dziedziny nauki. To wtedy opracowane zostały pierwsze wersje takich algorytmów uczenia maszynowego jak drzewa decyzyjne, sztuczne sieci neuronowe oraz sposób ich uczenia metodą najszybszego spadku gradientu.

Rozczarowanie wynikające między innymi z niespełnienia nadmiernie optymistycznych zapowiedzi przyszło w roku 1974. Nie tylko systemy sztucznej inteligencji nie znalazły praktycznych zastosowań (czego powodem była niewystarczająca moc obliczeniowa ówczesnych komputerów), ale również pojawiły się poważne teoretyczne wątpliwości co do możliwości rozwiązywania przez nie różnych zadań, bez konieczności przygotowywania danych treningowych indywidualnie dla każdego z tych problemów.

Drugą falę sztucznej inteligencji, przypadającą na lata 1980–1987, zawdzięczamy nadziejom pokładanym w systemach eksperckich – systemach, które automatycznie uczyły się rozwiązywać problemy na podstawie podanych reguł. Do działania wymagały one specjalistycznych, drogich i kosztownych w utrzymaniu komputerów, co przyczyniło się do drugiego kryzysu sztucznej inteligencji.

Kryzys ten udało się przezwyciężyć w roku 1993, demonstrując praktyczne zastosowania systemów eksperckich działających już na standardowych, choć wielokrotnie szybszych od typowych serwerów, komputerach. Największym sukcesem systemów eksperckich było pokonanie w 1997 roku przez system Deep Blue Garriego Kasparowa – ówczesnego mistrza świata – w rewanżowym meczu szachowym 3½ do 2½ (pierwszy, rozegrany rok wcześniej mecz Kasparow wygrał z poprzednią wersją komputera Deep Blue 4 do 2).

Uczenie komputerów reguł postępowania okazało się jednak niesłychanie skomplikowane. Gra w szachy rządzi się niewielką liczbą dobrze ustalonych i niezmiennych reguł, więc Deep Blue, analizując 200 milionów pozycji na sekundę, był w stanie sprawdzić wszystkie możliwe kombinacje kilkunastu kolejnych ruchów. Takie podejście nie pozwalało jednak rozwiązywać problemów rządzących się bardziej skomplikowanymi, a tym bardziej nieznanymi, regułami.


W tym samym roku gdy Deep Blue wygrał z Kasparowem, Tom Mitchell wydał książkę zatytułowaną „Machine Learning”, w której podał definicję uczenia maszynowego: „Program komputerowy uczy się z doświadczenia E w odniesieniu do pewnej klasy zadań T i miary wydajności P, jeśli jego skuteczność w zadaniach w T, mierzona wydajnością P, poprawia się wraz z doświadczeniem E.”. Szybko okazało się, że podejście polegające na tym, że to komputer sam ma znaleźć sposób rozwiązywania problemów na podstawie danych historycznych, pozwala tworzyć systemy sztucznej inteligencji mające zastosowanie w wielu dziedzinach życia. Rozpoczęła się czwarta fala rozwoju sztucznej inteligencji – etap uczenia maszynowego. Wiele używanych dzisiaj systemów sztucznej inteligencji należy do tej właśnie kategorii: są to np. systemy wykrywające próby oszustwa przy użyciu kart kredytowych, systemy rekomendujące klientom produkty czy systemy oceniające ryzyko odejścia klienta do konkurencji, czyli systemy uczące się z wykorzystaniem takich algorytmów jak las drzew decyzyjnych, maszyna wektorów nośnych, regresja logistyczna czy sieci neuronowe.

[...]

Pracownik naukowy Wyższej Szkoły Bankowej w Poznaniu Wydział Zamiejscowy w Chorzowie, jest autorem książek poświęconych analizie danych i posiada tytuł Microsoft Most Valuable Professional.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2013 Presscom / Miesięcznik "IT Professional"