Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



23.05.2019

Wzmocniony model

Panasonic Toughbook FZ-N1
23.05.2019

Szybsze sieci

D-Link Smart Mesh Wi-Fi AC1900/AC2600/AC3000
23.05.2019

Curved 4K

Samsung LU32R590
14.05.2019

Bezpłatna konferencja OSEC...

Jako patron medialny serdecznie zapraszamy na bezpłatną konferencję OSEC Forum 2019, któa...
23.04.2019

Optymalizacja zużycia chmury

HPE GreenLake Hybrid Cloud
23.04.2019

Zarządzanie wydajnością

VMware vRealize Operations 7.5
19.04.2019

Technologie open source

SUSECON 2019
19.04.2019

Wyjątkowo małe

OKI seria C800
19.04.2019

Łatwy montaż

Rittal AX i KX

Modelator danych

Data publikacji: 18-04-2019 Autor: Michał Jaworski

Modelator to zgodnie ze słownikiem PWN specjalista odpowiedzialny za dekoracje i rekwizyty teatralne. Ktoś, kto przygotowuje scenę pod przyszłe widowisko. Podobnie jak ktoś, kto przygotuje dane pod przyszłe zastosowania AI.

 

Nie przekonuje mnie zwrot „data scientist” na określenie osoby, która zajmuje się analizą danych lub ich doborem do zastosowań AI. W ciągu najbliższych miesięcy i lat technologie sztucznej inteligencji będą ulegać demokratyzacji (czy też komodytyzacji, co kto lubi). Będą z nich korzystać wszyscy – zarówno osoby przygotowane akademicko, jak i te po krótkich szkoleniach i kursach online. Dopisywanie im tytułu naukowca będzie mocno na wyrost. Osoba, która sprawnie posługuje się Excelem, nie jest uczonym. Określenie „modelarz” przywodzi na myśl hobbystę, modeler wygląda na urządzenie elektroniczne, model i modelka mogą zaś pojawić się na pokazie mody. Zostańmy więc przy modelatorze, który również formę żeńską ma przyjemną dla ucha, a nuż się przyjmie? Nie mam wątpliwości, że przyszli modelatorzy nabroją tyle, że głupota sztucznej inteligencji powali nas ze śmiechu. Z drugiej strony ich zdrowy rozsądek może zatrzymać działania ludzi bezkrytycznie ufających wynikom serwowanym przez maszyny.

Zacznijmy od przykładu, którego bohaterem był Abraham Wald. W czasie drugiej wojny światowej lotnictwo amerykańskie ponosiło ciężkie straty w wyniku ostrzału niemieckiej obrony. Zebrano więc dane i określono, w których miejscach samolotów jest najwięcej przestrzelin. Obraz był stosunkowo jasny – kadłub płatowca obrywał niemal dwa razy częściej niż inne części aeroplanu, więc konieczność jego wzmocnienia narzucała się natychmiast. Decyzja już prawie zapadła, kiedy do akcji wkroczył Wald i wskazał zasadniczy błąd w analizie danych. Chodziło o to, że badane były jedynie te samoloty, które wróciły do bazy! Jego spostrzeżenie prowadziło więc do zgoła odmiennych wniosków – skoro nawet tak ciężko uszkodzone samoloty wracały z akcji, to znaczy, że akurat tych ich części kadłuba wzmacniać nie trzeba. Skoncentrować się natomiast należy na osłonach silników, których uszkodzenie kończyło się utratą samolotu. Ważne więc było nie to, co rzucało się w oczy, ale to, czego nie widać. W tym momencie przypomina mi się dialog inspektora Gregory’ego z Sherlockiem Holmesem: – Czy chciałby pan jeszcze na coś zwrócić moją uwagę? – Hmm, dziwne zachowanie psa w nocy. – Pies niczego nie zrobił nocą… – Właśnie to jest dziwne!

Oczywiście kiedy używane są tak proste modele jak opisany powyżej, wystarczy odrobina zdrowego rozsądku i nieco inny punkt widzenia, aby postawić właściwą diagnozę. Będą jednak również sytuacje bardziej złożone. Klasycznym przykładem były badania nad sposobem traktowania w szpitalach pacjentów z zapaleniem płuc, prowadzone niemal 30 lat temu przez Richa Caruana. Sieć neuronowa potrafiła prawidłowo wskazać, którego pacjenta należy koniecznie zostawić w szpitalu (aż 10% przypadków może skończyć się śmiercią, więc zagrożenie jest wysokie!), a którego można wcześniej wysłać do domu. Wskazania algorytmu były równie dobre jak decyzje lekarzy. Ale… okazało się, że system całkowicie zawodzi, jeśli pacjenci jednocześnie chorowali na astmę i zapalenie płuc lub mieli inne poważne dolegliwości. System twierdził, że osoby z takimi problemami są pacjentami niższego ryzyka, wysyłał ich do domu, kiedy w rzeczywistości powinni byli zostać w szpitalu! Maszyna proponowała jednocześnie bardzo dobre i bardzo złe rozwiązania! Projekt wstrzymano. Co było nie tak? Wpiszcie w wyszukiwarkę „Rich Caruana pneumonia” i posłuchajcie samego początku jego wykładu na Allen Institute for Artificial Intelligence. Warto!

W obu przypadkach mamy do czynienia z osobami, wobec których określenie „data scientist” jest całkowicie uzasadnione. Modelatorzy danych, którzy będą nas otaczać, w znaczącej większości tacy nie będą, mimo to będą dekorować scenę, na której AI odegra swoje przedstawienie. Systemy sztucznej inteligencji będą odrzucały aplikacje o wizy, odmawiały kredytów, naliczały wyższe stawki ubezpieczeniowe. Mogą spowodować, że ktoś nie otrzyma pracy, a ktoś inny zostanie wysłany na badania niemające żadnego związku z jego stanem zdrowia. Część sytuacji będzie zabawna, część obróci się przeciw firmom nieumiejętnie korzystającym z AI, jeszcze inne będą podstawą do powstawania nowych regulacji prawnych. Może więc nie warto pochopnie ograniczać liczby lekcji matematyki i fizyki w szkołach?


Michał Jaworski – autor jest członkiem Rady Polskiej Izby Informatyki i Telekomunikacji. Pracuje od ponad dwudziestu lat w polskim oddziale firmy Microsoft.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"