Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



26.05.2020

Cloud Native Universe

Jako patron medialny zapraszamy programistów wdrażających lub integrujących się z dowolną...
26.03.2020

Koniec certyfikatów...

MCSA, MCSD i MCSA
26.03.2020

Odświeżony OS

FortiOS 6.4
26.03.2020

Bezpieczeństwo w chmurze

Cisco SecureX
26.03.2020

Modernizacja IT

Nowości w VMware Tanzu
26.03.2020

Krytyczne zagrożenie dla...

Nowa groźna podatność
26.03.2020

Laptopy dla wymagających

Nowe ThinkPady T, X i L
26.03.2020

Serwerowe ARM-y

Ampere Altra
26.03.2020

Energooszczędny monitor

Philips 243B1

Czy nadążymy za rozwojem inteligentnych technologii?

Data publikacji: 22-01-2020 Autor: Magdalena Ziemba
Niewątpliwie urządzenia stają się coraz inteligentniejsze. Ale czy my dotrzymujemy kroku postępowi technologicznemu, aby maksymalnie czerpać korzyści z tych urządzeń, nie ponosząc konsekwencji? Między innymi tę kwestię rozważali eksperci z firmy ESET w raporcie „Cybersecurity Trends 2020: Technology is getting smarter – are we?”.
 
Badacze z firmy ESET przedstawili prognozę pięciu aspektów bezpieczeństwa cybernetycznego, które być może okażą się kluczowymi wyzwaniami w 2020 r. Z jednej strony zauważyli oni sygnały, że coraz więcej osób docenia znaczenie cyberbezpieczeństwa i potrzebę odgrywania przez niego większej roli w przyszłości. Z drugiej – eksperci są pewni, że biorąc pod uwagę to, co wydarzyło się w 2019 r., cyberbezpieczeństwo będzie nadal postrzegane jako kwestia drugorzędna, jeśli chodzi o rozwój technologiczny. Skutki tego będą widoczne już w niedalekiej perspektywie.
 
1. ROZPOWSZECHNIANIE SIĘ FAKE NEWSÓW
 
Pojęcie „fake news” stało się popularne w 2016 r. wraz z wyborami prezydenckimi w USA oraz twierdzeniami kandydatów, że artykuły pojawiające się w mediach nie są prawdziwe. Istnieją przypuszczenia, że cyberprzestępcy ingerowali w światowe procesy demokratyczne dla własnych korzyści również w trakcie referendum w sprawie brexitu, a w Ameryce Południowej dezinformacja rozprzestrzeniająca się przez WhatsAppa prawdopodobnie wpłynęła na wynik wyborów w Brazylii.
 
Zdaniem ekspertów z firmy ESET fałszywe wiadomości mogą odgrywać istotną rolę również w licznych wyborach na całym świecie w 2020 r. Niektóre sieci społecznościowe i dostawcy wyszukiwarek próbują zwalczyć ten problem – np. Twitter ogłosił zakaz wszelkich reklam politycznych dotyczących kandydatów, wyborów i gorących kwestii politycznych przed wyborami prezydenckimi w USA w 2020 r. Jednak zostało to nazwane naruszeniem wolności słowa, skoro odmówiono możliwości zamieszczania reklam z określonym punktem widzenia.
 
Niektóre firmy odpowiedzialne za platformy społecznościowe opracowały metody wykrywania nieprawdziwych informacji lub pozwalały użytkownikom na ich zgłaszanie. Jednak poleganie na raportowaniu nie jest dobrym rozwiązaniem.
 
Powinno powstać bardziej niezawodne rozwiązanie, aby powstrzymać rozpowszechnianie fałszywych wiadomości już u ich źródła. Wraz z przyjęciem uczenia maszynowego prawdopodobnie pojawią się innowacyjne mechanizmy, które wykrywają i eliminują przynajmniej niektóre fałszywe wiadomości.
 
2. SZKODLIWE UCZENIE MASZYNOWE
 
Dzięki uczeniu maszynowemu możliwe jest skuteczniejsze wykrywanie cyberzagrożeń i analizowanie anomalii w sieci. Jednak z technologii tej mogą też korzystać hakerzy do naruszania bezpieczeństwa i prywatności zarówno poszczególnych osób, jak i organizacji.
 
Jedną z technik wykorzystujących ML jest deepfake, czyli powstały przy użyciu technik sztucznej inteligencji film, plik audio lub obraz zaprojektowany w celu odtworzenia wyglądu i zachowań prawdziwych ludzi. Na razie potrzebna jest duża ilość danych (zdjęć, filmów i nagrań głosowych) do stworzenia nawet krótkiego klipu deepfake, w którym twórca kontroluje to, co zostało powiedziane. Uzyskanie znacznej ilości danych dotyczących osoby niepublicznej jest trudne. Ale czy to nie może się zmienić w najbliższym roku? Zdaniem ekspertów z ESET jest bardzo prawdopodobne, że na naszych telefonach pojawi się aplikacja, która w łatwy sposób stworzy nagrania deepfake.
 
Czy można się jakoś przygotować na to zagrożenie? Przede wszystkim powinniśmy lepiej edukować innych, że istnieje technologia deepfake. Ludzie będą musieli się nauczyć traktować nawet najbardziej realistyczne filmy z odrobiną sceptycyzmu. Ponadto, choć to trudne, musi powstać technologia, która będzie w stanie wykrywać nagrania deepfake. Szczególnie platformy mediów społecznościowych powinny jak najwcześniej rozpoznawać potencjalne zagrożenie, ponieważ to właśnie na nich najczęściej są rozpowszechnione filmy z fałszywymi treściami.
 
[...]
 

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

prenumerata Numer niedostępny Spis treści

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"