Zwiń

Nie masz konta? Zarejestruj się

Wojna otwiera nam oczy na dezinformację

Tomasz Jurczak
Ten tekst przeczytasz w 5 minut
deepfake
Problem dezinformacji dostrzega też Unia Europejska.
Shutterstock

Inwazja rosyjska na Ukrainę, nierzadko relacjonowana w mediach, zwłaszcza tych społecznościowych, pozwala dostrzec nie tylko kolumny wojsk rosyjskich i grozę wojny. Pokazuje też, jak walczy się za pomocą botowych kont na Twitterze czy pospiesznie stworzonych deepfake’ów.

Atak Rosji na Ukrainę nie stworzył dezinformacji. Ta otacza nas od wieków, choć zapewne z różnym natężeniem była dostrzegalna, w zależności od możliwości wprowadzania przeciwnika w błąd. Nieprzypadkowo bardzo aktualne jest powiedzenie, że na wojnie pierwsza umiera prawda. Jednak bardzo często dokonuje ona żywota bynajmniej nie w wojennych okolicznościach. W zasadzie nie ma dnia, abyśmy nie byli bombardowani fałszywymi informacjami, zarówno w mediach tradycyjnych, jak i tych cyfrowych.

Jak wynika z badania przeprowadzonego przez GfK Polonia dla Fundacji Digital Poland, aż 8 na 10 dorosłych Polaków doświadczyło dezinformacji, a najbardziej na fake newsy podatni są młodzi ludzie ufający mediom społecznościowym, którzy nie są w stanie samodzielnie odróżnić, co jest prawdą, a co fałszem. Social media oraz telewizja są prawdziwym dezinformacyjnym rajem. Dla dwóch trzecich badanych osób właśnie te kanały są podstawowym źródłem informacji o Polsce i świecie – wynika z raportu „Dezinformacja oczami Polaków”, opublikowanego w marcu 2022 r., a więc już po agresji rosyjskiej na Ukrainę.

Oszukańcze strony

Z ogromną liczbą ataków cybernetycznych obecnie borykają się duże firmy w Polsce. Od kilku miesięcy nie ma dnia, aby PKN Orlen, PGE Polska Grupa Energetyczna KGHM Polska Miedx czy banki nie informowały o próbach ataków zarówno tych prostych, phishingowych, uderzających bezpośrednio w klientów, jak również bardziej zaawansowanych kampanii.

Przykładem może być choćby publikowanie w sieci reklam niezwykle atrakcyjnych inwestycji w popularne na rynku firmy. W podszywających się pod firmy publikacjach poza zwykłą socjotechniką wykorzystywany jest phishing w postaci linków prowadzący na oszukańcze strony, udające bramki płatnicze. Wpisanie danych dostępowych może skutkować utratą pieniędzy.

Ogromnym wyzwaniem są ataki ransomware, czyli bezpośrednie lub pośrednie ataki na firmy i ich pracowników. Ich celem jest blokowanie dostępu do systemów komputerowych lub uniemożliwianie odczytywania zapisanych w nich danych za pomocą złośliwego oprogramowania. Często wykorzystywane są do tego techniki szyfrujące, a cyberprzestępcy żądają okupu lub wykonania odpowiednich działań w celu usunięcia blokady.

Tego typu ataki to nie tylko zagrożenie utratą danych, lecz także bezpośrednie uderzenie w dobre imię firmy i jej postrzeganie na rynku. Poza tym wystarczy proste przejęcie konta firmowego na Facebooku czy Twitterze, aby spółka straciła zarówno na wiarygodności, jak i wartość i giełdowej. Dezinformacja może uderzać w firmy tak samo jak w państwa, organizacje czy konkretne osoby.

UE na wojnie. Z dezinformacją

Problem dezinformacji dostrzega też Unia Europejska. W maju 2021 r. opublikowano wytyczne dotyczące sposobów ulepszenia kodeksu postępowania w zakresie zwalczania dezinformacji – pierwszego tego rodzaju kodeksu na świecie. Niestety sam kodeks, wytyczne ani nawet narzędzia nie zawsze będą skuteczne. Warto bowiem, aby każdy z nas potrafił z tych narzędzi korzystać.

Wśród wytycznych opracowanych przez Komisję Europejską były m.in. demonetyzacja dezinformacji przez platformy oraz podmioty działające w branży reklam internetowych, jak również umożliwienie użytkownikom rozumienia i sygnalizowania dezinformacji. Być może dlatego Twitter zaczął wkrótce testowanie systemu, za pomocą którego w wyraźny sposób można oznaczać wpisy zawierające dezinformacje. Intensyfikacja wdrażania tych rozwiązań niestety postępuje bardzo powolnie. Powodem jest nie efekt, ale zapewne źródło dezinformacji. Szacuje się, że kont botowych na tym serwisie społecznościowym może być nawet od 12 proc. nawet do 20 proc.

Człowiek i dezinformacja

Jaka forma dezinformacji jest najbardziej niebezpieczna? Oczywiście taka, której nie da się zidentyfikować bądź jest to trudne.

– Bardzo groźna jest dezinformacja, która nie wymaga technologii. Taka, gdzie płaci się za komunikowanie dosyć wiarygodnie wyglądających treści. To właśnie człowiek jest w stanie w najbardziej wiarygodny sposób tworzyć informacje, właśnie dlatego że nie jest automatem – uważa dr hab. Aleksandra Przegalińska, prof. ALK.

Bez większych wątpliwości można stwierdzić, że Rosja właśnie z takich płatnych zleceń dla internetowych trolli korzysta podczas wojny. Nie są to konta botowe, ale prawdziwe osoby, które na rzecz Rosji tworzyły dezinformujące fanpage’e i konta na Facebooku czy Twitterze, pełne fake newsów. Jednak w cyberwojnie korzysta się także z rozwiązań technologicznych opartych na algorytmach sztucznej inteligencji. Z jednej strony są to zjawisko deepfake’ów tworzonych za pomocą computer vision. Są one bardzo spektakularne, generują zainteresowanie, ale zazwyczaj tworzone są w prymitywny sposób. Równolegle walczy się za pomocą botów generujących mniej lub bardziej zaawansowane treści tekstowe na serwisach społecznościowych.

Deepfake kontra bot

Jednym z przykładów deepfake’ów podczas wojny w Ukrainie było nagranie Volodymyra Zełenskiego, na którym prezydent nakazuje Ukraińcom „złożyć broń”. Jakość tego oszustwa była tak słaba, że trudno byłoby się to nabrać. To był słaby, a poza tym wcześniej komunikowany atak. O ile w ogóle nie stworzono tego wideo dla swego rodzaju upiornej rozrywki. Dziś, aby za pomocą prostych narzędzi stworzyć deepfake, wystarczy wpisać odpowiednią frazę w Googlle’u i wykorzystać kilka zdjęć. Z kolei fake newsy rozpowszechniane na Twitterze czy Facebooku trudniej zdemaskować.

– Na pewno, jeśli chodzi o siłę rażenia i jak wpływa to na naszą wyobraźnię, deepfake’i są mocniejsze w odbiorze. Z drugiej strony, jeśli chodzi o efektywność, choć w zasadzie trudno ją zmierzyć, botowe konta i komentarze budują większe zainteresowanie w postaci lajków czy udostępnień. Dlatego moim zdaniem nie można stwierdzić, że deepfake to jest jakaś nieprawdopodobnie zaawansowana technologia, a np. NLP (ang. Natural Language Processing – przetwarzanie języka naturalnego, które sprawia, że język ludzki jest zrozumiały dla maszyn) już słabiej oddziałuje na społeczność, obie te technologie mają bardzo duży potencjał destabilizujący – ocenia prof. Przegalińska.

AI pomaga w walce z dezinformacją

Już dziś możemy walczyć z dezinformacją w sieci, nawet jeśli platformy społecznościowe nie mają pomysłów, jak przed nią chronić. W sieci działają narzędzie oparte na algorytmach sztucznej inteligencji, choć nadal niewiele osób o nich wie lub rzadko je stosuje. W prosty sposób możemy rozpoznać dezinformację m.in. za pomocą wsparcia programu Detect Fake. Jest to projekt badawczy tworzony przez MIT Media Lab. Ma on m.in. odpowiedzieć na pytania, jak rozpoznać deepfake i zidentyfikować techniki przeciwdziałania dezinformacji generowanej przez sztuczną inteligencję. Okazuje się, że istnieje wiele subtelnych oznak, że wideo zostało zmanipulowane algorytmicznie. Detect Fake pozwala je obnażyć, a nam sprawdzić swoją spostrzegawczość.

Drugim ciekawym narzędziem do walki z dezinformacją opartym na AI jest Botometer. Jeśli nie wiecie, czy dane konto na Twitterze jest prawdziwe, czy tylko udaje profil prowadzony przez człowieka – można to sprawdzić. Botometer to algorytm uczenia maszynowego wyszkolony do wskazywanie prawdopodobnych kont botów. Porównuje on konto wskazane przez nas na Twitterze z dziesiątkami tysięcy przykładów. Kiedy sprawdzamy konto, przeglądarka pobiera jego publiczny profil oraz setki publicznych tweetów i wzmianek za pomocą interfejsu API Twittera. Dane te są przekazywane do Botometer API, które wyodrębnia ponad tysiąc funkcji w celu scharakteryzowania profilu konta, obserwowanych kontaktów, struktury sieci społecznościowej, wzorców aktywności czasowej, języka i nastrojów. Wykorzystywane jest to przez różne modele uczenia maszynowego do wychwytywania botów.

Warto dodać, że gotowy jest podobny projekt polskiej firmy pod kierownictwem prof. Piotra Sankowskiego z UW, oparty na głębokich sieciach neuronowych, który pozwala na automatyczne wyszukiwanie rosyjskich trolli w sieci i walce z dezinformacją na Twitterze. Co ważne, do znalezienia bota wystarczy mu mniejsza liczba informacji. Więcej na temat projektu można przeczytać na serwisie Cyfrowa Gospodarka.

Fact-checking prosty jak lajk na FB

Niestety nadal nie nauczyliśmy się fact-checkingu. To jest największy problem mediów społecznościowych, które nigdy tak naprawdę nie wywierały presji, nie próbowały budować narzędzi atrakcyjnych do użycia. Gdyby fact-checking był tak samo prosty jak dawanie komuś serduszka czy lajka, to może więcej osób by to po prostu robiło.

– Mam wrażenie, że to zostało gdzieś zaniedbane i trochę mam pretensji z tego powodu do platform społecznościowych, że nigdy nie potraktowały tego serio. Kasowanie kont botowych to trochę za mało. Platformy powinny tworzyć rozwiązania systemowe, promować proste do wykorzystania narzędzia do sprawdzania, czy coś jest dezinformacją czy nie. To jest jedyny skuteczny sposób walki, ponieważ nie sądzę, żeby Rosja zaprzestała tych tanich, topornych, ale nierzadko działających metod dezinformacji – podsumowuje prof. Aleksandra Przegalińska.