Wysoki kontrast
Wielkość tekstu
Dostępność
  • Dostępność
    • Wysoki kontrast
    • Wielkość tekstu
    • Dostępność

Propaganda cyfrowa nowym trendem wojen informacyjnych

Polsko-Ukraińska Platforma Opinii

Fake newsy — wkrótce staną się nieistotne, nieskuteczne i nieciekawe. Podobnie jak fałszywi eksperci, fałszywe organizacje, fałszywe badania. To będą gry dla nastolatków i początkujących technologów polityznych. Wkrótce propaganda cyfrowa (computational propaganda) będzie miała realny wpływ na agendy państw, społeczności i jednostek, łączącmożliwości obliczeniowe komputerów, szybkość przetwarzania informacji, bid data — i konieczność manipulowania znaczeniami.

Żyjemy w mrocznych czasach epoki informacyjnej. Ekstaza dostępności, wiedzy i globalności została zastąpiona przez zamieszanie, wynijające z ogromnej ilości śmieci informacyjnych. Internet i „technologie chmurowe” z niekwestionowanymi możliwościami rozwoju stały się bagnem z pseudo-wiadomościami na temat leczenia raka czosnkiem, sodą i aloesem. Banalne cytaty o rozwoju; reklamowanie zbędnych produktów; teorie spiskowe; Photoshop i dip-fake. Wydawało się, że znowu mieszkamy w średniowiecznej wiosce, dokąd doczołgał się zakrwawiony żołnierz, powiedział: „Uciekajcie, bo wszyscy zginiemy” i umarł. I żadna edukacja medialna, żadne szkolenia w zakresie umiejętności korzystania z mediów nie pomogą sprawdzić jego słów. Dziś zmierzają się z tym wszyscy naukowcy – myślenie krytyczne nie może zostać stworzone przy pomocy online lekcji czy quizów.

Podobnie jak w średniowieczu, nowe technologie wykorzystują różne grupy interesów (państwa, społeczności lokalne lub poszczególnych osób), które są zainteresowane szerzeniem chaosu za wszelką cenę. W szczególności dla Ukrainy istnieje konkretny wróg, Rosja, która wydaje ogromne środki na przekształcenie naszego pola informacyjnego w kosz na śmieci. Aby to zrobić, używa różnych metod – od operacyjnych do tworzenia memów, w których ukryte potrzebne dla nich informacje (co wywiera wpływ przede wszystkim na młodych ludzi).

W tej chwili znajdujemy się w pewnym złamie technologicznym. Aby zastąpić kreatywność, indywidualne rozwiązania, geniusze propagandy tworzą bezduszne algorytmy maszynowe, które pracują na ogromną liczbą użytkowników w tym samym czasie, dzieląc je na klastry, wykorzystując informacje prwatne i przekształcając je w odbiorców docelowych.

Fake news w klasycznym znaczeniu to „ukrzyżowany chłopiec”: wiadomoś, fikcyjna i rozpowszechniana w mediach poprzez absurd i arogancję. I dużo pieniędzy. Oczywiście, są ludzie, którzy uwierzą w tę wiadomość, ale przekazy tego typu mają efekt krótkoterminowy, a liczba osób, która w to wierzy stale maleje. Pokolenia Internetu bardzo szybko nauczyło się rozróżniać i wyśmiewać absurdalne wiadomości tego typu, tworząc alternatywne memy i negując wszelkie wysiłki twórców takich wiadomości.

Dlatego propagandyści cyfrowi działają zupełnie inaczej. Zbierają informacje o swoich grupach docelowych, maksymalnie rozdzielając je na różne kategorie. Historia Cambridge Analitica to nie tylko hasła wyborcze; chodzi również o to, kto polubi obraz z Kurtem Cobainem, a kto — z Allą Pugaczową. Następnie niezbędne słowa i znaczenia są umieszczane w tak zwaną „czarną skrzynkę”, a algorytmy konwertują je na różne formaty wiadomości dla różnych grup. Tak więc, dla młodych ludzi, mogą zostać wygenerowane tysiące memów z ich ulubionymi rami i wyraza, które pomogą przekazać pewien stosunek do sytuacji. Dla osób starszych — artykuły o zdrowiu z dyskretnymi opisami pożądanych stanów (rozczarowanie, depresja, agresja).

Oczywiście, w to jest trudno uwierzyć, ale już teraz można pobrać w Telegramie chatbota, który zamieni każde twoje zdjęcie w mem. Czasami jest to całkiem zabawne. A wkrótce pojawi się bot, który będzie pisać literackie teksty. Istnieją też inne narzędzia – Botometr, sprawdzanie wpisów na Twitterze itd. Wszystko jest zautomatyzowane, a wszystko działa miliony razy szybciej niż zwykli ludzie. Uważajcie, pracują boty!

Oczywiście istnieje pewna dyskusja terminologiczna. Używamy słowa „bot” na różne sposoby. W ukraińskich mediach botoferma to technologia, po której prawdziwa osoba rejestruje 15-20 różnych fikcyjnych profili przy pomocy numerów telefonów i fałszywych paszportów. Człowiek loguje się na te profile i pisze statusy, komentarze w celu przekazania pewnej opinii. Działalnośc ta jest

spisywana do określonej tabeli i przekazywana jako raport do klienta: w ciągu miesiąca taka osoba może zamieścić kilka tysięcy komentarzy z niezbędnymi informacjami.

Dla zachodnich naukowców i mediów, botoferma jest „matrycą”. Algorytm maszynowy, który zamienia pracę prawdziwej osoby w drugorzędną. Komputer jest w stanie zarejestrować dziesiątki tysięcy profili, generując nazwy, dane paszportowe, korzystając z wygenerowanych numerów telefonów. Profile te działają w określonych grupach, generując miliony wiadomości, polubień i hashtagów. Oczywiście, te wpisy nie będą tak jakościowe jak teksty, napisane przez prawdziwego człowieka. Ale liczba takich wpisów w tym przypadku jest tylko plusem, iż algorytmy sieci społecznościowych mają również pewne mechanizmy wyświetlania komentarzy, polubień itp. Obecnie zautomatyzowane systemy są najskuteczniejsze właśnie w kształtowaniu trendów (czyli agendy), wywieraniu presji na przeciwników, spamowaniu komunikatów czy tworzeniu negatywnych treści.

Jeszcze dziesięć lat temu boty były narzędziem pomocniczym: masowo rozpowszechniały treści opracowane przez „trolle” i zwykłych użytkowników. Jednak w różnych krajach rządy lub siły polityczne zaczęły wydawać coraz więcej środków na dominację w przestrzeni cyfrowej, a do tego nie wystarczy mieć zwolenników, potrzeba mocy nowoczesnych komputerów i milionów wiadomości.

Tak, na przykład, wraz z powrotem Putina do prezydentury w 2012 roku, rosyjska propaganda państwowa stała się ostrzejsza i bardziej agresywna, a boty okazały się o wiele skuteczniejszym środkiem. W końcu, gdy celem jest zablokowanie alternatywnych myśli, a nie angażowanie ich w dyskusję, ataki ilościowe botów mają zdecydowaną przewagę. Rosyjscy propagandyści zaczęli wykorzystywać cyfrowe techniki propagandowe, aby wpływać na równowagę opinii w sieciach społecznościowych na całym świecie, na przykład promując treści lub tworząc listy trendów. Oczywiście największy wpływ jest wywierany na Europę Wschodnią.

Ale odegrali swoją rolę, na przykład i podczas wyborów w USA w 2016 roku, podczas tak zwanej afery Pizzagate – teorii spiskowej o Demokratach rzekomo porywających dzieci i zabijających je w pizzeriach. Ogromna liczba fałszywych profili udostępniała fałszywe memy na ten temat, tworząc negatywne treści przeciwko Hillary Clinton. Co więcej, geograficznie, profile te znajdowały się na całym świecie, na Cyprze, w Czechach, Wietnamie, a większość z nich była zautomatyzowana. Jednym z wykorzystywanych narzędzi było wykorzystywanie pozytywnych hashtagów w negatywnych wiadomościach o przeciwniku. Tak więc, nawet zwolennicy Clinton mogli widzieć negatywne wiadomości przeglądając sieci społecznościowe.

Oczywiście boty nadal nie mogą komunikować się z prawdziwymi ludźmi na wystarczającym poziomie. Musimy jednak zdać sobie sprawę, że jest to tylko kwestia czasu, kwestii rozwoju AI i stworzenia wystarczającej liczby scenariuszy dla komunikacji.

Metody propagandy obliczeniowej codziennie progresują i coraz częściej powtarzają ludzkie zachowania. Obecnie globalna tendencja do ich wykryciu polega na analizie danych pochodnych. Oznacza to, że określamy krytyczne znaczenie dla systemu, a nie pojedynczych graczy, którzy tworzą treści manipulacyjne. Bierzemy pod uwagę sytuację, w której duża liczba profili zaczyna działać w skoordynowany sposób, rozpowszechniając podobne informacje. Tak więc powinna to być analiza dużych zbiorów danych – regionalnych, grupowych, finansowych itp. I nie może to być klasyczna analiza treści dostarczona przez 30 analityków z instytutu badawczego. Powinno to być przede wszystkim narzędzie programowe, które może uogólniać duże zbiory danych i wydobywać odpowiednie trendy.

Analizowanie zachowań grup, a nie treści poszczególnych osób, jest dziś kluczowym narzędziem dla przeciwdziałania dezinformacji. Podstawą tego podejścia jest to, że zachowanie żywych ludzi jest niejednorodne i mniej zorganizowane niż zachowanie botów. Takie podejście można dziś uznać za priorytetowe wśród naukowców i badaczy w wielu państwach. Jednak potrzebne są programy, które będą mogły łączyć możliwości sztucznej inteligencji, rozwoju sieci, pracy z bid data. W rzeczywistości boty powinny być tworzone w celu zwalczania innych botów, oraz takie narzędzia jak wspominany wyżej Botometer – system wykrycia botów w Twitterze, który przetwarza ponad 1200 znaków i może ustalić, czy profil jest prowadzony przez realną osobę.

Podobnie uczestnicy europejskiego projektu SOMA pracowali nad systemem Truly Media, który będzie w stanie zweryfikować informacje za pomocą setek kryteriów, z których wiele jest niezależnych od treści. Na Tajwanie w 2016 r. Został uruchomiony bot 的假的 (w języku polskim nazwa jest tłumaczona jako „Narpawdę?”), który ma na celu identyfikację fałszywych wiadomości. Użytkownik wysyła mu link, a bot zwraca go z komentarzami na temat zawartości. Bot jest nadal w fazie rozwoju, ale jest już bardzo popularny w lokalnych mediach.

Naukowcy Oxfordzkiego Instytuty Internetu wymienili kilkaważniejszych wyzwań, z którymi będziemy musieli się zmierzyć w najbliższej dekadzie:

1. Tekst już od dawna nie jest jedynym sposobem narzucenia propagandy. Czasami obrazy niosą silniejsze przekazy niż teksty. W związku z tym kluczowe znaczenie ma analizowanie różnych form danych i tylko złożone kompleksy programowe mogą skutecznie to zrobić.

2. Logika, wyjaśnienie jest pożądaną oznaką systemu wykrywania propagandy, ponieważ ważne jest, aby dalsze działania władz (na przykład blokowanie niektórych stron) opierały się na konkretnych liczbach i mieli wyraźne podstawy.

3. Dziś, nawet specjalnie wyszkolona osoba nie zawsze potrafi odróżnić sztucznie stworzony tekst od prawdziwego. Dlatego, aby wykryć dezinformację, potrzebne są ilościowe metody gromadzenia big data, które działają nie tylko na podstawie konkretnych kryteriów. Często, informacja „kto, kiedy i w jakich profilach coś napisał” jest o wiele ważniejsza niż „to, co było napisane”.

4. Automatyzacja rozwiąże problem ochrony danych i cenzury, ponieważ wyeliminuje wpływ ludzi czy polityków na sprawozdania końcowe. W tym celu konieczne jest oczywiście, aby samo oprogramowanie powstało z udziałem konsorcjum niezależnych organizacji (w tym międzynarodowych), z utworzeniem Rady Nadzorczej oraz na podstawie klarownych standardów ochrony informacji prywatnych.

Łączenie wysiłków różnych organizacji, grup badawczych, ośrodków decyzyjnych pozwoli porzucić spory w przeszłości i stworzyć narzędzia, które ułatwią przeciwdziałane dezinformacji i ochronią suwerenność państw.

Artem Bidenko, Instytut Bezpieczeństwa Informacyjnego

Zadanie publiczne finansowane przez Ministerstwo Spraw Zagranicznych RP w konkursie „Dyplomacja publiczna 2021”. Publikacja wyraża wyłącznie poglądy autora i nie może być utożsamiana z oficjalnym stanowiskiem Ministerstwa Spraw Zagranicznych RP.

Skip to content