Do takiego wniosku doszedł dr Emilio Ferrara, który bada aktywność wyborczych botów. Jego zdaniem to wcale nie musi być Rosja. Możliwe, że po prostu istnieje czarny rynek botów do wprowadzania wyborców w błąd.

Podczas (i po) kampanii prezydenckiej w USA dość powszechny był pogląd, że wyborcy w USA zostali zmanipulowani z użyciem social mediów, m.in. Twittera. Później do podobnych manipulacji dochodziło we Francji. Wielu komentatorów (m.in. firma Trend Micro) przypisywało te działania Rosji, twierdząc dodatkowo, że poza prowadzeniem kampanii dezinformacyjnych włamywano się także na skrzynki e-mail polityków. Teraz tę teorię częściowo potwierdził dr Emilio Ferrara z University of Southern California. Według niego istnieje powiązanie pomiędzy botami wspierającymi Trumpa w roku 2016 i tymi które oczerniały Macrona.

Emilio Ferrara z ostrożnością typową dla naukowców nie dochodzi do wniosku, że “to wina Rosji“. Jego zdaniem dokonywanie takich atrybucji jest trudne i to samo powtarzamy Wam w praktycznie każdym artykule poświęconym “cyberatakom”. Choć ciężko wskazać kto dokładnie stoi za atakami, to można sądzić, że z całą pewnością istnieje czarny rynek politycznej dezinformacji. I ktoś na tym w ten czy inny sposób zyskuje.

Ile jest człowieczeństwa w tweetach?

Ferrara opisał swoje ustalenia w 33-stronicowym artykule. Jest on wynikiem analizy 17 mln postów z Twittera opublikowanych między 27 kwietnia i 7 maja 2017 roku. Przy pomocy uczenia maszynowego oraz modelowania behawioralnego oddzielono boty od żywych ludzi. Analizując zachowania jednych i drugich udało się ustalić m.in. dlaczego wycieki na temat Macrona (tzw. MacronLekas) miały ograniczony wpływ na wybory we Francji. Wywołały one zaangażowanie głównie u skrajnie prawicowych anglojęzycznych użytkowników Twittera, zatem miały ograniczony wpływ na ludzi francuskojęzycznych, którzy naprawdę wybierali prezydenta.

W artykule bardziej szczegółowo opisano identyfikowanie botów i ludzi. Pod uwagę brano różne zmienne jak np.:

liczbę znajomych,

obrazki na koncie,

informacje o położeniu geograficznym,

ustawienia profilu

Ponad 99 tys. użytkowników zaangażowało się w MacronLeaks, z czego ponad 18 tys. mogło być botami (18%). Wcześniej, przed wybraniem Trumpa, odsetek Twitterowych botów w dyskusjach oszacowano na ok. 15%. To niemało zważywszy na to, że boty łatwo się nie zniechęcają, a przecież wywołują reakcje u żywych ludzi. Tabela poniżej wymienia konta najbardziej aktywne, które później zostały usunięte lub zawieszone (Twitter również stara się usuwać boty oraz konta naruszające jego regulaminy na różne sposoby).

Kolejna tabela pokazuje jak silne reakcje mogły wywoływać boty. Wymienia konta zidentyfikowane jako boty i opisuje ich osiągnięcia. Aktualnie te konta są zawieszone lub usunięte.

Co ciekawe, poprzednie badania na temat botów sugerowały, że w ich wykrycie jest stosunkowo proste, bo dawniej boty były aż nadto aktywne. Jednak te użyte przy MacronLeaks zachowywały się ostrożniej. Potrafiły być nawet mniej aktywne od żywych ludzi i zdaniem badaczy jest to dowód na ulepszanie strategii ich użycia.

Co z tymi powiązaniami?

Najciekawszym odkryciem Ferrary pozostaje zidentyfikowanie kont, które były utworzone na czas kampanii Trumpa, wygasiły działalność po listopadzie 2016 roku (dosłownie nie publikowały nic) i wróciły do gry tuż przed wyborami we Francji. Emilio Ferrara zauważa, że już wcześniejsze badania sugerowały istnienie czarnego rynku botów do agitacji, ale teraz on i jego koledzy zidentyfikowali konta, które wyraźnie wiązały ze sobą dwa istotne politycznie wydarzenia.

Nie należy tu jednak zakładać, że boty w social mediach są zawsze są “chwalące” lub “krytykujące”. Ferrara wcześniej badał aktywność botów wyborczych w USA. Ustalił m.in., że boty wspierające Clinton publikowały mieszankę krytycyzmu dla przeciwnika i wsparcia dla swojej kandydatki. Tymczasem boty pro-Trumpowskie koncentrowały się na chwaleniu swojego kandydata. Trzeba brać pod uwagę, że boty “Clintonowskie” były mniej liczne i mniej aktywne.

Dezintegracja przez polaryzację

Boty są generalnie niebezpieczne, niezależnie od tego kto ich używa. Publikują informacje, które — choć są fałszywe — trafiając na podatny grunt prawdziwych ludzi, często są podawane dalej i przypisuje się im coraz większą wiarygodność. Można więc zaryzykować stwierdzenie, że boty uderzają w podstawowe zabezpieczenie, jakie powinno być wszyte w demokrację. Zakładamy, że społeczeństwa nie podejmą decyzji bardzo szkodliwych (często skrajnych), ale czy ten mechanizm działa, jeśli całe społeczeństwa są wprowadzane w błąd? Boty polaryzują opinię publiczną zatem dezintegrują społeczeństwa. Są coraz lepsze w udawaniu żywych ludzi i potrafią nawet wdawać się w dyskusję z innymi użytkownikami. Tu warto zaznaczyć, że niekoniecznie przez boty należy rozumieć “program komputerowy”. Część z botów może być ręcznie sterowana — są to jednak konta piszące to, co narzuca się ich operatorowi. Przypomnijmy tu nasz artykuł na temat rosyjskiej farmy trolli, czyli komercyjnej firmy, która płaci tysiącom osób, aby codziennie pisały komentarze zgodnie z narzuconą narracją.

Kto za to płaci?

Najłatwiej jest wskazać oczywistych winnych — sztaby wyborcze przeciwników politycznych albo obce państwa. Jednak równie dobrze takich botów mogą używać lobbyści lub organizacje walczące o różne sprawy. Co gorsza, wszystko funkcjonuje w “szarej strefie”, bo poza łamaniem regulaminów Twittera czy Facebooka nie dochodzi do wyraźnego łamania prawa.

Politycy będący u władzy sądzą, że znaleźli już na to sposób. Serwisy społecznościowe mają w przyszłości usuwać komentarze “ekstremistów” oraz “dezinformację”, ale w praktyce oznacza to tylko zwiększenie kontroli firm takich jak Facebook czy Google nad informacjami trafiającymi do obywateli/wyborców. Rozwiązania problemu botów agitacyjnych tak naprawdę nie wymyślono…

A gdyby tak każdy z nas miał wszczepionego od urodzenia chipa i założenie konta w mediach społecznościowych musiało być jednoznacznie powiązane z tym chipem i naszą prawdziwą tożsamością? Hmm… to chyba też nie najlepszy pomysł ;)

Przeczytaj także: