Efekt wirusowy: co mają wspólnego epidemie, wybuchy przemocy i podróbki

0
163

Rozprzestrzenianie się niemal wszystkiego – od chorób zakaźnych po trendy w modzie i nowatorskie pomysły – podlega tym samym prawom – mówi matematyk i epidemiolog Adam Kucharski. Za zgodą wydawnictwa Sinbad Forbes Life publikuje fragment książki Kucharskiego The Laws of Epidemics, która opowiada o wzorcach rządzących istnieniem internetowych memów i podróbek 0 akcji

Benito Mussolini powiedział kiedyś, że „lepiej żyć jeden dzień jako lew niż sto lat jako owca”. Według użytkownika Twittera @ilduce2016 autorem tych słów był Donald Trump. Ten użytkownik bota, stworzony przez dwóch dziennikarzy z internetowego tabloidu Gawker, zamieścił kilka tysięcy tweetów przypisujących słowa Mussoliniego Trumpowi. Ostatecznie jeden z postów zwrócił uwagę samego Trumpa: 28 lutego 2016 r., tuż po czwartych prawyborach z republikanami, przesłał dalej cytat o lwie.

Podczas gdy niektóre boty w mediach społecznościowych są skierowane do masowych odbiorców, inne mają mniejszy zasięg. Te boty-przynęty mają na celu przyciągnięcie uwagi konkretnych użytkowników i wywołanie ich reakcji. Pamiętaj, że kaskady na Twitterze często zaczynają się od jednej transmisji? Jeśli chcesz rozpowszechniać wiadomość, możesz zaangażować influencer do rozszerzenia transmisji. A ponieważ wiele epidemii natychmiast zanika, dobrze jest mieć bota, który spróbuje ponownie: zanim Trump retweetował cytat lwa, @ilduce2016 opublikował go ponad 2000 razy. Twórcy botów zdają się doskonale zdawać sobie sprawę z tego, jak skuteczne jest to podejście. Publikując wątpliwe treści w latach 2016-2017, boty na Twitterze zwracały nieproporcjonalną uwagę na popularnych użytkowników.

Nie tylko boty stosują tę strategię kierowania. W 2018 roku, po masakrze w Marjorie Stoneman Douglas High School w Parkland na Florydzie, pojawiły się doniesienia, że ​​strzelec był członkiem małej grupy zwolenników białej supremacji ze stolicy stanu Tallahassee. Ale to była fałszywa. Wymyślili ją trolle z forów internetowych, którym udało się przekonać żądnych wrażeń dziennikarzy o prawdziwości tej wersji. „Wystarczy jeden artykuł” — powiedział jeden z użytkowników. „I wszyscy inni podnoszą tę historię”.

Efekt kuli śnieżnej: czy można przewidzieć hity i bestsellery

Badacze, m.in. Watts i Nyhen, zauważyli, że w 2016 r. odsetek informacji, które ludzie otrzymywali z wątpliwych źródeł, był niewielki – nie oznacza to jednak, że problem nie istnieje. „Myślę, że to naprawdę ważne, ale nie w taki sposób, w jaki wydaje się to ludziom” – mówi Watts. Poprzez tweetowanie fałszywych wiadomości lub wątpliwych pomysłów marginalizowane grupy nie zawsze kierują się na masową publiczność – przynajmniej nie na początku. Często atakują tych dziennikarzy i polityków, którzy spędzają dużo czasu w mediach społecznościowych, mając nadzieję, że podchwycą ten pomysł i zaczną go rozpowszechniać. Na przykład w 2017 roku dziennikarze regularnie cytowali użytkownika Twittera o pseudonimie @wokeluisa, który przedstawił się jako młody absolwent politologii z Nowego Jorku. W rzeczywistości była to grupa trolli z Rosji: wybrały agencje informacyjne jako swoją grupę docelową, mając nadzieję na zdobycie zaufania i rozpowszechnienie za ich pośrednictwem swoich pomysłów. „Dziennikarze zajmują się nie tylko manipulacjami” – mówi Whitney Phillips, specjalista ds. mediów elektronicznych na Uniwersytecie Syracuse. „Sami stają się ofiarami dezinformacji”.

Gdy tylko jedna publikacja podniesie historię, pojawia się efekt zwrotny, a inne zaczynają ją publikować. Kilka lat temu sam przypadkowo doświadczyłem tego efektu. Wszystko zaczęło się, gdy powiedziałem reporterowi „Timesa” o matematycznej osobliwości w nowej narodowej loterii (właśnie kończyłem książkę o nauce o zakładach). Dwa dni później ta historia została opublikowana. W dniu publikacji o 8:30 otrzymałem wiadomość od producenta This Morning w ITV, który przeczytał artykuł. O 10:30 byłam już w ogólnokrajowej telewizji. Niedługo potem otrzymałem wiadomość od BBC Radio 4: oni również zobaczyli artykuł i postanowili zaprosić mnie na główny dzienny program. Potem dołączyły inne media. W rezultacie moja publiczność wzrosła do kilku milionów osób – od jednego dziennikarza, któremu opowiedziałem tę historię.

Bez widocznych szkód: dlaczego ważne jest zrozumienie psychologii sprawców przemocy

Moje doświadczenie było dość niezwykłe, przypadkowe i nieszkodliwe. Ale inni celowo próbują wykorzystać efekt sprzężenia zwrotnego w mediach. W ten sposób rozpowszechniane są fałszywe informacje – mimo że większość osób unika stron zmarginalizowanych. W istocie jest to rodzaj „prania” informacji. W ten sam sposób, w jaki kartele narkotykowe przemycają pieniądze za pośrednictwem legalnych firm, aby ukryć swoje pochodzenie, manipulatorzy internetowi wykorzystują wiarygodne źródła do tworzenia kopii zapasowych i rozpowszechniania swoich pomysłów; w rezultacie opinia publiczna dowiaduje się o tych pomysłach od znanych osób lub z mediów, a nie z anonimowego konta.

Takie pranie pozwala wpłynąć na debatę na każdy temat i na relacjonowanie tego zagadnienia. Poprzez ostrożne namierzanie i wzmacnianie, manipulatorzy tworzą iluzję powszechnej popularności niektórych poglądów politycznych lub kandydatów. W marketingu strategia ta nazywa się astroturfing (AstroTurf to marka sztucznej murawy dla stadionów, która symuluje trawę – przyp. red.), ponieważ pozwala sztucznie symulować wsparcie publiczne. W tym przypadku dziennikarzom i politykom trudniej jest zignorować historię i prędzej czy później przeradza się ona w prawdziwe wiadomości.

Oczywiście wpływ mediów nie pojawił się dzisiaj; Od dawna wiadomo, że dziennikarze mogą kształtować cykl informacyjny. Satyryczna powieść Evelyn Waugh Sensation, napisana w 1938 roku, opowiada historię słynnego reportera Wenlocka Jakesa, który został przydzielony do relacjonowania rewolucji. Ale w pociągu Jakes spał na swojej stacji i wysiadł w niewłaściwym kraju. Nieświadomy swojego błędu napisał artykuł o „barykadach na ulicach, płonących kościołach, ostrzale z karabinu maszynowego odbijającym się echem od trzasku jego maszyny do pisania”. Inni dziennikarze, nie chcąc przegapić takiego wydarzenia, przyszli i pisali podobne historie. Rezultatem jest panika na giełdzie, kryzys gospodarczy, stan wojenny i wreszcie rewolucja.

„Ludzie stali się bardzo słabi”: jak Lisa Taddeo napisała książkę o prawdziwych historiach przemocy

Oczywiście Evelyn Waugh wymyślił tę historię, ale opinie, które opisał w świecie wiadomości, istnieją. Niemniej jednak współczesne informacje mają szereg istotnych różnic. Przede wszystkim szybkość, z jaką się rozprzestrzenia. Za kilka godzin nieznany mem może stać się głównym tematem dyskusji. Kolejną różnicą jest koszt dystrybucji. Budowa botów i fałszywych kont jest stosunkowo tania, a tworzenie kopii zapasowych polityków i serwisów informacyjnych jest praktycznie bezpłatne. W niektórych przypadkach popularne fałszywe artykuły generują nawet przychody z reklam. Ponadto istnieje możliwość manipulacji algorytmicznej: jeśli komuś uda się użyć fałszywych kont, aby uzyskać reakcję docenianą przez algorytmy mediów społecznościowych, na przykład komentarze i polubienia, wiadomości mogą stać się popularne, nawet jeśli w rzeczywistości niewiele osób dyskutuje to.

Ale co dokładnie ludzie próbują spopularyzować za pomocą tych nowych narzędzi? Od 2016 roku manipulacyjne informacje w Internecie są zwykle nazywane fałszywymi wiadomościami. Jednak ten termin jest mało przydatny. Badacz technologii Reni Diresta zauważa, że ​​fałszywe wiadomości mogą w rzeczywistości oznaczać różne rodzaje treści, takie jak nagłówki typu clickbait, teorie spiskowe, dezinformacja i dezinformacja. Jak wiemy, clickbait ma na celu skłonienie ludzi do odwiedzenia określonej strony; linki często prowadzą do prawdziwych wiadomości. Z drugiej strony teorie spiskowe zniekształcają prawdziwe historie, zawierają „tajemną prawdę”, która może stać się zawyżona lub skomplikowana w miarę rozwoju teorii. Przez dezinformację Diresta oznacza fałszywe treści, które są udostępniane nieumyślnie. Ta kategoria obejmuje również dowcipy i żarty, które są celowo tworzone jako podróbki, a następnie rozpowszechniane przez ludzi, którzy biorą je za dobrą monetę.

„Wiedziała, że ​​musi być jednocześnie dzieckiem i kobietą czas”: książka, jak radzić sobie z przemocą

Wreszcie, najbardziej niebezpiecznym rodzajem fałszywych wiadomości jest dezinformacja. Powszechnie przyjmuje się, że dezinformacja ma na celu skłonienie ludzi do pomylenia kłamstwa z prawdą. Ale rzeczywistość jest trochę bardziej skomplikowana. W czasie zimnej wojny agenci KGB byli szkoleni, aby wzbudzać kontrowersje w opinii publicznej i podważać wiarygodność wiadomości. To jest dezinformacja. Nie jesteś przekonany o prawdziwości fikcyjnych opowieści, ale jesteś zmuszony wątpić w samą ideę prawdy. Wyzwaniem jest przetasowanie faktów w taki sposób, aby utrudnić postrzeganie rzeczywistości. A KGB poszło dobrze: wiedzieli, jak nie tylko zasiać ziarno wątpliwości, ale także zwiększyć dezinformację. „W dawnych dobrych czasach, kiedy agenci KGB stosowali tę taktykę, ich celem były popularne media”, mówi Diresta, „ponieważ zapewniali legitymizację i sami dbali o dystrybucję”.

W ciągu ostatniej dekady sztuczka ta została z powodzeniem zastosowana przez kilka społeczności internetowych. Jeden z najwcześniejszych przypadków miał miejsce we wrześniu 2008 roku, kiedy użytkownik opublikował wiadomość na forum Oprah Winfrey Show. Twierdził, że reprezentuje dużą sieć pedofilów liczącą ponad 9000 osób. Ale tego wpisu nie należy traktować poważnie: fraza „ponad 9000” (powyżej 9000) – nawiązanie do serialu animowanego „Dragon Ball Z”, w którym wojownik ocenia siłę wroga tymi słowami, była memem z anonimowe forum 4chan, pełne trollów. Ku uciesze użytkowników 4chan, Winfrey potraktowała wiadomość poważnie i przeczytała ją na antenie.

Zasadniczo fora internetowe, takie jak 4chan, Reddit i Gab, są inkubatorami zaraźliwych memów. Wkrótce po opublikowaniu przez użytkownika zdjęcia lub tekstu pojawia się wiele nowych opcji. Te nowe, zmutowane memy rozprzestrzeniają się i konkurują ze starymi; najbardziej zaraźliwe przetrwają na forach, słabsze znikają. To przetrwanie najlepiej przystosowanych jest procesem analogicznym do ewolucji biologicznej. Oczywiście nie mówimy o tysiącleciach, którymi dysponują patogeny, ale ta ewolucja oparta na crowdsourcingu oferuje znaczne korzyści treściom online.

Jedną z najbardziej udanych sztuczek ewolucyjnych, które trolle udoskonaliły, jest uczynienie memu tak absurdalnym, jak to tylko możliwe, co utrudnia ludziom zorientowanie się, czy jest poważny, czy nie. Z odrobiną ironii marginalne poglądy rozprzestrzeniają się lepiej niż bez niego. Jeśli publiczność się obrazi, autor memu może powiedzieć, że to żart; jeśli użytkownicy uznają mem za żart, nie będą go krytykować. Ta taktyka jest stosowana przez grupy białej supremacji. Przewodnik po stylu neonazistowskim Daily Stormer zaleca, aby autorzy trzymali się lekkiego tonu, aby nie odstraszyć czytelników: „obelgi na tle rasowym powinny być w połowie żartem”.

W miarę jak memy stają się bardziej widoczne, mogą stać się skutecznym źródłem informacji dla polityków, którzy wiedzą, jak współpracować z mediami. W październiku 2018 r. Donald Trump użył hasła „Jobs Not Mobs” (Praca zamiast gangsterstwa), stwierdzając, że Republikanie opowiadają się za rozwojem gospodarki, a nie zachęcają do imigracji. Kiedy dziennikarze próbowali znaleźć źródło tej frazy, okazało się, że po raz pierwszy pojawiła się ona na Twitterze. Z biegiem czasu ewoluował na forach Reddit, stał się niezapomniany i ostatecznie stał się powszechny.

Nie tylko politycy zbierają marginalne treści. Pogłoski w Internecie i dezinformacja wywołały ataki na członków mniejszości narodowych na Sri Lance iw Birmie, a także wybuchy przemocy w Meksyku i Indiach. Jednocześnie kampanie dezinformacyjne mają na celu popchnięcie obu stron konfliktu do konfliktu. Poinformowano, że w 2016 i 2017 r. grupy trolli z Rosji stworzyły wydarzenia na Facebooku, aby organizować protesty skrajnie prawicowych grup i ich przeciwników. Niezadowolenie społeczne jest również podsycane przez dezinformację na określone tematy, takie jak szczepienia; nieufność do nauki dodaje się do nieufności wobec władz i sądownictwa.

Problem rozpowszechniania niebezpiecznych informacji nie jest nowy. Nawet termin „fałszywe wiadomości” pojawił się dawno temu – był używany pod koniec lat 30., choć nie na długo. Ale struktura sieci w Internecie pomaga przyspieszyć ten proces, rozprzestrzenić się i utrudnić rozpoznanie podróbek. Informacje, podobnie jak niektóre wirusy, mogą ewoluować, aby mogły być przesyłane wydajniej. Więc co możesz z tym zrobić?