poniedziałek, 21 sierpnia 2017
Oglądając rozmaite wykresy przedstawiające projekcje zmiany klimatu można czasem odnieść wrażenie, że wzrost temperatur przekłada się na inne zjawiska w nieskomplikowany, liniowy sposób. Znaczyłoby to, że przy wzroście średniej temperatury o 2,1°C względem czasów przed przemysłowych, świat wyglądałby podobnie jak przy wzroście o 1,9°C, tylko „trochę gorzej”. Rzeczywistość jest jednak inna. Badania naukowe wskazują, że w przypadku szeregu niepokojących zjawisk, istnieją tak zwane „punkty krytyczne”. Po ich przekroczeniu zmiany następujące w ziemskim układzie klimatycznym będą wymykać się spod naszej kontroli: działające w przyrodzie sprzężenia zwrotne będą popychać je w stronę nowego, odmiennego stanu równowagi. Określenie „równowaga” kojarzy nam się pozytywnie, ale niestety w tym przypadku chodzić może np. o sytuację, w której zniknie większość lądolodu grenlandzkiego, a poziom morza podniesie się o kilka metrów – przystosowanie się do takich zmian wymagać będzie od nas sporych nakładów (Lenton i in. 2009).
Przykładem punktu krytycznego, który już najprawdopodobniej przekroczyliśmy, jest ten związany z rozpadem lądolodu zachodniej Antarktydy. Jak piszemy w artykule "Mit: Na Antarktydzie jest za zimno, żeby jej lody topniały", masę lądolodu (i jej zmiany) dyktuje jej bilans. Dostawę masy zapewniają Antarktydzie opady śniegu nad kontynentem, a ubytek odłamywanie się (tzw. cielenie) lub topienie jęzorów lodowych sięgających morza. Z opublikowanych w roku 2014 prac naukowych (Favier i in. 2014, Rignot i in. 2014) wynika, że lodowce szelfowe w rejonie Morza Amundsena są już na tyle podmyte przez wody oceanu, że nawet powstrzymanie ocieplenia nie spowolni już spływu lodu z głębi lądu.
naukaoklimacie.pl
Pojawienie się sieci społecznościowych wywróciło ten standardowy model do góry nogami. Co prawda trendsetterzy i tytuły medialne dalej tu są, ale możliwość generowania fałszywego ruchu, lansowania hasztagów i trendów dyskusyjnych, obsługi tysięcy komentujących kont i czarowania niezliczonych stron poparcia czy wydarzeń otworzyła nowe możliwości skalowania działań. Szczególnie niebezpieczna okazuje się jedna z kluczowych zalet sieci – jej anonimowość, pozwalająca na przybieranie fałszywych tożsamości. Konieczność opłacania statystów do uczestniczenia w marszach czy stawiania fałszywych stron WWW instytucji naukowych, jak robiło to m.in. Monsanto rękami firm PR, odeszła na drugi plan.
Czy jest bowiem coś lepszego niż autentyczne tłumy protestujących – ale skrzyknięte przez fałszywy ruch w sieci?
Jedną z pierwszych namierzonych inicjatyw cyfrowego astroturfingu zaprezentował American Petroleum Institute, gdy w sierpniu 2011 roku prawdopodobnie użył około 15 próbnych kont-botów do rozpoczęcia operacji kreowania poparcia dla Keystone XL, projektu rurociągu łączącego Amerykę z ropą z piasków bitumicznych w Kanadzie. Inwestycja wzbudzała powszechny opór ze strony okolicznych mieszkańców i osób zaangażowanych w ochronę środowiska, ale wydawało się, że znaleźli się także jej zwolennicy. Dostrzeżono jednak, że konta utworzono i zapełniono uwiarygadniającymi zdjęciami w tym samym czasie, zaś rzekomo chaotyczne posty były wzajemnie retweetowane w ramach grupy w równie skoordynowany sposób i dotyczyły wyłącznie jednego tematu.
(...)
W swoim filmie z 2010 roku Taki Oldham ukazał pierwszy zarys strategii cyberturfingu służący do politycznego manipulowania opinią publiczną. Udało mu się wejść w szeregi libertariańskiego centrum American Majority i nagrać jak trenowano zespoły do masowego wystawiania recenzji książkom i propagowania przygotowanych argumentów w różnych serwisach. Głównym donatorem organizacji był Eric O’Keef, polityk i lider organizacji lobbystycznych.
Koncepcja sięga już głębiej. W 2011 roku HB Gary, firma zajmująca się cyberbezpieczeństwem, została w odwecie za próby infiltracji środowiska Anonymous zhakowana. Wśród danych i wymian e-maili znaleziono dokumenty wskazujące na współpracę spółki z US Air Force w zakresie dostarczenia oprogramowania pozwalającego na automatyczną obsługę 10 kont z wygenerowaną “legendą” pełną zdjęć i postów. Narzędzie miało także generować zmienne IP, aby ukryć lokalizację operacji, a nawet przypisywać stałe dla większej wiarygodności. Przypadek został opisany przez różne media, jednak z racji na wagę sprawy dalsze śledztwo może być niemal niemożliwe na lata. Nie jest trudno jednak zauważyć, że mniej więcej w tym samym okresie z sieci społecznościowych na ulice wytoczyła się rewolucyjna fala Arabskiej Wiosny.
(...)
W 2014 roku analitycy portalu War on the Rocks odkryli, że krytyka syryjskiego prezydenta Asada spotyka się w mediach społecznościowych z falą odpowiedzi ze strony… kont atrakcyjnych kobiet zainteresowanych polityką. Podążając za siecią powiązań, trafili na nieznany, ale oceniany na bardzo dużej wielkości amalgamat prokremlowskich botnetów, przejętych kont i amplifierów agregujących “przekaz dnia”.
Grupa watchdogów z PropOrNot w specjalnym raporcie ocenia, że w trakcie kampanii prezydenckiej w 2016 roku kombinacja rosyjskiego pochodzenia fake news oraz cyberturfingu w istocie z powodzeniem docierała do blisko 15 milionów Amerykanów. W ten sposób sztucznie budowano gorące tematy, takie jak oszustwa wyborcze, czy też najbardziej udany – i całkowicie wykreowany – przekaz o chorobie Hillary Clinton. Przeprowadzono także udane ataki na giełdowe spółki, m.in. Walt Disney Co, wzbudzając panikę w związku z fikcyjnym atakiem terrorystycznym w parku rozrywki.
wethecrowd.pl
Rolę botów w politycznej grze od lat bada Samuel Woolley z Uniwersytetu w Oxfordzie i jego zespół w ramach projektu Computational Propaganda Research Project (COMPROP). Próbują nazwać i przeanalizować związki algorytmów, automatycznej komunikacji i polityki, w tym wpływ botów na opinię publiczną i trendy w mediach społecznościowych, rozprzestrzenianie się fałszywych treści, mowy nienawiści i dezinformacji.
To właśnie zespół COMPROP udowodnił, że polityczny przekaz działający na korzyść Donalda Trumpa i podważający wiarygodność Hillary Clinton, w dużej mierze był rozprzestrzeniany przez sieć botów. W dniu wyborów armia botów wystawiona przez Trumpa przewyższała liczebnością boty pracujące dla Clinton w proporcji 5:1. Najbardziej zaskakujące w ustaleniach Woolleya jest to, że wykorzystywania botów do manipulowania debatą publiczną politycy nawet specjalnie nie ukrywają. Zarządy i właściciele firm obsługujących te sieci utrzymują bliskie związki z przedstawicielami rządów i wpływowymi politykami.
Jak ten krajobraz wygląda w Polsce? Robert Gorwa, badacz związany z zespołem COMPROP, przeanalizował „polityczny” ruch na polskim Twitterze pod kątem aktywności tzw. fałszywych wzmacniaczy (false amplifiers), w tym botów. Jego raport opublikowany w lipcu tego roku („False Amplifiers and the Digital Public Sphere: Lessons from Poland”) ilustruje złożoność problemu, z jakim mamy do czynienia. Gorwa nie przechodzi do łatwych konkluzji, raczej stawia kolejne pytania niż dostarcza definitywnych odpowiedzi.
Drążąc temat, Gorwa przywołuje wcześniejsze opracowania (m.in. Centrum Stosunków Międzynarodowych, CERT), które wskazują na aktywność rosyjskich botów w polskich mediach społecznościowych. Sądząc po efektach, ich zadaniem jest eskalacja polsko-polskiego konfliktu i nastrojów narodowo-radykalnych, sianie dezinformacji w temacie konfliktu rosyjsko-ukraińskiego oraz zniechęcanie i zastraszanie użytkowników krytykujących politykę Rosji. Sam badacz podkreśla jednak, że jednoznaczne zidentyfikowanie aktorów schowanych za sieciami twitterowych botów jest bardzo trudne. Nie ułatwia tego sam Twitter, który nie wymaga (w przeciwieństwie np. do Wikipedii) rejestracji takich podmiotów, nie udostępnia badaczom pełnych danych o ruchu w swojej sieci i w rzeczywistości nie dąży do blokowania ani ograniczania aktywności botów.
panoptykon.org
Subskrybuj:
Posty (Atom)