Serdecznie zapraszamy do lektury abstraktów wystąpień panelistów, którzy zabiorą głos podczas konferencji „Horyzonty studiów strategicznych” organizowanej przez Stowarzyszenie Studiów Strategicznych 7 czerwca br. Poniższy dotyczy natury sfery informacyjnej w kontekście jej militaryzacji przez różnorakie podmioty.

Gdy w połowie II dekady XXI w. – m.in. w związku z aneksją Krymu czy ingerencją w wybory prezydenta USA i referendum o członkostwie Wielkiej Brytanii w UE – dezinformacja została przez wiele państw (szczególnie Zachodu) uznana za problem o żywotnym znaczeniu dla bezpieczeństwa międzynarodowego, była identyfikowana przede wszystkim jako instrument presji „poniżej progu wojny” wywieranej przez sharp powers (zwłaszcza Rosję i, w nieco mniejszym stopniu, Chiny). Choć uznawano, że skala wrogiego oddziaływania wynika przede wszystkim z właściwości zdominowanego przez internet i media społecznościowe środowiska informacyjnego, głównego zagrożenia upatrywano (i co do zasady w dalszym ciągu upatruje się) w polityce państw nieprzyjaznych Zachodowi. Im więcej jednak wiemy o naturze samego instrumentarium, tym bardziej zasadne stają się pytania o istotę problemu. Coraz liczniej przeprowadzane i upubliczniane studia wskazują na zagrożenia wynikające z polityki korporacji Big Tech (w szczególności serwisów społecznościowych) obliczonej na maksymalizację liczby użytkowników i ich zaangażowania, poprzez stosowanie zaprogramowanych w tym celu (nieraz także na zasadzie „uczenia maszynowego”, wykorzystującego narzędzia sztucznej inteligencji) algorytmów. Ich wykorzystanie przez wrogie podmioty jest tylko jednym z problemów o szerokich implikacjach dla bezpieczeństwa państw strefy euroatlantyckiej. Te zaś jak dotąd wykazują się pewną bezradnością w zetknięciu z transnarodowymi gigantami branży IT.

Prawie dwie dekady ciągłej ekspansji mediów społecznościowych, w szczególności chęć utrzymania przyrostu liczby użytkowników oraz „uzależnienia” ich od tychże portali, sprawiły, że Facebook, Twitter (dziś X) czy Youtube zaczęły stosować algorytmy selekcjonujące prezentowane użytkownikowi treści w sposób umożliwiający realizację tych celów. Szczególnym przypadkiem jest ponadto chiński TikTok, oparty w jeszcze większym stopniu na automatycznym profilowaniu treści. Mowa tu w szczególności o mikromanipulacjach na poziomie psychologicznym i kognitywnym, pośród których wymienić można choćby prowokowanie i generowanie negatywnych emocji (w szczególności frustracji i oburzenia – tak aby użytkownik czuł potrzebę dawania im na bieżąco upustu) czy też mechanizmy wartościujące („polubienia” w różnej formie), umożliwiające walidację. Powstające w sieci bańki filtrujące utrzymują użytkowników w strefie komfortu złożonej z osób o jednolitej tożsamości grupowej, zamykając ich jednocześnie na bodźce zewnętrzne (np. kontrargumenty lub postulaty osób myślących inaczej), co znacząco przyczynia się do polaryzacji społecznej w wielu wymiarach (zwłaszcza zaś politycznym). Skutkiem jest radykalizacja społeczeństwa, jako że algorytmy najbardziej „doceniają” poglądy skrajne (często wręcz w postaci teorii spiskowych) i polityków takie głoszących. Liczba państw, w których głosy te stają się częścią politycznego mainstreamu czy wręcz rządowej agendy, stale rośnie. Znajduje to ujście w świecie rzeczywistym w postaci różnorakich zagrożeń dla bezpieczeństwa narodowego i międzynarodowego.

Przykładów można przywołać aż nadto. Wspomniano już o ingerencji w wybory, który to problem dotyczył w szczególności utorowania drogi do władzy Donaldowi Trumpowi w 2016 r. Choć próby wywierania wpływu przez zewnętrznych graczy na kolejne wybory prezydenta USA, w 2020 r., nie okazały się skuteczne, nie można przy tym stwierdzić, że manipulacje w mediach społecznościowych pozostały bez wpływu na ówczesny bieg wydarzeń, czego dowodem wydarzenia na wzgórzu Kapitol 6 stycznia 2021 r., do których to aktów przemocy odchodzący prezydent podburzał buntowników swoimi twitterowymi wpisami, a wielu spośród nich stanowili zwolennicy internetowego ruchu QAnon, propagującego teorie spiskowe, z Trumpem w roli swoistego guru. Radykalizacja mająca źródło w internecie skutkowała jak dotąd również m.in.: 1) licznymi protestami i rozruchami na całym świecie (od „Arabskiej wiosny”, po trwające protesty rolników w UE) – często zwoływanymi ad hoc, bez liderów, 2) systematyczną przemocą na tle etnicznym lub religijnym (np. przeciwko mniejszości Rohingya w Mjanmie czy Syngalezom na Sri Lance), 3) aktami terroryzmu (vide zamach Brentona Tarranta na meczet w nowozelandzkim Christchurch w marcu 2019 r.). Wszystkie przywołane wydarzenia poprzedziła związana z tym aktywność sprawców w mediach społecznościowych. Omawiany stan rzeczy negatywnie oddziałuje również na niedotyczące bezpośrednio użycia przemocy wymiary bezpieczeństwa. Przykładowo, w zakresie bezpieczeństwa zdrowotnego potwierdza to choćby popularność ruchów antyszczepionkowych oraz teorie spiskowe dotyczące pandemii i wirusa rozpowszechniane w kontekście Covid-19.

Przywołany katalog kryzysów można by zapewne rozszerzać, ale już powyższe przykłady ukazują zarówno ciągłość czasową wyzwania (tj. nieudane próby walki z problemem u źródła), jak również wielość i różnorodność stwarzanych zagrożeń. Ewentualne przeciwdziałanie byłoby funkcją relacji pomiędzy państwami a gigantami branży IT. Dotychczasowa ich historia każe jednak zadać w tym kontekście pytania o granice władzy państwowej w odniesieniu do tego rodzaju koncernów – jak dotąd rządy wykazują się nieskutecznością czy wręcz pewną bezradnością w próbach narzucenia odpowiednich wzorców postępowania wobec sytuacji i procesów godzących w interesy bezpieczeństwa narodowego. W pogoni za większą liczbą użytkowników i skalą ich aktywności w mediach społecznościowych (co w praktyce sprowadza się do zysków nominalnych, w szczególności z reklam) koncerny te nie gwarantują odpowiednich standardów moderowania treściami, a rozpowszechnianie skrajnych poglądów jest wręcz pożądane, co prowadzi do pewnej funkcjonalnej symbiozy ze środowiskami je propagującymi. Ta z kolei, w szerokim ujęciu, może stanowić istotne ograniczenie woli politycznej podjęcia problemu, skoro dzięki tego typu serwisom decydenci dysponują tak skutecznym, a przy tym względnie tanim narzędziem marketingu politycznego. W dodatku próby uregulowania lub wprowadzenia ograniczeń nieuchronnie wiązałyby się z wieloletnimi procesami sądowymi, oskarżeniami o tłamszenie wolności słowa i swobody przedsiębiorczości czy ostatecznie kosztami politycznymi ze strony obywateli, w przypadku których media społecznościowe są istotną osią aktywności życiowej (wystarczy wspomnieć o sprzeciwie, jaki w USA wzbudzają plany zablokowania TikToka). Status quo sprzyja zaś próbom destabilizacji podejmowanym zarówno przez podmioty zainteresowane tym na użytek rozgrywek wewnątrzpolitycznych, jak i w kontekście zewnętrznej ingerencji, szczególnie wówczas, gdy podmiotowi inicjującemu uda się trafnie odczytać schemat działania algorytmu w odniesieniu do rodzaju i formy promowanych treści. Przy braku skutecznych i łatwo osiągalnych środków zaradczych pozostaje jedynie wykorzystanie tych samych kanałów i schematów do szerzenia narracji umacniających stabilność w wymiarze wewnątrzpaństwowym i międzynarodowym, tj. odpowiedzialna (indywidualna lub kolektywna) komunikacja strategiczna.

Piotr Śledź,
Uniwersytet Warszawski