Cała prawda o fake newsach. Jak odróżnić prawdę od fałszu w sieci? [ROZMOWA]

Czytaj dalej
Fot. 123RF
rozm. Dorota Abramowicz

Cała prawda o fake newsach. Jak odróżnić prawdę od fałszu w sieci? [ROZMOWA]

rozm. Dorota Abramowicz

Skoro już dziś nie odróżniamy, czy za informacją w internecie stoją boty, czy ludzie, to za kilka lat nie oddzielimy prawdy od fałszu w sieci - ostrzega doktor nauk społecznych Grzegorz D. Stunża.

Z opracowanego przez naukowców z Oxford University raportu na temat propagandy w internecie wynika, że opinią publiczną w Polsce próbuje się sterować z fałszywych kont, a na Twitterze co trzeci wpis wysyłany jest przez tzw. boty. Czym są te boty?
To programy komputerowe, które mają określone zadania i funkcjonują w sposób automatyczny. Na przykład ich zadaniem jest śledzenie dyskusji w sieci i reagowanie na kluczowe słowa, a potem dodawanie komentarzy. W ostatnim czasie głośno było o takim przypadku, gdy na profilu TVN24 na Facebooku pod jednym z odnośników pojawiła się seria identycznych komentarzy. I jak się później okazało, wszystkie były wysłane z kont użytkowników spoza Polski.

Informacje podawane przez boty żyją tylko początkową energią, potem bez komentowania zwyczajnie umierają

Czy to początek przejmowania przez roboty władzy nad umysłami internautów w Polsce?
Nie do końca. Zjawisko to zostało ostatnio nagłośnione i choć może zaskakiwać, pokazuje, jak istotne stały się dla nas media społecznościowe. Zwłaszcza w kontekście podejmowania przez obywateli decyzji politycznych, szczególnie zachęcania odbiorców do popierania określonych ugrupowań czy nawet ustaw lub protestów przeciwko tymże ustawom. Sporo dzieje się na Twitterze, ale w porównaniu do Facebooka jest to o wiele mniejszy obszar zaangażowania Polaków.

Czy to oznacza, że Facebook jest bardziej autentyczny?
Wszystko jest autentyczne. Obserwujemy dyskusję, która toczy się przy użyciu nowych narzędzi. Profile osób, które tak naprawdę nie istnieją, pojawiają się w różnych serwisach. W raporcie opublikowanym przez Oxford Internet Instytute jego autor, Robert Gorwa, przywołuje rozmowę z osobą związaną z przedsiębiorstwem, które obsługując partie polityczne w Polsce, stworzyło 40 tysięcy fałszywych kont. Jedna zatrudniona tam osoba równocześnie prowadzi kilkanaście fikcyjnych tożsamości, pilnując, by nie nawiązywały one relacji ze sobą i by nadawały z różnych adresów IP.

Cała prawda o fake newsach. Jak odróżnić prawdę od fałszu w sieci? [ROZMOWA]
Ana Matusevic Grzegorz D. Stunża: Szkoła powinna przygotowywać uczniów do rozpoznawania fałszywych informacji w sieci

Po co ten kamuflaż?
Żeby jak najbardziej uwiarygodnić fałszywe profile i później, w razie potrzeby, wykorzystać je w dyskusjach sieciowych. Można tu przywołać bardzo stary żart rysunkowy, gdy siedzący na fotelu przed komputerem czworonóg zwraca się do drugiego kundelka: „Nikt w internecie nie wie, że jesteś psem”. O ile jeszcze - na razie - boty nie są na tyle sprytne lub tak dobrze zaprogramowane, by nie można było ich odróżnić od człowieka, to już coraz sprawniej działający „fachowcy” mogą stworzyć profile, które będą wiarygodne dla innych ludzi. Musimy wiedzieć, że ci, którzy tworzą profile wykorzystywane w celach politycznych lub marketingowych, cały czas się uczą. Korzystają z najnowszych technologii, by w jakiś sposób ukierunkować nasze myślenie. Krótko mówiąc - by nas oszukiwać.

Dlaczego tak łatwo dajemy się wprowadzać w błąd?
Zawsze byliśmy łatwo oszukiwani. A dlaczego tak się dzieje? Nikt nie zadbał, byśmy byli przygotowani do krytycznego odbioru treści medialnych. Nie jest istotne, w jaki sposób są one przekazywane - czy z na pozór autentycznego konta, czy też automatycznie, przez bota. Jednak skoro dziś już nie potrafimy odróżnić, czy za jakąś informacją stoją boty, czy ludzie, to za jakiś czas tym bardziej staniemy się bezradni w określaniu, co jest prawdziwe, a co jest fikcją, która ma komuś służyć.

W jaki sposób próbuje się nam wciskać fikcję?
Robert Gorwa przygotowując swój raport, wyróżnił trzy główne obszary informatycznej propagandy. Pierwszy z nich to polityczne boty, które udają ludzi i rozpowszechniają coś, co można porównać do spamu. Drugim elementem jest zorganizowany trolling, w tym kampanie nienawiści i prześladowań, w których uczestniczą już konkretni ludzie. Według raportu Oxford University, w pewnej części za obecny kształt polskiej propagandy internetowej odpowiada też Rosja, która próbuje chociażby kształtować opinie na temat wydarzeń na Ukrainie, w Rosji, a może także i w Polsce. Trzecim obszarem propagandy w sieci jest rozsiewanie nieprawdziwych informacji, z angielskiego tzw. fake news, które kierowane są do wybranych odbiorców.

Skąd twórcy sieciowej manipulacji propagandowej wiedzą, kto stanie się wdzięcznym odbiorcą fałszywych wrzutek?
W tym momencie warto przypomnieć, że w sieci funkcjonujemy w bańkach informacyjnych, przestrzeniach opierających się o algorytmy dostarczanych nam treści. Dostawcy internetowi, tacy jak Facebook i Google, filtrują informacje i przekazują te, które mogą okazać się dla nas atrakcyjne. Możemy oczywiście wybierać, kogo obserwujemy na FB, ale nie zawsze mamy rzeczywisty wpływ na wybór tego, co do nas dociera.

Upraszczając - Facebook zamyka nas w gronie tych, których lubimy i oddziela od tych, z którymi się nie zgadzamy, nie licząc m.in. sporów na publicznych fanpejdżach. A to w pewnym zakresie oznacza niemożliwość konfrontacji naszych poglądów i zdobytych informacji, wymianę poglądów.
Nie ma w tym nic dziwnego, gdyż opisane wyżej zjawisko wynika z pewnych schematów funkcjonowania ludzi. Przecież przed pojawieniem się internetu też tak bywało, że niezbyt chętnie i nieczęsto chodziliśmy na spotkania z osobami, których nienawidzimy. Trzeba jednak zwrócić uwagę, że serwisy społecznościowe dotąd zrobiły niewiele, by ukrócić praktyki, o których teraz mówimy. Czyli zlikwidować fałszywe konta, biorące udział w sporach lub oznakować treści przesyłane przez boty.

A mogą to zrobić?
Jeśli mają odpowiednie narzędzia informatyczne i potrafią profilować informacje, podając treści, na jakie oczekujemy, to równocześnie nie powinno być dla nich problemem sprawdzenie, kiedy pojawiło się dane konto, jak było tworzone, jakie ma ono relacje z innymi kontami. Proszę zresztą zwrócić uwagę na kwestie związane z tzw. spamem. Kiedyś to była plaga, obecnie spam nadal wprawdzie jeszcze się pojawia, ale już nie stanowi takiego, jak dawniej problemu. Czyli - można.

Zwolennicy spiskowych teorii mają teraz używanie, pytając w czyim interesie jest owo zaniechanie ze strony serwisów społecznościowych. W końcu kampania pełna fake newsów atakujących Hillary Clinton doprowadziła do szokującego zwycięstwa Donalda Trumpa. To już nie jest zabawa w internecie, to realna polityka wpływająca na życie setek milionów ludzi. Nie robi się niebezpiecznie?
Trzeba do tego podejść spokojnie, gdyż są to tylko nowe narzędzia używane w kampanii wyborczej. Kiedyś, przed pojawieniem się internetu, również używano różnych metod propagandowych, mających na celu obniżenie wiarygodności przeciwnika. Jedyna różnica jest taka, że dzisiaj korzysta się z metod cyfrowych, do czego nie jesteśmy jeszcze odpowiednio przygotowani. Zresztą w ogóle - generalnie - nie jesteśmy przygotowani na próby poddawania nas manipulacji. A wracając do przegranej Clinton, to być może otaczali ją ludzie nieumiejący wykorzystać internetu w kampanii wyborczej bądź tacy, którzy ten sposób walki o głosy wyborców zlekceważyli. Podobnie zresztą było podczas ostatnich wyborów w Polsce. Wydawało się, że to młodzi wyborcy Platformy są lepiej zorientowani w sferze mediów cyfrowych, a ostatecznie okazało się, że to konserwatyści, z założenia przywiązani do tradycji, umieją sprawniej wypuszczać serie memów i komentarzy, atakujących przeciwnika i budować swoją narrację w sieci. Przy czym, jak mówił niedawno prof. Dariusz Jemielniak, techniczna, medialna sprawność to nie wszystko i wyniku wyborów nie powinniśmy sprowadzać tylko do kampanii w sieci.

Pojawiają się też opinie, że za wyjątkowo agresywnym, niespotykanym wręcz poziomem internetowej wojny polsko-polskiej mogą stać Rosjanie, podkręcający polityczną dyskusję, równocześnie atakujący obie strony i „lajkujący” najbardziej ostre komentarze. Wierzy Pan w sąsiedzką prowokację?
No cóż, tak już w naszej wzajemnej historii bywało i zapewne tak jeszcze będzie się działo. Automatycznie więc w takich momentach zerkamy w stronę Rosji. Zresztą sami Rosjanie już przed rokiem wypuścili ironiczny artykuł pod tytułem „Jak rozpoznać rosyjskiego trolla”. Ów rosyjski troll miał nie używać polskich znaków diakrytycznych i cytować argumenty z prorosyjskich tekstów. Może więc to być akcja zaplanowana przez kogoś z zagranicy, ale też - czego nie można wykluczać - przez siły z Polski, zainteresowane doprowadzeniem do narastania wewnętrznych konfliktów. Do tego jeszcze dochodzi zwykły trolling prowadzony przez ludzi, którzy lubią robić zamieszanie. Bywa, że jest to próba odreagowania własnego, nie zawsze ciekawego życia lub chęć włożenia kija w mrowisko.

Mącą za darmo?
Są to osoby, którym nikt nie płaci. Z własnych doświadczeń wiem, że również administratorzy forów internetowych lub redaktorzy serwisów internetowych sami wpuszczali jako komentarze skrajne opinie, żeby podkręcić zaangażowanie czytelników w dyskusję i nabijać liczbę wyświetleń strony. To są narzędzia, które kuszą. Z drugiej strony, na szczęście, nie wszyscy są jednak podatni, by całymi dniami siedzieć przy komputerze i prowadzić dyskusję sprowokowaną przez trolle.

Któż miałby nas uodpornić antymanipulacyjną szczepionką?
Jest taka instytucja, z którą każdy człowiek ma kontakt. To szkoła. Jeśli jednak nie potrafi nas ona przygotować do krytycznego odbioru telewizji i kolorowych, drukowanych czasopism, to tym bardziej nie uodporni nas na manipulacje związane ze sztuczną inteligencją czy programami cyfrowymi. Dzieci nie uczą się w szkołach rozpoznawania - na podstawowym poziomie - informacji fałszywych, zwracania uwagi na kontekst. Dopóki się tym, jako dorośli nie zajmiemy, będzie coraz trudniej. Nadzieją są edukacyjne działania pozaszkolne, prowadzone przez organizacje pozarządowe i instytucje kultury, jak np. Medialab Gdańsk przy Instytucie Kultury Miejskiej. Rozpoznanie manipulacji, którą obecnie dostrzegamy, wymaga kolejnego, wyższego poziomu wtajemniczenia medialnego i kompetencji, zaś uodpornienie na fałszywe informacje, przekazywane przez coraz lepiej działające boty i ludzi, którzy chcą nas oszukać, działając za pomocą zamaskowanych fikcyjnych kont, będzie coraz trudniejsze.

Brzmi to bardzo pesymistycznie...
Jakoś jednak można z tym walczyć, a obywatele nie zawsze dają się zmanipulować. Przykładem była lipcowa, krótka afera wokół astroturfingu. Podczas protestów przeciw ustawom sądowym w internecie pojawiły się masowo ostrzeżenia, że za protestami stoją profesjonalni marketingowcy, podszywający się pod ruch społeczny. Jest to zjawisko zwane właśnie astroturfingiem. Potem okazało się, że samo wykreowanie hasła „astroturfing” było produktem... astroturfingu. Dokładnie opisała to ostatnio Katarzyna Szymielewicz z fundacji Panoptykon. Przez kilka godzin w niedzielę 23 lipca kilkanaście tysięcy komunikatów o marketingowym podłożu protestów wysyłała niewielka sieć kont, co wskazywało na wykorzystanie sieci botów. Potem jednak sztuczny ruch opadł, gdyż użytkownicy Twittera nie przekazywali informacji dalej.

Dlaczego boty zaprzestały pracy?
To pokazuje, być może, ograniczenia finansowe zleceniodawców, gdyż potrzeba środków, by angażować boty do nieustannej pracy. Warto też przypomnieć opinię Alberto Escorcii z Meksyku, na którego powołuje się Szymielewicz. Zwraca on uwagę, że serwisy społecznościowe stawiają na nowości oraz takie treści, które podawane są dalej. Informacje podawane przez boty żyją tylko początkową energią, potem bez komentowania zwyczajnie umierają.

Jak odróżnić prawdę od fałszu w sieci?
Weryfikacja nigdy nie jest do końca możliwa, a w cyfrowych czasach staje się jeszcze trudniejsza. Kilka rad jednak zawsze się przyda. Przy krytycznym odbiorze treści warto korzystać z różnych źródeł informacji. Podejrzane są źródła, które nagle pojawiają się pierwszy raz w internecie. Przed wyborami w Stanach Zjednoczonych zaobserwowano wysyp stron, które publikowały nieprawdziwe informacje na temat Hillary Clinton. Okazało się później, że stały za tym opłacane za produkcję fake newsów firmy m.in. z Europy Środkowej. Sprawdzajmy więc, kto publikuje informację, kto ją komentuje i udostępnia. Czy ten ktoś ma profil funkcjonujący od dłuższego czasu, konkretnych znajomych, którzy są namierzalni, jak wyglądały jego dotychczasowe komentarze. Zainteresujmy się kontekstem, szukajmy autorytetów informacyjnych, czyli osób, które gwarantują nam prawdziwość przekazywanych wiadomości. I przede wszystkim zastanówmy się, zanim kogokolwiek polubimy i udostępnimy dalej.

Nieufność jest dzisiaj w cenie?
Zależy o jakich informacjach mówimy. Jeśli jest to kwestia rozrywki, chyba nie warto jej analizować, chociaż opublikowane niedawno zdjęcie z wakacji przez szefową Wiadomości TVP, które nie było jej autorstwa, to jeden z przykładów, które podsycają nieufność. Za to już doniesienie o bombie atomowej, która zburzyła Nowy Jork należy dokładnie sprawdzić przed udostępnieniem.

Kto ostatecznie wygra wojnę o prawdę w sieci?

W dalszej przyszłości prawdopodobnie nie będziemy w stanie rozpoznać, kto jest prawdziwym użytkownikiem sieci. Dlatego my, jako obywatele, powinniśmy walczyć o lepszą, przygotowującą do życia w rozszerzonej, w dużej mierze medialnej rzeczywistości, edukację. Powinniśmy również naciskać na rządy i na właścicieli serwisów o zapewnienie nam większego bezpieczeństwa. Apelował o to w styczniu tego roku angielski rzecznik praw dziecka. Każdy z nas, korzystając z takiego serwisu, przekazuje mu wiele informacji o sobie. To nasza opłata, za którą powinniśmy oczekiwać ochrony przed zalewem fałszywych informacji.

[email protected]

rozm. Dorota Abramowicz

Polska Press Sp. z o.o. informuje, że wszystkie treści ukazujące się w serwisie podlegają ochronie. Dowiedz się więcej.

Jesteś zainteresowany kupnem treści? Dowiedz się więcej.

© 2000 - 2024 Polska Press Sp. z o.o.