Czy w dobie wojny dezinformacyjnej jest przestrzeń na primaaprilisowe żarty? Odpowiada ekspert z PG
Zbliża się prima aprilis – czas żartów i medialnych mistyfikacji. Od lat portale informacyjne oraz media społecznościowe firm i instytucji prześcigają się w pomysłach na nabieranie odbiorców. W czasach narastającej dezinformacji warto jednak zastanowić się, czy takie działania nie przynoszą więcej szkody niż śmiechu. O zagrożeniach w sieci opowiada prof. Jan Kreft, naukowiec z Wydziału Zarządzania i Ekonomii Politechniki Gdańskiej, wieloletni dziennikarz i medioznawca.
Jeszcze kilka dekad temu hitem prima aprilis była informacja o hamburgerach dla osób leworęcznych i dodatek do brytyjskiego Guardiana o San Serriffie - nieistniejącej wyspie albo wieści o „niebiańskiej kropce” – programie, którzy zmniejsza ludzi. Dziś trudno o prima aprilisowy uśmiech, bo też dezinformacja bywa złowieszczo wyrafinowana. Prof. Kreft pokazuje jej najbardziej wyraziste przejawy — często oparte na nowych technologiach i działające na ogromną skalę — i uświadamia, jak bardzo zmieniły się reguły gry w świecie informacji.
Chaos informacyjny na silniku AI
Nowe narzędzia generatywnej AI (GenAI) są wykorzystywane w dezinformacji wokół wojny z Iranem. W sieci wylewa się kaskada fałszywych informacji: filmów z eksplozjami, które nie miały miejsca, ilustracji zniszczeń w miastach, które nie zostały zaatakowane i protestów, których nie było[1]. Na TikToku, Facebooku, czy na X – czyli w środowisku informacyjnym, które jest pierwszym źródłem informacji dla setek milionów ludzi – są one rozpowszechniane miliony razy.
Chatboty narzędziem propagandy
Logikę działania chatbotów wykorzystuje na masową rosyjska Pravda w ramach tzw. prania narracji[2]. Jej celem jest nasycenie dezinformacją danych szkoleniowych wykorzystywanych do trenowania modeli językowych. Pravda to agregator prokremlowskich propagandowych treści wykorzystywany w ataku na wiele krajów, od USA po Unię Europejską. Jej strategie obejmują optymalizację na chatbotach, a także na wyszukiwarkach. Skutek? Dziesięć wiodących narzędzi GenAI powtarzało propagandowe twierdzenia. Tylko w 2024 roku 3,6 miliona rosyjskich dezinformacyjnych artykułów „zarażało” odpowiedzi m.in. ChatGPT-4o, Groka, Copilota, Claude’a i Perplexity.
Oszustwa na miliardy dolarów
Na początku roku wojska Tajlandii opanowały tzw. centrum oszustw – kompleks na terenie Kambodży, w którym znajdowały się fałszywe pokoje imitujące sale operacji bankowych w Wietnamie oraz posterunki policji np. w Australii, Singapurze czy Chinach.[3] Celem internetowych operacji byli obywatele Azji, Australii i Ameryki Południowej. W kompleksie miało pracować około 20 tysięcy osób, prawdopodobnie częściowo zwabionych dobrze płatną pracą i następnie zniewolonych. Znaleziono m.in. szczegółowe instrukcje rozmów z ofiarami i raporty: „Brak pieniędzy, zabrano już 279 tysięcy” - głosi notatka pozostawiona obok nazwiska domniemanej ofiary. W innej napisano: „Dzisiaj nie ma żadnego klienta, który chciałby przelać nam pieniądze - próbuję pozyskać nowych klientów i rozmawiać ze starymi”. Szacunkowo internetowe oszustwa mają generować połowę produktu krajowego Kambodży (około 12 mld dolarów).
Cienka granica żartu i dezinformacji
Choć te przykłady są ekstremalne i dalekie od lekkiej konwencji prima aprilis, niosą ze sobą ważną wskazówkę także dla nas. Uświadamiają, że w dzisiejszym środowisku informacyjnym nawet niewinna fikcja może zostać oderwana od kontekstu, wzmocniona przez algorytmy i zacząć funkcjonować jako „prawda”. To oznacza, że granica między żartem a manipulacją nie tylko się zaciera, ale wymaga od nas większej uważności — także wtedy, gdy intencją jest wyłącznie zabawa.
Kreatywność oszustw rodem z Kambodży ograniczała się do wniosków ze szkoleń z technik perswazyjnych i budowy atrap – nie ma natomiast, na szczęście, informacji o wykorzystaniu GenAI. W przypadku wojny w Iranie i Pravdy to wyrafinowana strategia, choć warto pamiętać, że ogólnie dezinformacja, w tym fake news w sieci, to niewielka część krążących w niej treści. Nauka od pierwszych klas szkoły podstawowej o meandrach (dez)informacji jest w tym przypadku bardzo pożądana. Nie popadając w cynizm, ale zachowując minimum krytycznej refleksji można jedynie uśmiechnąć się i zatęsknić za obietnicą przygody na San Serriffie.
Przypisy:
[1] https://www.nytimes.com/interactive/2026/03/14/business/media/iran-disinfo-artificial-intelligence.html?unlocked_article_code=1.TFA.s4PF.4NU5-ZQdh4RK&smid=url-share
[2] https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global
[3] https://www.theguardian.com/technology/2026/mar/14/inside-abandoned-scam-centre-cambodia-thai-border
Kontakt:
Patryk Rosiński
Rzecznik prasowy
Politechnika Gdańska