05 Kwietnia 2024

Aktualności


Kiedy do szklanki z czystą wodą wpuścimy kroplę atramentu, to po chwili ta woda stanie się granatowa. To dość dobrze obrazuje sytuację, do której może dojść, gdy większość z nas korzysta z jednego medium – ostrzega dr Miłosz Babecki. Medioznawcę z Wydziału Humanistycznego pytamy, jak pod wpływem mediów społecznościowych i sztucznej inteligencji zmieniają się kampanie wyborcze.

Wróćmy na chwilę do „przedinternetowych” czasów. Co radio i telewizja oferowały wtedy wyborcom?

Najważniejsze były wówczas pasma wyborcze, w których komitety mogły prezentować swoich kandydatów. Każdy z nich dostawał tyle samo czasu, a kolejność wystąpień ustalano w losowaniu. Przekaz komitetów pełnił funkcję informacyjną i był wolny od ingerencji dziennikarza czy moderatora. Odbiorcy musieli więc sami go ocenić.

A przy okazji podjąć decyzję, na kogo chcą głosować. Czym się przy tym kierowali?

Zgodnie z teoriami z pogranicza mediów i nauk politycznych wyborców można podzielić na dwie grupy: takich, którzy są merytoryczni i chłodno kalkulują, a którzy nazywani są homo politicusami i takich, którzy kierują się emocjami, zwracając uwagę np. na to, jak kandydat się prezentuje. Ich nazywa się homo automaticusami.

Dzisiaj kampania wyborcza w mediach ma inne oblicze.

Obserwujemy, że np. w mediach publicznych funkcja informacyjna została całkowicie zepchnięta do narożnika. Zastąpiła ją funkcja ekspozycyjna. Wystawia się wyborcę, czyli widza lub słuchacza, na oddziaływanie silnych emocji. Dołącza do tego funkcja perswazyjna, wspierana przez funkcję propagandową. Tymczasem wśród elektoratu wyłoniła się nowa grupa demograficzna – korzystająca przede wszystkim z mediów społecznościowych. TikTok, Instagram czy, rzadziej, Facebook stały się dla niej głównymi mediami. Ci, którzy nie chcą korzystać z social mediów, przenieśli się do mikrosfer telewizyjnych, czyli wybranej stacji, której są wierni, a część znalazła swoje miejsce na YouTubie i związała się emocjonalnie z kanałami prowadzonymi np. przez dziennikarzy, dla których, z różnych przyczyn, zabrakło miejsca w tradycyjnej telewizji, albo przez tych, którzy chcą o świecie opowiadać w nieskrępowany sposób.

Dzięki pańskiemu wykładowi z cyklu „Naukowe środy na UWM”, a poświęconemu „Sejmflixowi”, zwróciłam uwagę, że Konfederacja, która narzekała w czasie kampanii, że uniemożliwia się jej pojawianie w telewizji, ma rekordowe grono odbiorców w social mediach. Co stoi za tym sukcesem?

Nie oceniając przekazu merytorycznego Konfederacji, mogę powiedzieć, że to jedna z najdynamiczniej działających formacji w mediach społecznościowych, a Sławomir Mentzen jest najpopularniejszym polskim politykiem w tym sektorze. W czasie kampanii wykorzystywał TikToka w sposób, do którego został on stworzony, czyli interaktywnie. Liderzy polityczni często traktują swoje profile w social mediach jak tablice korkowe, na których umieszczają ogłoszenia. W zasadzie nie odpowiadają na komentarze i nie udostępniają postów innych osób, jeśli nie są to osoby znane (np. dziennikarze). Mentzen nie tylko wchodzi w dialog z użytkownikami TikToka, ale wspólnie z Krzysztofem Bosakiem wymyślili nawet autorski format wideocastowej dyskusji. Przenieśli do nowej przestrzeni coś, co znaliśmy np. z programu „Sonda” emitowanego w latach siedemdziesiątych.

 

Wspomniany Krzysztof Bosak był dobrze oceniany po swoim udziale w przedwyborczej debacie telewizyjnej. Mieścił się w wyznaczonym czasie, był przygotowany do odpowiedzi.

Media społecznościowe świetnie uczą dyscypliny czasowej i komunikatywności, mówienia językiem, którym posługują się odbiorcy. Na świecie prowadzone są badania naukowe, w których wykorzystuje się sztuczną inteligencję do oceny tego, czy język jest komunikatywny. Mamy w tym celu różne wskaźniki, np. wskaźnik przejrzystości mowy. Jeśli dobrze wypadamy na poligonie doświadczalnym, którym są media społecznościowe, to istnieje duże prawdopodobieństwo, że zawojujemy też media tradycyjne.

Duża aktywność w sieci ma swoje ciemne strony. Wypowiedzi mogą zostać wykorzystane i przerobione w technologii deepfake.

Przez ostatnie tygodnie szukam zdjęć, na których byliby Joe Biden i Donald Trump. Chodzi mi nie tyle o prawdziwe fotografie, ile o ich imitacje, przedstawiające graficzne klony tych polityków. Znalazłem np. mnóstwo przekazów ukazujących Trumpa skutego kajdankami, leżącego na ziemi, wprowadzanego do radiowozu albo uciekającego przed policjantami. Wiele osób wierzy w ich autentyczność, ponieważ ewolucyjnie jesteśmy przygotowani do natychmiastowej oraz intuicyjnej analizy i interpretacji obrazu. Dopiero od dwóch lat uczymy się natomiast tego, że algorytmy są w stanie wygenerować obrazy doskonale imitujące zdjęcie.

Niedawne kontrowersje wywołane „poprawionym” zdjęciem księżnej Kate i jej dzieci, przypomniały nam o tym, że ktoś te fotografie ocenia pod względem autentyczności.

Owszem, dziennikarze używają cyfrowych narzędzi, żeby sprawdzić, czy zdjęcie nie jest falsyfikatem, a następnie – jeśli okaże się, że tak – opatrują je etykietką „deepfake”. Właściwie tylko tyle mogą zrobić. Tak też dzieje się ze wspomnianymi „zdjęciami” Donalda Trumpa.

AI przydaje się politykom w czasie kampanii?

Kiedy ostatnio jechałem przez niemal całą Polskę, przyglądałem się plakatom wyborczym. Miałem wrażenie, że hasła, które na nich są, mogły zostać wygenerowane przez AI. Przeprowadziłem eksperyment: poprosiłem chat o wygenerowanie 15 sloganów zawierających słowa „nasz” lub „razem”, informując, że chciałbym je wykorzystać w kampanii samorządowej w Olsztynie. Otrzymałem takie propozycje: „Razem tworzymy nasz Olsztyn”, „Nasz Olsztyn – nasza przyszłość”, „Razem zmieniamy Olsztyn na lepsze”. Kiedy opublikowałem je na swoim profilu w serwisie X, niektórzy z komentujących napisali, że z podobnymi sloganami się już zetknęli. Myśląc więc o zagrożeniach, myślę o tym, na ile kandydaci prezentują własne programy, a na ile odtwarzają coś, co zostało wygenerowane przez AI.

Miejmy nadzieję, że powtarzają tylko to, z czym się zgadzają... A może korzystanie z algorytmów to coś takiego jak czytanie streszczenia lektury: droga na skróty?

W tym kontekście warto wspomnieć, że na kampanię samorządową przeznaczane są mniejsze fundusze niż na parlamentarną, a kandydaci często są zmuszeni samodzielnie tworzyć przekazy, w tym także wizualne. Poprosiłem Chat GPT o to, aby wytworzył mi cztery fikcyjne wizerunki osób, które miały być fikcyjnymi kandydatami w fikcyjnych wyborach samorządowych. Sztuczna inteligencja, co nie jest dla mnie zaskoczeniem, wiedziała znacznie lepiej niż część prawdziwych kandydatów, jak rozplanować poszczególne komponenty takiej ulotki, jak zadbać o kolorystykę, jak kandydatów „ubrać”, czy pokazać ich uśmiechniętych itp.

 

Dr Miłosz Babecki
Dr Miłosz Babecki: Jeśli jakieś medium pełni rolę monopolisty na rynku informacyjnym, ma szansę w masowej skali wpływać na poglądy ludzi

 

Niepokoić może to, że w social mediach mamy dostęp do ograniczonego wycinka rzeczywistości. Myślę tu, oczywiście, o informacyjnej bańce, czyli sytuacji, w której algorytm dobiera wyświetlane nam treści na podstawie naszej aktywności w sieci.

W bańkach informacyjnych żyjemy od zawsze. Za ich roztaczanie wokół nas odpowiedzialni są ludzie, którzy nas otaczają. Najczęściej na swoich przyjaciół czy partnerów wybieramy osoby, które są do nas podobne, ale los stawia na naszej drodze ludzi zupełnie od nas różnych. Mamy tu więc do czynienia z czynnikiem losowości. W przypadku algorytmów takiego czynnika nie ma. Treści, które są nam oferowane np. w mediach społecznościowych, są wybierane na podstawie naszych wcześniejszych działań. Tej bańki nie da się przebić. Oczywiście, można próbować, np. radykalnie przestając korzystać z mediów społecznościowych. Można też specjalnie wyszukiwać materiały, które nie są zgodne z naszym światopoglądem, oglądać filmy polityków, z którymi się nie zgadzamy. Algorytm będzie wówczas „zdezorientowany” i będzie nam podsyłał różne treści. Jestem zresztą zwolennikiem uregulowania tej „losowości” w sposób prawny. Podobnie jak tego, aby zahamować monopolizację mediów społecznościowych. Z raportu ONZ wynika, że na świecie żyje 8 miliardów ludzi. Z Facebooka korzysta ponad 5 miliardów z nich. Jeśli jakieś medium pełni rolę monopolisty na rynku informacyjnym, ma szansę w masowej skali wpływać na poglądy ludzi. Istnieje tymczasem np. bardzo duże podejrzenie, że w kampanię prezydencką, w wyniku której wybory wygrał Donald Trump, zaangażowane były rosyjskie służby specjalne, które poprzez sieć profili – fałszywych i niefałszywych, autonomicznych i moderowanych przez ludzi – wpływały na nastroje społeczne w Stanach Zjednoczonych. Kiedy do szklanki z czystą wodą wpuścimy kroplę atramentu, to po chwili woda stanie się granatowa. To dość dobrze obrazuje sytuację, do której może dojść, gdy większość z nas korzysta z jednego medium. Skoro jednak AI Act (unijne prawo regulujące kwestie dotyczące sztucznej inteligencji – przyp. red.) wejdzie w życie dopiero w roku 2025, to trudno mi wyobrazić sobie, że w najbliższej przyszłości doczekamy się przepisów antykoncentracyjnych.

Dawniej tymi, którzy „tłumaczyli nam świat”, byli publicyści. Dzisiaj tę rolę przejęli ludzie, którzy mają nie tyle wiedzę, ile „zasięgi”.

Na szczęście mamy nadal grono profesjonalnych komentatorów, wśród których jest np. ceniony przeze mnie Andrzej Stankiewicz: bardzo analityczny i zawsze świetnie przygotowany do swoich medialnych wystąpień. Jest on dla mnie gwarantem informacji najwyższej jakości, potwierdzonej w niezależnych źródłach. Wolności, dzięki której możemy obejrzeć wszystko i wszystko skomentować, towarzyszy zobowiązanie. To tak, jak w tym memie z Wojciechem Szczęsnym: czy można w polu karnym sfaulować Leo Messiego? Można, ale potem trzeba obronić karnego. I to jest odpowiedzialność. Wolności, dzięki której możemy obejrzeć wszystko i wszystko skomentować, towarzyszy właśnie taka odpowiedzialność. W tradycyjnych mediach również mamy do czynienia z natłokiem informacyjnym, ale najlepsi publicyści występują w roli filtra, certyfikują jakość informacji. W mediach społecznościowych muszę albo polegać na algorytmie, albo sam potwierdzać je lub falsyfikować.

Czytałam, że nawet co druga informacja generowana przez AI, a dotycząca wyborów, jest fałszywa. Algorytmy podają np. błędne dane na temat położenia lokali wyborczych i zasad głosowania.

Algorytmy cierpią na to, co nazywamy halucynacjami, czyli tworzą nieprawdziwe wyobrażenia o rzeczywistości. Istnieje więc prawdopodobieństwo, że sztuczna inteligencja po przeanalizowaniu różnych programów wyborczych doradzi nam głosowanie na kandydata, który wcale nie będzie dla nas odpowiedni. Jak mówiłem, wolność, którą dają nam media cyfrowe, wymaga od nas wykonania określonej pracy. Czy jesteśmy w stanie wykonać ją za każdym razem, gdy dociera do nas jakaś informacja? Nie jestem co do tego przekonany. Dlatego podobało mi się, że kiedy próbowałem zbyt szybko udostępnić otrzymany od kogoś link do artykułu, Twitter pytał mnie, czy na pewno chcę to zrobić bez lektury tekstu.

Niezłym pomysłem są informacje kontekstowe, które można dodawać na platformie X. A skoro o X mowa: jego właściciel, Elon Musk wygłosił niedawno kontrowersyjne zdanie: „Gdyby wolność słowa i social media istniały w czasach Auschwitz, to Holokaust byłby niemożliwy”. To teza nieweryfikowalna, ale zapytam o coś innego: czy media społecznościowe mogą wzmacniać społeczeństwo obywatelskie?

Mogą w tym pomagać. Nie byłoby rewolucji w Iranie, gdyby nie media społecznościowe. W Arabii Saudyjskiej kobiety używały hasztagu „#Women2Drive” do oznaczania filmów nagrywanych podczas prowadzenia samochodu, aby wywalczyć możliwość samodzielnej jazdy samochodem. Studenci w Hongkongu zbierają się na protesty, komunikując się dzięki mediom społecznościowym. Social media są alternatywnymi kanałami informacji, uzupełniają coś, co nazywa się luką poznawczą. Mamy dzięki temu okazję być lepiej poinformowani, świadomi występujących w przestrzeni medialnej populizmu i kłamstw, a więc, być może, także bardziej świadomi i aktywni jako obywatele. To świetnie widać np. w grach społecznego oddziaływania o tematyce politycznej. Dzięki specjalnemu edytorowi możemy stworzyć grę, z której inni dowiedzą się, że jakiś polityk nie przychodzi na sesje Parlamentu Europejskiego albo na nich zasypia, że gdzieś mamy do czynienia z korupcją, a jeszcze gdzieś indziej z łamaniem prawa lub zasad etyki.

Rozmawiała Daria Bruszewska-Przytuła

Zdjęcie ilustracyjne: Freepik

 

Dr Miłosz Babecki

 

Dr Miłosz Babecki pracuje w Instytucie Dziennikarstwa i Komunikacji Społecznej na Wydziale Humanistycznym UWM. Jest medioznawcą, badaczem gier społecznego oddziaływania i twórcą „Met@phor Games”, czyli pierwszego polskiego podcastu, który w całości dotyczy gier mediów. Można go słuchać na Spotify oraz w serwisie Spreaker.

 

 

 

 

 

 

Okładka "Wiadomości Uniwersyteckich" (marzec 2024)

Artykuł ukazał się w marcowym wydaniu „Wiadomości Uniwersyteckich”, których tematem przewodnim były wybory. Z ekspertami z UWM rozmawialiśmy m.in. o politycznych decyzjach, które będziemy podejmowali w najbliższym czasie. Pomogli oni także odpowiedzieć na kilka pytań, które zadajemy sobie zarówno jako obywatele, jak i konsumenci, a dotyczących np. rodzaju ogrzewania w domach, diety czy żywności ekologicznej. W wiosennym numerze znalazły się także teksty o badaniach prowadzonych na UWM oraz najważniejszych sukcesach i wydarzeniach, którymi przez ostatnie tygodnie żyła nasza uczelnia.

 

Rodzaj artykułu