Mark Zuckerberg ogłosił zakończenie programu weryfikacji faktów na Facebooku i Instagramie. Od kilku lat fact-checkerzy zrzeszeni w International Fact-Checking Network współpracowali z Metą i oceniali treści zgłoszone im przez użytkowników. Teraz mają zostać zastąpieni przez notatki społeczności, tak jak na X. Czy to dobry ruch, który zwiększy wolność słowa, a jednocześnie pozwoli skuteczniej walczyć z dezinformacją?
Nieidealny program
Program weryfikacji faktów rozpoczął się w 2016 r. czyli po wyborze Donalda Trumpa na Prezydenta USA. Miał pokazać że Meta podchodzi poważnie do kwestii dezinformacji, która szerzy się na jej portalach. Do współpracy zaproszone zostały organizacje zrzeszone w International Fact-Checking Network (IFCN). Podpisały one kodeks IFCN, a w nim zobowiązały się m.in. do bezstronności czy transparentności swoich działań.
Brzmi idealnie. Użytkownicy oznaczają fałszywe treści, niezależne i bezstronne organizacje je sprawdzają, a potem Meta je oflagowuje i rzadziej wyświetlają nam się w newsfeedzie. Jednak już w założeniu jest jeden problem. Codziennie na portalach Mety pojawiają się tysiące postów zawierające dezinformacje. Organizacja fact-checkerska jest w stanie sprawdzić kilka-kilkanaście z nich. Oczywiście będą to te osiągające największe zasięgi lub najważniejsze pod względem społeczno-politycznym, jednak dysproporcja jest ogromna. Wystarczy zadać sobie pytanie jak często widzieliśmy na naszych newsfeedach treści dezinformacyjne i jak często znajdowały się przy nich notki fact-checkerów.
Kolejna wada jest jednocześnie największym zarzutem do tego programu, głównie ze strony środowisk prawicowych, a więc cenzura i ograniczanie wolności słowa. Co ważne – fact-checkerzy nigdy nie usuwali postów. Meta jedynie przesuwała je na sam dół drabiny treści, które mogą nam się wyświetlić na newsfeedzie i dodawała kontekst podany przez fact-checkerów do danego posta. Natomiast mając do wyboru setki lub tysiące postów do sprawdzenia można nie oprzeć się pokusie, żeby zweryfikować te, które będą się najlepiej “klikały” lub te, które odpowiadają naszym poglądom. Jednak należy podkreślić, że cenzura na Facebooku była, jest i będzie. Objawia się chociażby w bańce filtrującej, która tak samo jak program weryfikacji faktów, pewnych treści nam nie wyświetla. Dlatego wszelkie krytyczne komentarze dot. cenzury powinny być kierowane w stosunku do mediów społecznościowych, które stworzyły taki system.
Z mojej perspektywy największa wada tego systemu to nieefektywność fact-checkingu. Mam tu na myśli stosunek wyświetleń treści dezinformacyjnych do ich weryfikacji. Dezinformacja bazuje na sensacji, a przez to zbiera dużo wyświetleń, lajków i udostępnień. Przez to działa efekt kuli śniegowej i wyświetla się coraz większej liczbie osób. Po weryfikacji istnieje duża możliwość że dementi już nam się nie wyświetli, a artykuł na stronie organizacji fact-checkerskiej nie będzie sensacyjny przez co dotrze do mniejszej liczby osób niż sama dezinformacja. Ponadto np. wyznawcy teorii spiskowych nie uwierzą takiemu dementi. Zadziała efekt potwierdzenia i inne psychologiczne zależności. Będą wierzyć w treść dementowaną a nie w prawdę.
Z tych względów program weryfikacji faktów na pewno nie jest idealny. Jednak propozycja Mety wydaje się krokiem wstecz w walce z dezinformacją.
Zuckerberg idzie w ślady Muska
Notatki społeczności zostały wprowadzone na portalu X po jego przejęciu przez Elona Muska. Mają pozwalać na wychwytywanie dezinformacji, manipulacji i innych niepożądanych treści przez samych użytkowników portalu. Meta ma zamiar wprowadzić podobny system. Tylko czy demokracja w mediach społecznościowych nie będzie wypaczona?
Pierwszym ważnym aspektem jest to, że notatki społeczności może stworzyć każdy kto zaangażuje się w system oceny uwag. Potem trafiają one do innych użytkowników, którzy mogą ocenić czy są one przydatne czy nie. Wiąże się to z dużą anonimowością całego procesu i możliwym brakiem doświadczenia, wiedzy i umiejętności docierania do informacji przez osoby tworzące notatki. Wyobrażam sobie sytuację w której powstaje notatka pokazująca dane dementujące wypowiedź polityka. Jest oceniana jako przydatna przez społeczność, jednak pomija inne dane lub kontekst, który jest bardzo ważny dla oceny. Taki błąd, teoretycznie, nie powinien się zdarzyć fact-checkerowi.
Następnym problemem notatek są bańki filtrujące. Tutaj ważny będzie algorytm Facebooka, który będzie wybierał osoby do oceny danej notatki. Może on wybierać spośród osób najczęściej wyświetlających dane treści, osób, które mają zupełnie inne poglądy lub je wymieszać. I żadne z tych rozwiązań nie jest dobre. Albo będziemy mieć skrajnie manipulacyjne i propagandowe notatki zaakceptowane przez jedną grupę politycznego sporu, albo nie będziemy mieć notatek wcale bo dwie strony nie są w stanie się porozumieć. Dezinformacja trafia na podatny grunt kiedy społeczeństwo jest podzielone i okopuje się na swoich pozycjach. Dlatego oddanie walki z nią wszystkim użytkownikom, może jeszcze ją zwielokrotnić. Notatki mogą być stronnicze. Mogą dotyczyć prawdziwych postów a sama notatka będzie dezinformacyjna lub notatka może nie pojawić się przy poście, który dezinformuje bo użytkownicy stwierdzą że jest nieprzydatna.
Ponadto system notatek ma podobne wady jak fact-checking. Notatka może być wstawiona po godzinach od opublikowania postu co sprawi, że większość osób już zobaczyła nieprawdziwą treść. Ludzie wierzący w teorie spiskowe lub których poglądy potwierdzają się w danym wpisie nie uwierzą notatce. A problem cenzury może być identyczny jeśli media społecznościowe jednak zdecydują się niżej pozycjonować posty z notatkami.
Nie ma idealnego wyjścia
Żaden z systemów nie jest idealny. Żaden nie zapewni wolnego od dezinformacji internetu przy okazji zabezpieczając wolność słowa. Musimy sobie odpowiedzieć na pytanie, którą z wolności poświęcić i w jakim stopniu: wolność słowa czy wolność od fałszywych treści. Dopiero po odpowiedzi na to pytanie możemy zacząć zastanawiać się nad metodą.