Na trzy dni przed wyborami w USA tamtejsze media społecznościowe zelektryzowała wiadomość o śmierci agenta FBI zaangażowanego w dochodzenie w sprawie e-maili Hillary Clinton. Zgodnie z artykułem opublikowanym na stronie "Denver Guardian" 45-letni Michael Brown, który miał badać sprawę przechowywania państwowej korespondencji na prywatnym komputerze, miał najpierw zabić o 12 lat młodszą żonę i popełnić samobójstwo. Artykuł rozszedł się po Facebooku z prędkością błyskawicy, a użytkownicy udostępnili go aż 560 tys. razy. Liczbę tę po części tłumaczy to, że sprawa korespondencji elektronicznej byłej sekretarz stanu była mocno ogrywana przez jej przeciwników, a temperaturę na finiszu kampanii podgrzał szef FBI James Comey, ogłaszając, że w dochodzeniu mogą pojawić się nowe wątki. Z pewnością ta informacja przemówiła też do zwolenników teorii spiskowej, zgodnie z którą od wielu lat małżeństwo Clintonów pozbywa się świadków swoich rzekomych nadużyć.
Ale prawdziwy problem polega na tym, że agent Michael Brown nigdy nie istniał, cała historia była zmyślona, a strona "Denver Guardian" została założona przed kampanią wyborczą i publikowała tylko nieprawdziwe lub mocno podkręcone historie (teraz jest już nieaktywna). Nieprawdziwa informacja o agencie Brownie nie była jedyną, w którą uwierzyli amerykańscy użytkownicy FB. Sukcesem był również artykuł mówiący o poparciu dla kandydatury Donalda Trumpa, jakiego rzekomo miał udzielić papież.
Popularność fałszywych newsów przypomniała, jak poważne miejsce w dostępie do informacji zaczęły odgrywać media społecznościowe. Według ośrodka badawczego Pew Research Center 44 proc. dorosłych Amerykanów traktuje je jako główne źródło informacji. A według opracowania zleconego przez Knight Foundation, finansującą badania nad dziennikarstwem i trendami medialnymi, jest to nawet 70 proc.
To oznacza, że Facebook stał się bramą strzegącą dostępu do informacji tworzonych przez tradycyjne media; pryzmatem, przez który jego użytkownicy patrzą na świat. A tych jest coraz więcej – spółka podaje, że codziennie aktywnych na portalu jest 1,18 mld ludzi, a jeśli wziąć pod uwagę tych, którzy zaglądają na swoje konto przynajmniej raz w miesiącu, liczba ta rośnie do 1,79 mld. Chcąc nie chcąc, Mark Zuckerberg skupił w swoich rękach olbrzymią władzę.
Bezstronna technologia
32-letni Mark Zuckerberg od lat powtarza: FB jest tylko firmą technologiczną, nie przedsięwzięciem medialnym. W domyśle: w naszym królestwie nie rządzą targani emocjami ludzie, tylko bezstronne oprogramowanie. Nie zmienia to jednak faktu, że Facebook dysponuje narzędziami do sterowania strumieniem informacji, który do użytkowników serwisu trafia. News Feed, czyli główna część portalu wyświetlająca aktywność naszych znajomych i polubionych profili (to właśnie tej funkcjonalności FB zawdzięcza swoją oszałamiającą karierę), jest sterowany przez algorytmy. To one, na podstawie naszej aktywności na portalu, decydują o tym, jakie treści nam podsuwać. Jeśli więc często lajkujemy lub komentujemy posty jakiegoś użytkownika, algorytm wychwyci to i będzie w przyszłości traktował jego treści priorytetowo.
Te algorytmy same w sobie nie stanowią niczego zdrożnego. FB ma prawo majstrować przy swoim produkcie, aby użytkownicy byli z niego zadowoleni i spędzali na portalu jak najwięcej czasu. Te same algorytmy stanowią jednak element władzy dzierżonej przez Zuckerberga. Kiedy w połowie roku Facebook zapowiedział, że zamierza je tak zmodyfikować, żeby częściej wyświetlały treści wytworzone przez użytkowników (a nie linki prowadzące do zewnętrznych serwisów), w mediach na świecie zapanował popłoch. Im więcej czasu ludzie spędzają na portalu (przeciętna dla użytkownika w USA to 50 minut dziennie – dane za Knight Foundation), tym mniej mają go dla "reszty" internetu – i tym częściej linki podane przez innych użytkowników stanowią wyłączne źródło wiedzy o treściach wytworzonych przez media. A im więcej artykułów z "New York Timesa" czy "Guardiana" pojawia się w aktywności facebookowych znajomych, tym więcej ruchu odnotowują te gazety na swoich stronach – co przekłada się na wpływy z reklamy. Po zmianie algorytmu niektóre serwisy zanotowały nawet 20-procentowy spadek liczby odwiedzin na swoich stronach, chociaż później tendencja się lekko poprawiła.
Inny przykład to niedostępna w Polsce funkcja Trending Topics. To okienko, które znajduje się w prawym górnym rogu serwisu – pokazuje ono listę najciekawszych artykułów tworzoną na podstawie najchętniej w danej chwili podawanych dalej treści przez wszystkich użytkowników Facebooka. W trosce o odpowiednią jakość materiałów, które trafiają na listę, Facebook zatrudnił zespół osób z dziennikarskim doświadczeniem (w wewnętrznym żargonie firmy nazywanych "kuratorami newsów"). Jak się jednak okazało, nadzór kuratorski nie był pozbawiony wad. Poświęcony technologiom portal Gizmodo opisał, powołując się na źródła wewnątrz firmy, jak zespół dziennikarzy wpływa na miejsce artykułów pokazywanych w Trending Topics. Kuratorzy mieli wpływać na ekspozycję artykułów o zabarwieniu konserwatywnym, a oprócz tego zamieszczali na liście najpopularniejszych tekstów takie, które uważali za ważne – ale niekoniecznie cieszące się popularnością wśród społeczności. Konserwatywni publicyści podnieśli larum.
Kierownictwo FB postanowiło zawczasu rozbroić bombę i zaprosiło w połowie maja do siedziby firmy 16 wpływowych przedstawicieli prawicy. Do siedziby firmy przy ul. Hakerów w Menlo Park (miejscowość znajdująca się w aglomeracji San Francisco) przybyli m.in. kontrowersyjny publicysta Glenn Beck, komentatorka CNN Sarah Elizabeth Cupp, doradca (wtedy jeszcze) kandydata na prezydenta Donalda Trumpa Barry Bennett, a także szefowie konserwatywnych think tanków: stojący na czele Heritage Foundation, były senator z Karoliny Południowej Jim DeMint oraz zarządzający American Enterprise Institute Arthur Brooks. "Wielu konserwatystów nie wierzy, że nasza platforma wyświetla treści bez politycznego skrzywienia. Chciałem osobiście usłyszeć ich zarzuty, a także odbyć otwartą rozmowę na temat tego, w jaki sposób możemy zaradzić brakowi zaufania. Chcę zrobić wszystko, co w mojej mocy, aby utrzymać bezstronność naszych produktów" – napisał na FB Mark Zuckerberg. Już sam fakt takiego spotkania pokazuje szczególne miejsce, jakie Facebook zajął w obiegu medialnym. Firmy z Doliny Krzemowej bardzo dbają o swój wizerunek jako organizacji apolitycznych i zaproszenie konserwatystów służyło jego podtrzymaniu. Przybyli do Menlo Park goście po spotkaniu nie mogli się nachwalić, jak otwarty na ich argumenty okazał się Zuckerberg.
Dla zapewnienia bezstronności Facebook postanowił zminimalizować ryzyko ludzkiej interferencji i oddał Trending Topics w ręce algorytmów. Na efekty nie trzeba było długo czekać: w sierpniu na listę najpopularniejszych artykułów dostał się materiał o tym, że Megyn Kelly – prezenterka konserwatywnej telewizji Fox News – straciła pracę, bo zaczęła popierać Hillary Clinton. Oczywiście historia była zmyślona. FB znów musiał poprawić mechanizm kurateli nad newsami.
Rząd dusz
I kiedy wydawało się, że problemy zostały zażegnane, w anglojęzycznym internecie doszło do prawdziwego wysypu stron specjalizujących się w zmyślonych newsach. Historie te dotyczyły najczęściej tematyki wokół wyborczej, korzystając z postępującej polaryzacji sceny politycznej w USA i temperatury sporu wyborczego. Zakładali je obcokrajowcy – "New York Times" opisał historię Gruzina, "Washington Post" dotarł do grupy Macedończyków, a także Amerykanie (publiczne radio z Kolorado dotarło do mieszkańca Kalifornii). Jednym z mechanizmów ich rozprzestrzeniania były media społecznościowe, konkretnie – Facebook.
Portal nie może zabronić swoim użytkownikom podawania dalej zmyślonych newsów – w końcu podpadliby pod ten paragraf również miłośnicy artykułów z satyrycznego portalu The Onion. Otwarte jednak pozostaje pytanie o to, w jaki sposób wpłynęły one na kształtowanie się opinii publicznej w krytycznym dla Stanów Zjednoczonych przedwyborczym czasie.
Jak duży mógł to być wpływ, pokazała Issie Lapowsky z magazynu "Wired", która w listopadzie opisała swoją wizytę w jednym z lokalnych sztabów Trumpa w Ohio. Porozmawiała tam z 75-letnią wolontariuszką Coni Kessler. Kobieta opowiedziała dziennikarce, dlaczego będzie głosować na kandydata republikanów, w tym m.in. o tym, że Clinton podczas debat telewizyjnych nosi w uchu słuchawkę, przez którą odpowiedzi dyktuje jej miliarder George Soros; że widziała filmy, na których Bill Clinton gwałci nieletnią dziewczynkę, a które tajemniczo już zniknęły; że były prezydent ma nieślubne dziecko z czarnoskórą dziewczyną. Zapytana o to, skąd to wszystko wie, Kessler odpowiedziała: To było na moim Facebooku.
Przed wyborami i po nich w Stanach Zjednoczonych amerykańskie media podały wiele przykładów osób biorących za dobrą monetę to, co znajdą po zalogowaniu się do największej sieci społecznościowej świata. Już po wyborach portal BuzzFeed opublikował analizę, z której wynikało, że przed 8 listopada aktywność użytkowników związana z fałszywymi newsami (które w olbrzymiej większości faworyzowały Trumpa) – czyli podawanie sobie dalej, komentowanie, lajkowanie – była znacznie większa niż w przypadku informacji podawanych przez "prawdziwe" media. W okresie od sierpnia do 8 listopada 20 najpopularniejszych zmyślonych historii wygenerowało więcej aktywności użytkowników – 8,7 mln – niż ta sama ilość prawdziwych historii (7,3 mln).
Sam Zuckerberg po wyborach bagatelizował wpływ Facebooka na debatę wyborczą. Wskazywał, że fałszywe newsy stanowią ułamek treści publikowanych na portalu przez użytkowników, a sugestie, że rozprzestrzenianie się nieprawdziwych informacji na serwisie wpłynęło na wynik wyborów, nazwał "szaloną". Ale pod wpływem jednej z najgorętszych w ostatnich latach dyskusji, jaka się wywiązała w USA na fali fałszywych newsów, Zuckerberg zaczął przyznawać, że kierowany przez niego serwis mógł zrobić więcej celem opanowania epidemii fałszywych informacji.
Dobra dieta
Dyskusja w Stanach dotyczyła m.in. pojęcia echo chamber (pogłosu). Jak się bowiem okazało, Facebook nie sprzyja debacie publicznej – a konkretnie uczestnictwie w niej rozumianego jako możliwość zapoznania się z jedną i drugą stroną sporu – ale nie dlatego, że został źle skonstruowany, tylko dlatego że powiela zachowania społeczne istniejące w świecie rzeczywistym. Tak jak "w realu" dobieramy sobie znajomych pod kątem ich zainteresowań, osobowości i przekonań, tak samo dzieje się w świecie wirtualnym. W efekcie, jak wykazali naukowcy w artykule opublikowanym na łamach "Science" – prawdopodobieństwo, że osoba o danych poglądach politycznych zetknie się na portalu z poglądami przeciwnymi, jest znikome. Na to jeszcze nakładają się algorytmy opracowane przez Facebooka, które co prawda nie dyktują nam, co mamy oglądać, ale dostosowują się do nas.
O negatywnych aspektach mediów skrawanych pod potrzebę użytkownika z pewnością nie pomyślał Nicholas Negroponte – naukowiec stojący na czele MIT Media Labs, później odpowiedzialny za projekt "One Laptop Per Child", czyli bardzo taniego notebooka edukacyjnego dla dzieci z krajów rozwijających się – kiedy w 1985 r. zarysował wizję "Daily Me", co można przetłumaczyć jako "Dziennik Ja". Miało być to medium, które dostosowywałoby przekaz medialny (nie jego treść, lecz dobór tekstów) pod potrzeby konkretnego użytkownika, zapoznawszy się uprzednio z jego pasjami i zainteresowaniami. Algorytmy sterujące News Feedem czy Trending Topics nie są niczym innym jak realizacją wizji naukowca z MIT sprzed ponad 30 lat. FB to także spełnienie innej wizji, zawartej w książce "The End of Big", o wiele mówiącym podtytule "Jak cyfrowa rewolucja uczyniła Dawida Goliatem". Jej autor Nicco Mele opisuje, jak nowe narzędzia komunikacji – w tym media społecznościowe – omijają tradycyjne kanały komunikacji, dając przy tym niespotykaną siłę zwykłym obywatelom. Jeśli ta siła jest w stanie mobilizować elektorat do stawienia się przy urnach nawet niewybrednymi środkami typu fałszywe informacje – a ostatnie wybory w USA pokazały, że tak właśnie jest – to tym większa odpowiedzialność spoczywa na barkach 32-letniego prezesa.
Zuckerberg zaczął to dostrzegać. Podobnie jak Google jego firma zadeklarowała, że odetnie twórców fałszywych newsów od zysków z reklam. Firma zapowiedziała także mocniejszy nadzór kuratoryjny nad sugerowanymi przez portal newsami, aby trafiały tam materiały o dobrej jakości, i wprowadzenia bardziej zaawansowanego systemu wykrywania fałszywych treści, które będą brane pod uwagę przez firmowe algorytmy. Serwis chce również rozszerzyć pulę zweryfikowanych, zaufanych profili i stron, gdzie ludzie zajmują się sprawdzaniem faktów. "Kwestię dezinformacji traktujemy poważnie. Nie chcemy jednak sami odgrywać roli arbitrów prawdy; zamiast tego chcemy polegać na naszej społeczności i zaufanych, trzecich stronach" – napisał 19 listopada na Facebooku Zuckerberg.
Ale przeciw władzy hegemona muszą też częściej występować użytkownicy. Doradca Partii Demokratycznej ds. kampanii wyborczych w internecie Clay Johnson ukuł termin "dieta informacyjna". Jego zdaniem żywienie i zdobywanie informacji to bardzo podobne procesy; tak samo jak można sobie zafundować śmieciowe jedzenie, tak samo można żywić się tylko medialną papką. Wskazane jest, aby w obydwu dietach była równowaga. W przeciwnym wypadku ryzykujemy zdrowie nie tylko własne, ale też najbliższych.