Od prawie dekady naukowcy gromadzą dowody na to, że platforma społecznościowa Facebook w sposób nieproporcjonalny promuje treści niskiej jakości i dezinformację .

Było więc pewnym zaskoczeniem, gdy w 2023 r. czasopismo Science opublikowało badanie , z którego wynikało, że algorytmy Facebooka nie były głównym motorem dezinformacji podczas wyborów prezydenckich w Stanach Zjednoczonych w 2020 r.

Badanie to zostało sfinansowane przez spółkę macierzystą Facebooka, Meta. Kilku pracowników Meta było również częścią zespołu autorów. Przyciągnęło ono szerokie zainteresowanie mediów . Zostało również docenione przez prezesa ds. globalnych Meta, Nicka Clegga , który powiedział, że pokazało ono, że algorytmy firmy nie mają „żadnego wykrywalnego wpływu na polaryzację, postawy polityczne lub przekonania”.

Jednak wyniki te zostały ostatnio zakwestionowane przez zespół badaczy pod przewodnictwem Chhandaka Bagcha z University of Massachusetts Amherst. W eLetterze opublikowanym również w Science twierdzą, że wyniki prawdopodobnie wynikały z majstrowania Facebooka przy algorytmie podczas przeprowadzania badania.

odpowiedzi eLetter autorzy oryginalnego badania przyznają, że ich wyniki „mogłyby być inne”, gdyby Facebook zmienił swój algorytm w inny sposób. Jednak twierdzą, że ich wyniki nadal są prawdziwe.

Cała ta katastrofa uwypukla problemy spowodowane finansowaniem i ułatwianiem badań nad własnymi produktami przez Big Tech. Uwypukla również zasadniczą potrzebę większego niezależnego nadzoru nad platformami mediów społecznościowych.

Kupcy wątpliwości

Big tech zaczął inwestować duże środki w badania naukowe nad swoimi produktami. Inwestuje również duże środki w uniwersytety w szerszym ujęciu. Na przykład Meta i jej szef Mark Zuckerberg  wspólnie przekazali setki milionów  dolarów ponad 100 uczelniom i uniwersytetom w Stanach Zjednoczonych.

Jest to podobne do tego, co kiedyś robiły wielkie koncerny tytoniowe.

W połowie lat 50. firmy tytoniowe rozpoczęły skoordynowaną kampanię mającą na celu wywołanie wątpliwości co do rosnącej liczby dowodów łączących palenie z szeregiem poważnych problemów zdrowotnych, takich jak rak. Nie chodziło o jawne fałszowanie lub manipulowanie badaniami, ale o selektywne finansowanie badań i zwracanie uwagi na niejednoznaczne wyniki.

Pomogło to w stworzeniu narracji, że nie ma ostatecznego dowodu na to, że palenie powoduje raka. Z kolei to umożliwiło firmom tytoniowym utrzymanie publicznego wizerunku odpowiedzialności i „dobrej woli” aż do lat 90 .

Pozytywny obrót

Badanie finansowane przez Meta, którego wyniki opublikowano w czasopiśmie Science w 2023 r., wykazało, że algorytm kanału informacyjnego Facebooka ograniczył kontakt użytkowników z niewiarygodnymi treściami informacyjnymi.

Autorzy stwierdzili, że „Meta nie miała prawa do uzyskania zgody przed publikacją”, ale przyznali, że zespół Facebook Open Research and Transparency „zapewnił znaczące wsparcie w realizacji całego projektu”.

W badaniu zastosowano eksperymentalną metodę, w której uczestnicy – ​​użytkownicy Facebooka – zostali losowo przydzieleni do grupy kontrolnej lub grupy leczonej.

Grupa kontrolna nadal korzystała z algorytmicznego kanału informacyjnego Facebooka, podczas gdy grupa leczona otrzymała kanał informacyjny z treściami prezentowanymi w odwrotnej kolejności chronologicznej. Badanie miało na celu porównanie wpływu tych dwóch typów kanałów informacyjnych na narażenie użytkowników na potencjalnie fałszywe i wprowadzające w błąd informacje z niewiarygodnych źródeł wiadomości.

Eksperyment był solidny i dobrze zaprojektowany. Jednak w krótkim czasie, w którym był przeprowadzany, Meta zmieniła algorytm swojego kanału informacyjnego, aby zwiększyć wiarygodność treści informacyjnych. W ten sposób zmieniła warunek kontrolny eksperymentu.

Zmniejszenie narażenia na dezinformację zgłoszone w oryginalnym badaniu było prawdopodobnie spowodowane zmianami algorytmicznymi. Jednak zmiany te były tymczasowe: kilka miesięcy później, w marcu 2021 r., Meta przywróciła algorytm kanału informacyjnego do pierwotnego.

W oświadczeniu dla czasopisma „Science” dotyczącym kontrowersji, Meta stwierdziła, że ​​jasno poinformowała wówczas badaczy o zmianach i że podtrzymuje oświadczenia Clegga dotyczące ustaleń zawartych w artykule.

Bezprecedensowa moc

Badanie bagatelizuje rolę algorytmicznego doboru treści w kontekście takich problemów, jak dezinformacja czy polaryzacja polityczna, stając się sygnałem ostrzegawczym przed szkodliwym wpływem algorytmów mediów społecznościowych.

Żeby było jasne, nie sugeruję, że badacze, którzy przeprowadzili oryginalne badanie w 2023 r., wprowadzili opinię publiczną w błąd. Prawdziwym problemem jest to, że firmy mediów społecznościowych nie tylko kontrolują dostęp badaczy do danych, ale mogą również manipulować swoimi systemami w sposób, który wpływa na wyniki finansowanych przez nie badań.

Co więcej, firmy mediów społecznościowych mają możliwość promowania niektórych badań na samej platformie, której dotyczą. To z kolei pomaga kształtować opinię publiczną. Może to stworzyć scenariusz, w którym sceptycyzm i wątpliwości co do wpływu algorytmów mogą stać się normą – lub w którym ludzie po prostu zaczną się wyłączać.

Tego rodzaju moc jest bezprecedensowa. Nawet wielki tytoń nie mógł kontrolować postrzegania siebie przez opinię publiczną tak bezpośrednio.

Wszystko to podkreśla, dlaczego platformy powinny być zobowiązane do zapewniania zarówno dostępu do danych na szeroką skalę, jak i informowania w czasie rzeczywistym o zmianach w ich systemach algorytmicznych.

Gdy platformy kontrolują dostęp do „produktu”, kontrolują również naukę wokół jego wpływu. Ostatecznie te modele finansowania samodzielnych badań pozwalają platformom stawiać zysk ponad ludzi – i odwracać uwagę od potrzeby większej przejrzystości i niezależnego nadzoru.

Timothy Graham jest profesorem nadzwyczajnym w dziedzinie mediów cyfrowych na Queensland University of Technology

Ten artykuł jest przedrukowany z The Conversation na licencji Creative Commons. Przeczytaj oryginalny artykuł .