Media społecznościowe podzielą nas jeszcze bardziej
Założyciel i dyrektor generalny Meta, Mark Zuckerberg, ogłosił duże zmiany w sposobie, w jaki firma zajmuje się dezinformacją na Facebooku, Instagramie i Threads. Zamiast polegać na niezależnych zewnętrznych weryfikatorach faktów, Meta będzie teraz naśladować X Elona Muska (dawniej Twitter) w korzystaniu z „notatek społeczności”. Te wkłady pochodzące z crowdsourcingu pozwalają użytkownikom oznaczać treści, które uważają za wątpliwe.
Zuckerberg twierdził, że te zmiany promują „wolność wypowiedzi”. Jednak niektórzy eksperci obawiają się, że ulega on naciskom prawicowych polityków i skutecznie pozwoli na rozprzestrzenianie się na platformach Meta lawiny mowy nienawiści i kłamstw.
Badania nad dynamiką grupy w mediach społecznościowych wskazują, że eksperci ci mają rację.
Na pierwszy rzut oka notatki społeczności mogą wydawać się demokratyczne, odzwierciedlając wartości wolności słowa i zbiorowych decyzji. Systemy crowdsourcingowe, takie jak Wikipedia, Metaculus i PredictIt, choć niedoskonałe, często potrafią wykorzystać mądrość tłumów — gdzie zbiorowa ocena wielu osób może czasami przewyższyć nawet ocenę ekspertów.
Badania pokazują , że zróżnicowane grupy, które łączą niezależne osądy i szacunki, mogą być zaskakująco skuteczne w rozróżnianiu prawdy. Jednak mądre tłumy rzadko muszą zmagać się z algorytmami mediów społecznościowych.
Wiele osób polega na platformach takich jak Facebook w kwestii wiadomości, ryzykując narażeniem na dezinformację i stronnicze źródła. Poleganie na użytkownikach mediów społecznościowych w celu kontrolowania dokładności informacji może jeszcze bardziej polaryzować platformy i wzmacniać skrajne głosy.
Dwie tendencje grupowe — nasza psychologiczna potrzeba grupowania siebie i innych — budzą szczególny niepokój: stronniczość w kwestii przynależności do grupy „własnej”/„obcej” oraz akrofilia (zamiłowanie do skrajności).
Zniekształcenie wewnątrzgrupowe/zewnętrzne
Ludzie są stronniczy w sposobie oceniania informacji. Ludzie są bardziej skłonni ufać i pamiętać informacje od swojej grupy wewnętrznej — tych, którzy dzielą ich tożsamość — podczas gdy nie ufają informacjom od postrzeganych grup zewnętrznych. To stronnicze nastawienie prowadzi do powstawania komór echa, w których podobnie myślący ludzie wzmacniają wspólne przekonania, niezależnie od ich dokładności.
Może się wydawać racjonalne, aby zaufać rodzinie, przyjaciołom lub współpracownikom bardziej niż obcym. Jednak źródła wewnątrzgrupowe często mają podobne perspektywy i doświadczenia , oferując niewiele nowych informacji. Z drugiej strony członkowie grupy zewnętrznej częściej przedstawiają różne punkty widzenia . Ta różnorodność jest kluczowa dla mądrości tłumu.
Jednak zbyt duże rozbieżności między grupami mogą uniemożliwić przeprowadzenie weryfikowania faktów przez społeczność. Wiele notatek społeczności na X (dawniej Twitter), takich jak te związane ze szczepionkami przeciwko COVID, prawdopodobnie nigdy nie zostało publicznie pokazanych , ponieważ użytkownicy nie zgadzali się ze sobą. Korzyścią z weryfikacji faktów przez osoby trzecie było zapewnienie obiektywnego zewnętrznego źródła, zamiast konieczności powszechnej zgody użytkowników w całej sieci.
Co gorsza, takie systemy są podatne na manipulację ze strony dobrze zorganizowanych grup z politycznymi planami. Na przykład, chińscy nacjonaliści podobno przeprowadzili kampanię, aby edytować wpisy w Wikipedii dotyczące relacji Chiny-Tajwan, aby były bardziej przychylne Chinom.
Polaryzacja polityczna i akrofilia
Rzeczywiście, polityka intensyfikuje te dynamikę. W USA tożsamość polityczna coraz bardziej dominuje nad tym, jak ludzie definiują swoje grupy społeczne.
Grupy polityczne są motywowane do definiowania „prawdy” w sposób, który jest dla nich korzystny, a niekorzystny dla ich politycznych przeciwników. Łatwo zauważyć, jak zorganizowane wysiłki mające na celu rozpowszechnianie politycznie motywowanych kłamstw i dyskredytowanie niewygodnych prawd mogą zepsuć mądrość tłumów w notatkach społeczności Meta.
Media społecznościowe przyspieszają ten problem poprzez zjawisko zwane akrofilią, czyli preferencją dla ekstremów. Badania pokazują , że ludzie mają tendencję do angażowania się w posty nieco bardziej ekstremalne niż ich własne poglądy.
Te coraz bardziej ekstremalne posty są bardziej negatywne niż pozytywne. Psychologowie wiedzą od dziesięcioleci, że złe jest bardziej angażujące niż dobre . Jesteśmy zaprogramowani, aby zwracać większą uwagę na negatywne doświadczenia i informacje niż na pozytywne.
W mediach społecznościowych oznacza to, że negatywne posty – dotyczące przemocy, katastrof i kryzysów – przyciągają większą uwagę, często kosztem bardziej neutralnych lub pozytywnych treści.
Ci, którzy wyrażają te skrajne, negatywne poglądy, zyskują status w swoich grupach, przyciągając więcej zwolenników i wzmacniając swój wpływ. Z czasem ludzie zaczynają uważać te nieco bardziej skrajne, negatywne poglądy za normalne, powoli przesuwając swoje własne poglądy w kierunku biegunów.
Niedawne badanie 2,7 miliona postów na Facebooku i Twitterze wykazało, że wiadomości zawierające słowa takie jak „nienawiść”, „atak” i „niszczenie” były udostępniane i lubiane częściej niż prawie każda inna treść. Sugeruje to, że media społecznościowe nie tylko wzmacniają skrajne poglądy — ale także pielęgnują kulturę nienawiści wobec grup zewnętrznych , która podważa współpracę i zaufanie niezbędne do działania systemu, takiego jak notatki społecznościowe.
Droga naprzód
Połączenie uprzedzeń negatywnych, uprzedzeń wewnątrz-/poza-grupowych i akrofilii potęguje jedno z największych wyzwań naszych czasów: polaryzację. Poprzez polaryzację skrajne poglądy stają się normalne, niszcząc potencjał wspólnego zrozumienia ponad podziałami grupowymi.
Najlepsze rozwiązania, które analizuję w mojej nadchodzącej książce The Collective Edge , zaczynają się od dywersyfikacji naszych źródeł informacji. Po pierwsze, ludzie muszą angażować się w różne grupy i współpracować między nimi, aby przełamać bariery nieufności. Po drugie, muszą szukać informacji w wielu wiarygodnych źródłach wiadomości i informacji, a nie tylko w mediach społecznościowych.
Jednak algorytmy mediów społecznościowych często działają przeciwko tym rozwiązaniom, tworząc komory echa i przyciągając uwagę ludzi. Aby notatki społecznościowe działały, algorytmy te musiałyby priorytetowo traktować zróżnicowane, wiarygodne źródła informacji.
Podczas gdy notatki społeczności mogłyby teoretycznie wykorzystać mądrość tłumów, ich sukces zależy od przezwyciężenia tych psychologicznych słabości. Być może większa świadomość tych uprzedzeń pomoże nam zaprojektować lepsze systemy — lub umożliwi użytkownikom korzystanie z notatek społeczności w celu promowania dialogu ponad podziałami. Tylko wtedy platformy mogą zbliżyć się do rozwiązania problemu dezinformacji.
Docent organizacji i innowacji oraz autor „The Collective Edge: Unlocking the Secret Power of Groups”, UCL
Artykuł pochodzi z serwisu The Conversation , udostępniony na licencji CC.