50 wyborów na świecie w 2024 roku

Jak pisze brytyjski "Guardian", eksperci ostrzegają, że firmy zajmujące się mediami społecznościowymi nie są gotowe do walki z dezinformacją podczas wyborów, które odbędą się na całym świecie w 2024 r. Problem ma wynikać z powodu barier językowych.

Reklama

Światowa Koalicja Na Rzecz Sprawiedliwości Technologicznej (Global Coalition for Tech Justice), zrzeszająca liderów społeczeństwa obywatelskiego i osób, które mają za sobą trudne doświadczenia w starciu z Big Techami, wzywa kluczowe firmy sektora, w tym Google (Alphabet), TikTok, Meta i X, do zapewnienia, że ich platformy są przygotowane do ochrony demokracji i bezpieczeństwa podczas nadchodzących głosowań. W 2024 r. aż 2 miliardy ludzi ma głosować w ponad 50 wyborach, w tym w USA, Indiach i Unii Europejskiej.

Reklama

Google, Meta, X i TikTok nie odpowiedziały na apel

Jak informuje "Guardian", w lipcu tego roku koalicja zwróciła się do Google, Meta, X i TikTok o opracowanie planów - zabezpieczonych pod względem finansowym - co do działań na poziomie globalnym i krajowym w celu ochrony wolności, praw i bezpieczeństwa użytkowników podczas wyborów w 2024 r. Jak na razie apel pozostał bez odpowiedzi.

Według informacji brytyjskiej gazety, Światowa Koalicja Na Rzecz Sprawiedliwości Technologicznej starała się uzyskać szczegółowe informacje na temat liczby pracowników przypisanych do obsługi mediów w danym języku i dialekcie. Celem jest zapewnienie specjalistycznej wiedzy na temat krajowego i regionalnego kontekstu przy moderacji treści.

Cytowana przez "Guardiana" polska ekspertka Katarzyna Szymielewicz z Fundacji Panoptykon powiedziała, że duże firmy technologiczne mogą zrobić więcej, aby zapewnić odpowiednie moderowanie treści w różnych językach. Wielkim wyzwaniem dla dużych platform jest skuteczna moderacja treści w różnych kontekstach kulturowych, a im dalej od języka angielskiego, tym staje się to bardziej skomplikowane.

Walka z dezinformacją nie tylko w czasie wyborów

Reklama

Jak dodała Szymielewicz, "moderacja treści sponsorowanych lub organicznych w celu wyeliminowania przemocy politycznej, treści mizoginistycznych, różnego rodzaju nadużyć nie jest tak oczywista, gdy patrzy się tylko na język... Platformy powinny bardziej starać się zająć tą kwestią i inwestować znacznie więcej w ludzi, którzy mogą skuteczniej moderować treści".

Polska ekspertka jest zdania, że duże platformy technologiczne muszą tłumić dezinformację i nienawiść, czyniąc swoje systemy bezpiecznymi przez cały czas, a nie tylko w okresach wyborczych. Taka strategia obejmowałaby środki mające na celu ograniczenie algorytmicznego zasięgu i widoczności dezinformacji oraz treści, grup i kont szerzących nienawiść - pisze "Guardian".