Strona głównaWiadomościŚwiatTak działają algorytmy YouTube. Cenzura prawicowych treści

Tak działają algorytmy YouTube. Cenzura prawicowych treści

-

- Reklama -

Algorytmy YouTube rekomendują oglądającym mniej ekstremistycznych treści – dowodzi szwajcarsko-amerykański zespół naukowców. Wyniki badania zostały opublikowane w PNAS.

Naukowcy ze Swiss Federal Institute of Technology w Lozannie i Uniwersytetu Pensylwanii użyli dwóch typów botów, aby odtworzyć sposób, w jaki ludzie wchodzą w interakcję na platformie społecznościowej YouTube.

- Reklama -

Manoel Horta Ribeiro, jeden ze współautorów badania przyznał w rozmowie z „New Scientist”, że od dawna próbował znaleźć odpowiedź na pytanie, jaki mechanizm mógłby powstrzymać algorytmy YouTube przed sugerowaniem kolejnych rekomendacji treści „ekstremistycznych” w pasku bocznym ciągle widocznym dla użytkownika.

Zanim badacze przystąpili do eksperymentu, wytrenowali dwa boty (każdy z własnym kontem YouTube), dając im do oglądania tę samą sekwencję filmów, aby upewnić się, że mają takie same preferencje wobec algorytmu YouTube.

WESPRZYJ NCZAS.INFO

NCZAS.INFO to obecnie jedyny w Polsce portal informacyjny, który gwarantuje wolną, niecenzurowaną i prawdziwą informację. Za pisanie prawdy jesteśmy szykanowani przez system rozprowadzania newsów w sieci. Z tego powodu nasze teksty w 75 proc. finansowane są wpłat Czytelników.

Serdecznie prosimy o wspomożenie naszej działalności. Dzięki Państwa wpłatom możemy pisać i rozpowszechniać PRAWDĘ.

Następnie bot kontrolny śledził system rekomendacji filmów dla prawdziwych użytkowników YouTube, a bot „alternatywny” zupełnie go ignorował. Dodatkowo, bot „alternatywny” został przeszkolony pod kątem przestrzegania określonych zasad, mających na celu oddzielenie zachowania użytkownika od wpływu algorytmu.

W badaniu wzięło udział 88 tys. użytkowników YouTube. Okazało się, że poleganie wyłącznie na systemie rekomendacyjnym skutkuje wyświetlaniem mniej radykalnych treści.

W drugim eksperymencie naukowcy sprawdzili, po jakim czasie z listy rekomendowanych treści znikną filmy o profilu „skrajnie prawicowym”.

– Algorytmy rekomendacji były krytykowane za to, że polecają problematyczne treści użytkownikom długo po tym, jak stracili nimi zainteresowanie – powiedział portalowi Techxplore – Homa Hosseinmardi z Wydziału Computer and Information Science Uniwersytetu Pensylwanii, pierwszy autor artykułu w PNAS.

Podczas gdy boty kontrolne podczas całego eksperymentu kontynuowały oglądanie „skrajnie prawicowej” treści, boty alternatywne „przełączały” użytkownika z jednego zestawu preferencji (oglądanie filmów „skrajnie prawicowych”) na inne (oglądanie filmów umiarkowanie stronniczych).

W miarę jak alternatywne boty zmieniały swoje preferencje dotyczące treści, badacze śledzili stronniczość polecanych filmów na pasku bocznym i stronie głównej.

– Średnio po obejrzeniu około 30 filmów, zawartość polecanych treści na pasku bocznym zmieniała się w stronę umiarkowanego profilu – powiedział Hosseinmardi. I dodał, że rekomendacje na stronie głównej dostosowywały się wolniej do nowego profilu.

– Wyświetlane rekomendacje na stronie głównej bardziej odpowiadały preferencjom użytkownika, a rekomendacje na pasku bocznym były bardziej powiązane z charakterem aktualnie oglądanego filmu – zauważył Hosseinmardi.

Naukowcy mają nadzieję, że ich narzędzie będzie można wykorzystać do badania interakcji między preferencjami użytkowników, a sztuczną inteligencją wykorzystywaną do tworzenia platform społecznościowych.

Jak zauważa „New Scientist”, najnowsze ustalenia opublikowane w PNAS są przeciwieństwem wyników badań przeprowadzonych przed 2019 r., z których wynikało, że YouTube sugerował treści ekstremistyczne częściej niż Gab, portal społecznościowy popularny wśród alt-prawicy. Sugeruje to, że zmiana algorytmów wprowadzona w 2019 r. faktycznie działa.

„W tym roku YouTube wprowadził ponad 30 odrębnych zmian w swoim systemie rekomendacji. Dziś firma twierdzi, że system ten uczy się na podstawie ponad 80 miliardów różnych parametrów, a jego ‘współczynnik wyświetleń naruszających zasady’ (VVR) – określający jaki procent wyświetleń na całej platformie pochodzi z filmów naruszających jego własne zasady – wynosi około 0,1 procent. YouTube twierdzi, że jego VVR spadł od czasu rozpoczęcia śledzenia tego wskaźnika w 2017 r., ale nie powiedział, z jakiego poziomu spadł” – pisze „New Scientist”.

Artykuł opublikowany w PNAS „w przekonujący sposób podważa poważne i dobrze udokumentowane zarzuty stawiane przez ostatnie sześć lat, jakoby algorytmy YouTube rozpowszechniały lub udostępniały treści ekstremalne i skrajnie prawicowe” – powiedział w rozmowie z „New Scientist” Guy Healy z Free University of Brussels (VUB) w Belgii. Zaznaczył też, że bardzo istotny jest ciągły audyt platform społecznościowych i badanie interakcji użytkowników.

Na uwagę zasługuje też fakt, że aż 96 proc. czasu spędzonego w internecie ludzie poświęcają na wszystko, tylko nie konsumowanie informacji. W grudniu 2023 r. prof. Magdalena Wojcieszak z Uniwersytetu Kalifornijskiego mówiła w rozmowie z PAP, że częściej niż informacji społeczno-politycznych, ludzie szukają informacji o wyniku meczu, prognozie pogody, czy jak ugotować konkretną potrawę.

Źródło:PAP
spot_img

Najnowsze