YouTube a radykalizacja światowego Internetu

Czy YouTube przyczynia się do wspierania światowych ekstremistów?

Niedawno opublikowane badania naukowców w „Algorithmic Extremism: Examining YouTube’s Rabbit Hole of Radicalization”, potwierdzają jednoznacznie, że algorytmy You Tube pomagają radykalizować śwaitowy internet polecając coraz bardziej ekstremalne filmy.

Fikcja na You Tube przewyższa rzeczywistość i wypacza prawdę. Tak sugerowano w raporcie – „Fiction is outperforming reality: how YouTube’s algorithm distorts truth”.

Capital Magazyn: O co chodzi?

W opinii naukowców prowadzących w tej kwestii badania, algorytm YouTube faworyzuje kanały mediów głównego nurtu w stosunku do niezależnych treści, stwierdzając, że radykalizacja na Tou Tube z każdym rokiem ma coraz więcej wspólnego z ludźmi, którzy tworzą szkodliwe treści.

Szybko odpowiedziano na badania. Jedni krytykowali metody pracy, a inni argumentowali, że algorytm był jednym z kilku ważnych czynników, a sama analiza danych nie daje nam obiektywnej odpowiedzi na zarzuty współczesnej radykalizacji treści.

Capital Magazyn: Naszym zdaniem …

Problem polega na tym, że nie jesteśmy dzisiaj w stanie odpowiedzieć jednoznacznie na pytanie, jaką rolę odgrywa algorytm YouTube w radykalizacji zachowań i poglądów ludzi, ponieważ nie rozumiemy jak on działa.  Algorytmy odgrywają coraz większą rolę w naszym codziennym życiu, ale brakuje nam jakiejkolwiek przejrzystości.

Trudno argumentować, że YouTube nie odgrywa roli w radykalizacji postaw. Po raz pierwszy zwrócił na to uwagę socjolog technologii Zeynep Tufekci, który udowodnił w jaki sposób polecane filmy stopniowo kierują użytkowników do bardziej ekstremalnych treści. Według słów Tufekci filmy o szczepionkach prowadzą do teorii spiskowych, a filmy o polityce prowadzą do zaprzeczeń Holokaustowi i innych niepokojących treści.

Naukowcy znaleźli twórcze sposoby pokazania wpływu tych algorytmów na społeczeństwo, czy to poprzez zbadanie wzrostu prawa reakcyjnego lub rozpowszechniania teorii spiskowych na YouTube, czy poprzez pokazanie, w jaki sposób wyszukiwarki odzwierciedlają rasistowskie uprzedzenia ludzi, którzy je tworzą.

Sprawę tę opisał były pracownik YouTube Guillaume Chaslot, który pracował latami nad algorytmem rekomendacji witryny. Od czasu odejścia z firmy Chaslot nadal stara się zwiększyć przejrzystość tych zaleceń. Mówi jednak, że rekomendacje YouTube są ukierunkowane na teorie spiskowe i fałszywe filmy, które zachęcają ludzi do spędzania więcej czasu na stronie.

Brak przejrzystości działa portalu, sprawia, że jest prawie niemożliwe, aby walczyć z radykalizacją. W końcu bez przejrzystości trudno jest wiedzieć, co można zmienić, aby poprawić sytuację.

Jak więc działa algorytm YouTube? To pozostaje dla nas największą tajemnicą.

W rzeczywistości za maksymalizowanie czasu oglądania kanału odpowiada aż siednem algorytmów YouTube.

Systemy uczenia maszynowego wykorzystywane w algorytmach You Tube są zwykle duże, złożone i nieprzejrzyste. Odpowiednio są one często opisywane jako czarne skrzynki, w których informacja wchodzi, a inne informacje wychodzą, ale nikt nie widzi, co dzieje się pomiędzy nimi. Oznacza to, że ponieważ nie wiemy dokładnie, jak działają algorytmy takie jak system rekomendacji YouTube, próba ustalenia, jak działa strona, byłaby jak próba zrozumienia samochodu bez otwierania maski.

Czytaj więcej…

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *