YouTube zmienia przepisy dotyczące mowy nienawiści

Tylko w 2018 roku YouTube dokonało ponad 30 aktualizacji swoich wytycznych. Jednym z najbardziej złożonych i ciągle zmieniających się obszarów jest mowa nienawiści.

YouTube wprowadziło nowe przepisy dotyczące "mowy nienawiści" i jak podaje na firmowym blogu - "powstały one we współpracy z dziesiątkami ekspertów z zakresu ekstremizmu, suprematyzmu, praw obywatelskich i wolności słowa". Zakazana jest publikacja takich materiałów, w których dowolną grupę ludzi definiuje się jako lepszą, by uzasadnić dyskryminację, segregację lub ostracyzm innej grupy ze względu na takie cechy, jak wiek, płeć, rasa, kasta, religia, orientacja seksualna lub status weterana. Rozszerzone również inne wytyczne, aby lepiej egzekwować zasady dotyczące niepełnosprawności fizycznej lub psychicznej, jeśli są przedstawiane jako choroba lub nadają jej sens niedoboru psychicznego bądź fizycznego, lub jeśli są wykorzystywane jako uzasadnienie relacji podporządkowania. Dotyczyć to będzie na przykład materiałów wideo, które sugerują wyższość rasy białej nad innymi rasami (co miałoby na celu promocję segregacji rasowej), bądź że wiara chrześcijańska jest rodzajem choroby psychicznej. W tej kategorii mieszczą się również materiały, które przedstawiają np. sugestie, że środowisko LGBTQ kojarzone jest z pedofilią. Materiały wideo naruszające zasady korzystania z YouTube będą usuwane szybciej niż kiedykolwiek wcześniej.

Jak zastrzega Google: "To zaostrzone podejście nie ma nic wspólnego z atakiem na jedne czy drugie opinie polityczne. Materiały wideo, których przekaz polega na promowaniu dyskryminacji, segregacji lub wykluczenia, podlegają usunięciu – bez względu na to, z której strony spektrum politycznego pochodzą. Każdy użytkownik YouTube podlega nowym zasadom w zakresie mowy nienawiści – zarówno w zamieszczanych materiałach wideo, jak i w publikowanych komentarzach i innych treściach. W lutym podjęliśmy również nowe działania, aby jeszcze lepiej egzekwować Wytyczne dla Społeczności YouTube. Ujednoliciliśmy system sankcji za publikowanie materiałów wymagających usunięcia, jak również udoskonaliliśmy nasz system powiadomień. Z uwagi na ogromną liczbę materiałów wideo umieszczanych na platformie YouTube, może zdarzyć się tak, że dojdzie do nieuzasadnionego zablokowania danego materiału. Kiedy dowiemy się o takim błędzie, robimy wszystko, aby jak najszybciej przywrócić zablokowaną treść. Wdrożyliśmy również proces odwoławczy dla użytkowników, którzy chcieliby się odwołać od decyzji o usunięciu, jeśli uważają, że popełniono błąd. Zdajemy sobie sprawę, że niektóre z opisywanych treści mają pewną wartość dokumentalną, np. dla badaczy i organizacji pozarządowych, które pragną zrozumieć mechanizmy mowy nienawiści, by z nią walczyć. Właśnie z uwagi na ten cel analizujemy możliwości ich udostępnienia. W decyzji o usunięciu zawsze ważną rolę odgrywa kontekst – niektóre materiały mogą pozostać dostępne, ponieważ omawiają takie tematy, jak planowane akty prawne bądź mają na celu potępienie lub ujawnienie mowy nienawiści, jak również przedstawiają analizy bieżących wydarzeń."