Jak YouTube sprawdza, czy w jego systemach nie znalazły się nieumyślnie krzywdzące i stronnicze treści?
Aby rozwijać nasze systemy wyszukiwania i odkrywania, wykorzystujemy dane od użytkowników z całego świata. Systemy te wykorzystują publicznie dostępne wskazówki. Nasze systemy wyszukiwania i rekomendacji nie zostały tak zaprojektowane, aby filtrować i przesuwać w dół filmy lub kanały na podstawie określonych poglądów politycznych.
Przeprowadzamy także audyt naszych systemów uczących się, aby mieć pewność, że nie występują w nim niezamierzone algorytmiczne odchylenia, takie jak stronniczość dotycząca płci. Poprawiamy znalezione błędy i ponownie szkolimy systemy, aby były bardziej dokładne.
Czy zasady YouTube stosują uprzedzenia wobec pewnych grup lub określonych poglądów politycznych?
Opracowując i aktualizując nasze zasady, dbamy o to, by poznać różne opinie, w tym zdanie Twórców, ekspertów z różnych dziedzin, zwolenników wolności słowa i organizacji reprezentujących wszystkie opcje polityczne.
Po opracowaniu zasad, poświęcamy dużo czasu, aby upewnić się, że nowe zasady są konsekwentne wdrażane przez globalny zespół weryfikatorów w oparciu o obiektywne wytyczne. Zanim jakiekolwiek zasady zostaną wdrożone, recenzenci na początkowych etapach (gdzie decyzje dotyczące zasad nie są faktycznie stosowane) muszą konsekwentnie podejmować tę samą decyzję w bardzo krótkim czasie. Jeśli tego nie zrobią, dokonamy przeglądu szkoleń i wewnętrznych wytycznych, aby były one zrozumiałe, a potem powtórzymy cały proces. Celem jest zmniejszenie subiektywności i osobistych uprzedzeń, co prowadzi do osiągnięcia wysokiej dokładności i spójności podczas pracy na dużą skalę. Tylko wtedy, gdy dokładność decyzji będzie na odpowiednim poziomie, dana zasada może zostać ogłoszona publicznie.