Wprawdzie funkcja Safety Mode jest na razie testowana, jednakże Twitter ma zamiar użyć zautomatyzowanej technologii do przeglądania treści tweetów i „relacji między autorem tweeta a osobą odpowiedzialną”, aby ustalić, czy blokada jest uzasadniona. Portal społecznościowy zapowiedział wprowadzenie tej funkcji już w lutym br.
Funkcja, która czasowo może blokować konta - na siedem dni - z racji na używanie niepożądanego języka, np. obelg czy mowy nienawiści.
Firma podkreśla, że konta, z którymi często wchodzimy w interakcje, nie będą blokowane. Głównym celem wprowadzonej funkcji jest powstrzymanie „przytłaczających i niepożądanych interakcji, które mogą zakłócać” doświadczenie użytkownika.
Każda osoba korzystająca z Safety Mode może sprawdzić, które konta zostały dla niej automatycznie zablokowane, i edytować tę listę.
Źródło: Koniec z nienawiścią na Twitterze. Portal będzie blokował agresywnych użytkowników