×

Facebook oznaczył część amerykańskiej Deklaracji Niepodległości jako mowę nienawiści

Facebook usilnie walczy z mową nienawiści na swojej platformie, której tym razem dopatrzył się w lekcji historii jednej z lokalnych gazet. Fragmenty tekstu zostały oznaczone jako naruszenie regulaminu, a strona czasopisma zawieszona.


Mowa nienawiści

W związku z 4 lipca i Dniem Niepodległości w Stanach Zjednoczonych, lokalna gazeta The Vindicator z Teksasu zaczęła zamieszczać fragmenty Deklaracji Niepodległości. Choć większość tekstu została opublikowana bez problemu, zdanie o „indiańskich dzikusach” wyrwane z kontekstu naruszało standardy społeczności Facebooka.

Wzniecał on wewnętrzną rebelię wśród nas i starał się nasłać na mieszkańców naszych kresów bezlitosnych dzikich Indian, których znaną taktyką jest mordowanie ludzi bez względu na wiek, płeć i stan.

Mechanizm fitrujący

Automatyczny system Facebooka wykrył „indiańskich dzikusów”, zgłosił naruszenie, a stronę gazety zawieszono. Readktorzy The Vindicator natychmiast próbowali rozwiązać problem i opublikowali artykuł opisujący incydent. Facebook nie miał wyjścia – przeprosił za zamieszanie i przywrócił posty opublikowane przez The Vindicator.

https://www.facebook.com/thelibertyvindicator/photos/a.475703379114158.111037.145425585475274/2233697523314726/?type=3&theater

Post został usunięty przez pomyłkę i przywrócony, gdy tylko go przejrzeliśmy. Każdego tygodnia przetwarzamy miliony raportów i dochodzi do pomyłek.

Automatyczne narzędzia

To tylko jeden przykład „pomyłki” algorytmu na Facebooku związanym z rzekomą mową nienawiści. Platforma wykorzystuje nie tylko algorytmy, ale również pracownicy sprawdzają poszczególne treści. Mimo, że firma jest świadoma złożonych problemów z tym związanych – zdania wyrwane z kontekstu, intencje – praktycznie niemożliwe jest wyeliminowanie tego typu incydentów.

Rozwiązanie

Przedstawiciele Facebooka przyznali również, że planują zatrudnić tysiące pracowników, by wiarygodniej analizować treści niestosowne i naruszające regulamin. Nie zmienia to jednak faktu, że algorytmy często popełniają błędy, a mówimy tutaj o gigancie mediów społecznościowych. Zapewne to jeden przypadek z tysięcy, gdy wypowiedź została ocenzurowana, choć jej cel był zupełnie inny, niż przypuszczał filtr.


Mika Nojewska

Miłośniczka wszystkiego, co dziwne i ciekawe. Głównie tworzy teksty dla nauka.rocks i przed komputerem spędza więcej czasu, niż chciałaby się przyznać. W wolnym czasie odkrywa nieodkryte i próbuje opanować świat. Kocia mama i mag na 55 levelu

Może Cię zainteresować