Algorytm wykrywania nadużyć Yahoo działa przez 90% czasu i jest dużym krokiem naprzód w tej dziedzinie

pomoc algorytmu komputerowego

Artykuły Yahoo zawierają wiele nieprzyjemnych komentarzy, podobnie jak reszta Internetu, więc zespół Yahoo postanowił wykorzystać ich sekcję komentarzy w celu opracowania algorytmu, który mógłby z powodzeniem identyfikować najgorszych przestępców. Ich nowy algorytm wykrywania nadużyć działa przez 90 procent czasu, co, jak mówią, czyni go bardziej skutecznym niż próby innych organizacji w podejmowaniu podobnych wyczynów i opisane jako duży krok naprzód w tej dziedzinie. 90 procent robi brzmi całkiem nieźle, przyznaję.

Przewodowy donosi, że Yahoo udostępnia również pierwszą publicznie dostępną, wyselekcjonowaną bazę danych internetowej mowy nienawiści w ramach swojego projektu walki z nadużyciami. Oznacza to, że inne witryny będą mogły korzystać z bazy danych komentarzy Yahoo w celu projektowania własnych algorytmów. Algorytm Yahoo został opracowany w oparciu o uczenie maszynowe, a także dane zgłaszane przez użytkowników dotyczące ich sekcji komentarzy.

Najtrudniejszą częścią każdego algorytmu moderowania komentarzy jest radzenie sobie z fałszywymi alarmami. Wiele algorytmów wykrywających nadużycia szuka określonych słów lub fraz, takich jak obelgi lub powszechne obelgi, i automatycznie oznacza komentarze do moderacji. Powoduje to jednak, że komentarze są oznaczane, nawet jeśli odnoszą się do oszczerstwa w kontekście stwierdzenia, że ​​jest to nieodpowiednie, na przykład, lub jeśli komentarz jest sarkastyczną imitacją trolla. Algorytm Yahoo najwyraźniej może wykryć pewne wzorce mowy i został zaprojektowany tak, aby móc odróżnić żartobliwy sarkazm od rzeczywistego nadużycia. (Oczywiście, jeśli twój zabawny komentarz jest nie do odróżnienia od rzeczywistego nadużycia, to jestem prawie pewien, że algorytm nadal go oznaczy, ale nie mogę powiedzieć na pewno, jak działa ta część sztucznej inteligencji.)

Yahoo zwerbowało przeszkolonych moderatorów komentarzy, aby pomogli udoskonalić algorytm, a także zapłacili kilku nieprzeszkolonym moderatorom i odkryli, że przeszkoleni moderatorzy byli o wiele lepsi w ustalaniu, które komentarze są odpowiednie (nie ma sensu, ale hej). W trakcie tworzenia sztucznej inteligencji Yahoo odkryło, że praca tych wyszkolonych ludzkich moderatorów była niezbędna do utrzymania skuteczności algorytmu i doskonalenia jego technik wykrywania.

Oczywiście, algorytmy nadal mają błędy , co wymagałoby (miejmy nadzieję zróżnicowanego) zespołu ludzkich moderatorów, aby kontynuować iterację metod stosowanych do klasyfikowania komentarzy. Brzmi jak ciężka praca, ale przynajmniej Yahoo rozumie teraz, jak ważne jest szkolenie i docenianie ról zarówno swoich dobrze wyszkolonych ludzkich moderatorów, jak i ich nowego kolegi AI.

legenda pierwszego sezonu korry

(przez Następna sieć , obraz przez Michael Cordedda/Flickr )