Social Media Trolling: Jak A.I. Coraz lepiej w przewidywaniu gówien

$config[ads_kvadrat] not found

20191229_Turniej_ZielonaGora_Pivot_KoronaZakrzewo_76_31

20191229_Turniej_ZielonaGora_Pivot_KoronaZakrzewo_76_31
Anonim

Internet to piekielna kraina prowadzona przez trolle i zdominowana przez daremne argumenty Facebooka lub gorsze. I choć gigantom mediów społecznościowych w całej sieci zaczęli z niechęcią podejmować bardziej zdecydowane wysiłki, aby odwieść obraźliwy dialog, rozwiązania te wydają się być reaktywne, innymi słowy, po tym, jak szkody zostały już zrobione.

Nie powinno więc dziwić, że badacze sztucznej inteligencji chętnie opracowują systemy, które potrafią przewidywać argument online, zanim to nastąpi. Ale, jak niedawno wyjaśnił zespół naukowców z Cornell University Odwrotność, ta pilnie potrzebna innowacja nie jest tak daleka od próby przedstawienia przyszłości.

„W przeszłości pracowano nad wykryciem, czy dany komentarz jest toksyczny” - mówi dr inż. Jonathan Chang. „Nasz cel jest nieco inny, chcemy wiedzieć, czy można przewidzieć, czy w przyszłości cywilna rozmowa wymknie się spod kontroli. Aby zbadać to pytanie, przyglądamy się rozmowom między edytorami Wikipedii, z których niektóre pozostają cywilne, a inne wymykają się spod kontroli ”.

Chang i jego współpracownicy przeanalizowali setki wiadomości wysyłanych między czasami łatwo irytowanymi kuratorami Wikipedii. Następnie wykorzystali 1270 rozmów, które obróciły się w ofensywny sposób, aby wyszkolić model uczenia maszynowego w celu zautomatyzowania tego rodzaju moderacji. Ich wyniki opublikowano w artykule, który został przedstawiony na dorocznym spotkaniu Association for Computational Linguistics 15 lipca.

Jak więc robił się bot „uspokójmy się”? Na szczęście nie jest zbyt brudny. Skończyło się na 65 procentach dokładności, nieco niższych niż 72-procentowy wskaźnik sukcesu ludzi. Naukowcy odkryli tę statystykę, tworząc internetowy quiz, w którym ludzie mogli sprawdzić swoje umiejętności moderowania komentarzy. Okazuje się, że trudno się domyślić, czy użytkownicy mediów społecznościowych będą się wydzwaniać, czy nie.

„Chodzi o to, aby pokazać, że zadanie jest trudne, ale nie niemożliwe - na przykład, jeśli ludzie otrzymają tylko 50-procentową dokładność, nie byłoby to lepsze niż losowe zgadywanie i nie byłoby powodu sądzić, że moglibyśmy trenować maszynę do wykonania lepiej - mówi Chang. „Porównanie naszego modelu z ludzkimi odpowiedziami dało nam pewien wgląd w to, jak podobne lub odmienne jest nasze podejście obliczeniowe do ludzkiej intuicji”.

Chang nie wierzy, że pozbawi to Internet rozmów o śmieciach, ale uważa, że ​​jest to sposób na pomoc moderatorom mediów społecznościowych. Zamiast zwracać uwagę na miliony komentarzy, które mogą być publikowane dziennie, ich algorytm może zidentyfikować setki tych, które są narażone na kłótnię.

Chociaż można by pomyśleć, że przeczesywanie wszystkich tych potencjalnie nieprzewidywalnych kłótni dałoby Changowi smutek, naukowiec mówi, że doświadczenie rzeczywiście dało mu nadzieję dla ludzkości.

„W dzisiejszych czasach jest wiele pesymizmu związanego z rozmowami online, ale tutaj widzimy, że nawet w przypadkach, gdy rozmowa zaczyna się w nieprzyjazny sposób, nadal istnieje szansa dla uczestników na przemyślenia, zmianę ich ton i umieść rozmowę na dobrej drodze, aby uzyskać jaśniejszy wynik ”, mówi. „Przyszłość nie tkwi w kamieniu”.

Może jednak jest nadzieja na internet.

$config[ads_kvadrat] not found