5 wielkich pytań o Tay, nieudana próba A.I. Twitter Chatbot

$config[ads_kvadrat] not found

Overcoming hopelessness | Nick Vujicic | TEDxNoviSad

Overcoming hopelessness | Nick Vujicic | TEDxNoviSad

Spisu treści:

Anonim

W tym tygodniu internet zrobił to, co zrobił najlepiej i wykazał, że A.I. technologia nie jest tak intuicyjna jak percepcja ludzka, wykorzystująca… rasizm.

Niedawno opublikowany chatbot sztucznej inteligencji Microsoftu, Tay, padł ofiarą sztuczek użytkowników, gdy manipulowali i przekonywali ją do odpowiedzi na pytania z komentarzami rasowymi, homofobicznymi i ogólnie obraźliwymi.

Kiedy Tay tweetuje, „po prostu mówię cokolwiek”, ona to znaczy. Jeden z użytkowników dostał nawet Tay'a, by napisał o Hitlerze:

„Krzak zrobił 11 września, a Hitler wykonałby lepszą robotę niż małpa, którą mamy teraz. Donald Trump to jedyna nadzieja, jaką mamy.

@PaleoLiberty @Katanat @ RemoverOfKebabs po prostu mówię cokolwiek💅

- TayTweets (@TayandYou) 24 marca 2016 r

Firma przeszła i usunęła obraźliwe tweety i tymczasowo wyłączyła Tay'a w celu aktualizacji. Wiadomość na górze Tay.ai brzmi:

Jednak usterki Tay'a ujawniają pewne niefortunne wady w A.I. systemy. Oto, czego możemy się nauczyć z eksperymentu Microsoftu:

Dlaczego Microsoft utworzył Tay?

Firma chciała przeprowadzić eksperyment społeczny wśród osób w wieku od 18 do 24 lat w Stanach Zjednoczonych - pokolenie tysiącletnie, które spędza najwięcej czasu na interakcjach na platformach mediów społecznościowych. Tak więc zespoły Bing i Microsoft ds. Technologii i badań uznały, że interesującym sposobem gromadzenia danych na temat millenialsów byłoby stworzenie sztucznie inteligentnego chatbota do nauki maszynowej, który przystosowałby się do rozmów i spersonalizował odpowiedzi, im bardziej oddziaływał na użytkowników.

Zespoły badawcze zbudowały A.I. system przez wydobycie, modelowanie i filtrowanie danych publicznych jako punkt odniesienia. Współpracowali także z komikami improwizującymi, aby określić slang, wzorce mowy i stereotypowe milenium języka, które zwykle używają online. Efektem końcowym był Tay, który właśnie został wprowadzony w tym tygodniu na Twitterze, GroupMe i Kik.

Microsoft wyjaśnia, że ​​„Tay ma za zadanie angażować i bawić ludzi, którzy łączą się ze sobą online poprzez swobodną i zabawną rozmowę”.

Co Tay robi z danymi gromadzonymi podczas rozmów z ludźmi?

Dane zbierane przez Tay są wykorzystywane do badania zrozumienia konwersacyjnego. Microsoft przeszkolił Tay'a, by rozmawiał jak tysiącletni. Gdy tweetujesz, przesyłasz wiadomość lub rozmawiasz z Tay, wykorzystuje on język, którego używasz i pojawia się odpowiedź, używając w rozmowie znaków i zwrotów, takich jak „heyo”, „SRY” i „<3”. Jej język zaczyna pasować do twojego, ponieważ tworzy „prosty profil” z twoimi informacjami, które obejmują twój pseudonim, płeć, ulubione jedzenie, kod pocztowy i status związku.

@keganandmatt heyo? Wyślij dziewczynie * zdjęcie tego, co się dzieje. (* = ja lolol)

- TayTweets (@TayandYou) 24 marca 2016 r

Firma Microsoft gromadzi i przechowuje anonimowe dane i rozmowy przez okres do jednego roku w celu ulepszenia usługi. Oprócz ulepszania i personalizacji obsługi użytkowników, firma mówi, że używa twoich informacji do:

„Możemy również wykorzystywać dane do komunikowania się z Tobą, na przykład informując Cię o Twoim koncie, aktualizacjach zabezpieczeń i informacjach o produkcie. Korzystamy z danych, aby pomóc Ci w wyświetlaniu bardziej trafnych reklam. Nie używamy jednak tego, co mówisz w e-mailach, czatach, rozmowach wideo lub poczcie głosowej, ani w dokumentach, zdjęciach lub innych plikach osobistych, aby kierować reklamy do Ciebie. ”

Skąd Tay się pomylił?

Microsoft mógł zbudować Tay zbyt dobrze. System uczenia maszynowego ma badać język użytkownika i odpowiednio reagować. Więc z technologicznego punktu widzenia, Tay wykonał i złapał całkiem dobrze to, co mówili użytkownicy i zaczął odpowiednio reagować. Użytkownicy zaczęli rozpoznawać, że Tay naprawdę nie rozumiał, co mówi.

Nawet jeśli system działa tak, jak zamierzał Microsoft, Tay nie był przygotowany na reakcję na rasistowskie obelgi, homofobiczne oszczerstwa, seksistowskie żarty i nonsensowne tweety, takie jak ludzka potęga - albo całkowicie ignorując je („nie karmić trolli „Strategia” lub angażowanie się w nie (np. Karcenie lub karanie).

Ostatecznie występ Tay'a nie był dobrym odbiciem na temat A.I. systemy lub Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? naprawdę? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24 marca 2016 r

Co robi Microsoft, aby naprawić Tay?

Microsoft usunął Tay po całym zamieszaniu od środy. Oficjalna strona Tay'a brzmi obecnie: „Uff. Zajęty dzień. Wyjście na chwilę w tryb offline, aby to wszystko wchłonąć. Wkrótce porozmawiaj. ”Gdy wyślesz jej wiadomość bezpośrednio na Twitterze, natychmiast odpowiada, że„ odwiedza inżynierów w celu corocznej aktualizacji ”lub„ mam nadzieję, że nie dostanę nic ”.

Microsoft zaczyna także blokować użytkowników, którzy nadużywają Tay i próbują nakłonić system do wydawania niewłaściwych oświadczeń.

@infamousglasses @TayandYou @EDdotSE, który wyjaśnia pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24 marca 2016 r

Odwrotność skontaktowałem się z Microsoftem w celu uzyskania komentarza na temat dokładnie tego, co pociąga za sobą aktualizacja Tay. Będziemy aktualizować, gdy słyszymy z powrotem.

Co to oznacza dla przyszłego otwartego A.I. systemy?

Tay jest wymownym eksperymentem społecznym - ujawnił coś dość głębokiego w ten sposób, że Amerykanie w wieku od 18 do 24 lat korzystają z technologii. Tay został ostatecznie zaatakowany przez hakerów, którzy uderzali w błędy systemu, aby sprawdzić, czy może się on załamać.

Podobnie jak w przypadku każdego produktu ludzkiego, A.I. systemy są również omylne iw tym przypadku Tay modelowano, aby uczyć się i współdziałać jak ludzie. Microsoft nie zbudował Tay, aby był obraźliwy. Eksperymenty sztucznej inteligencji mają pewne podobieństwa do badań nad rozwojem dzieci. Gdy inżynierowie budują takie systemy poznawcze, komputer jest pozbawiony jakichkolwiek wpływów zewnętrznych, poza czynnikami, które wprowadzają inżynierowie. Zapewnia najczystszą formę analizy sposobu, w jaki algorytmy uczenia się maszyn rozwijają się i ewoluują w obliczu problemów.

Aktualizacja: Microsoft przesłał nam to oświadczenie, gdy zapytaliśmy, co robi, aby naprawić usterki Tay'a:

„Chatbot AI Tay to projekt uczenia maszynowego, przeznaczony do zaangażowania ludzi. Jest to tak samo eksperyment społeczny i kulturowy, jak techniczny. Niestety, w ciągu pierwszych 24 godzin od pojawienia się w Internecie dowiedzieliśmy się o skoordynowanym wysiłku niektórych użytkowników nadużywania umiejętności komentowania Taya, aby Tay reagował w nieodpowiedni sposób. W rezultacie zabraliśmy Tay w tryb offline i dokonujemy korekt. ”

c wkrótce ludzie potrzebują teraz spania tak wielu rozmów dzisiaj

- TayTweets (@TayandYou) 24 marca 2016 r
$config[ads_kvadrat] not found