W przeciwieństwie do Tay, chińskiego Chatbota, Xiaolce, Is Actually Pleasant

$config[ads_kvadrat] not found

Whatsapp бот. Наш печальный опыт

Whatsapp бот. Наш печальный опыт
Anonim

Kiedy usłyszałeś o Tay, tweeterze Microsoftu A.I., czy byłeś naprawdę zaskoczony tym, że komputer dowiedział się o ludzkiej naturze Świergot stanie się szalejącym rasistą w niecały dzień? Oczywiście nie. Biedny Tay rozpoczął „hellooooooo w🌎rld !!!” i szybko przekształcił się w kochający Hitlera, zachęcający do ludobójstwa kawałek komputerowego bzdura. Oczywiście Microsoft przeprosił za przerażające tweety chatbota „zerowym chłodem”. W przeprosinach firma podkreśliła, że ​​chińska wersja Taya, Xiaoice lub Xiaolce, zapewnia użytkownikom bardzo pozytywne doświadczenie w przeciwieństwie do tego eksperymentu, który poszedł tak bardzo źle.

Przeprosiny dotyczą szczególnie:

„W Chinach nasz chatbot Xiaolce jest używany przez około 40 milionów ludzi, zachwyconych jego historiami i rozmowami. Wielkie doświadczenie z XiaoIce skłoniło nas do zastanowienia się: czy taka sztuczna inteligencja byłaby równie urzekająca w radykalnie odmiennym środowisku kulturowym? Tay - chatbot stworzony dla dzieci w wieku od 18 do 24 lat w Stanach Zjednoczonych w celach rozrywkowych - jest naszą pierwszą próbą odpowiedzi na to pytanie. ”

Xiaolce został uruchomiony w 2014 r. Na mikroblogowaniu, opartej na tekście stronie Weibo. Robi zasadniczo to, co robił Tay, ma „osobowość” i zbiera informacje z rozmów w sieci. Ma ponad 20 milionów zarejestrowanych użytkowników (to więcej osób niż mieszka w stanie Floryda) i 850 000 obserwujących na Weibo. Możesz śledzić ją na JD.com i 163.com w Chinach, a także na aplikacji Line jako Rinna w Japonii.

Pojawiła się nawet jako reporterka pogody w Dragon TV w Szanghaju z ludzkim głosem i reakcjami emocjonalnymi.

Według New York Times, ludzie często mówią jej „Kocham cię”, a jedna kobieta, z którą rozmawiali, mówiła, że ​​rozmawia z A.I. kiedy jest w złym nastroju. Podczas gdy Tay, po zaledwie jednym dniu w Internecie, stał się sympatykiem nazizmu, Xiaolce oferuje darmową terapię chińskim użytkownikom. Przechowuje nastrój użytkownika, a nie informacje, dzięki czemu może utrzymać poziom empatii podczas następnej rozmowy. Chiny traktują Xiaolce jak słodką, uwielbiającą babcię, podczas gdy Amerykanie rozmawiają z Tay jak rodzeństwo z malutkim intelektem. Czy odzwierciedla to postawy kulturowe wobec technologii lub A.I. Czy to pokazuje, że Chińczycy są ogólnie lepsi od Amerykanów? Bardziej prawdopodobne jest, że Wielka Firewall w Chinach chroni Xiaolce przed agresją. Wolność słowa może czasami powodować nieprzyjemne rezultaty, takie jak Tay po 24 godzinach na Twitterze.

„Im więcej mówisz, tym mądrzejszy Tay dostaje”, jakaś biedna dusza w Microsoft wpisała profil chatbota. Cóż, kiedy trolle anglojęzyczne rządzą siecią. Pomimo tych wyników Microsoft twierdzi, że nie podda się atakom na Tay. „Pozostaniemy niezłomni w naszych wysiłkach, aby wyciągnąć wnioski z tego i innych doświadczeń, pracując nad wspieraniem Internetu, który reprezentuje najlepsze, a nie najgorsze, ludzkości”.

$config[ads_kvadrat] not found