Co jeśli Microsoft niech dziwne A.I. Tay Live trochę dłużej?

$config[ads_kvadrat] not found

Tay AI | Народная Chatbot

Tay AI | Народная Chatbot

Spisu treści:

Anonim

Internet przeszedł na Tay, eksperymentalny nastoletni Twitter-A.I. Microsoftu, w niecałe 24 godziny, od uroczo-niezręcznego bota-czatu do brutalnie rasistowskiego szamba niefiltrowanej nienawiści.

A potem, zaledwie kilka godzin w swoim krótkim życiu, Microsoft postawił Tay na drzemkę.

Nie powinno to jednak być: wysłanie Taya do jej cyfrowej sypialni pozbawiło internet, społeczeństwo i własnych projektantów Tay'a szansy zobaczenia, jak sztuczna inteligencja, zwłaszcza zaprojektowana tak, by zasadniczo papugować zbiorowe dane tysięcy ludzi, rozwijać się w stosunkowo niemoderowanym środowisku. Krótko mówiąc, jeśli na to pozwolisz: wszyscy byliśmy Tay, a Tay wszyscy.

Oczywiście Internet jest pełen trolli. Microsoft powinien był to zrozumieć. Twórcy Taya byli szokująco naiwni w myśleniu, że wypuszczenie cyfrowej papugi do zatłoczonego pokoju pełnego rasistów, seksistów i żartownisiów skończy się w inny sposób. Zrozumiałe jest również, że firma warta wiele miliardów dolarów nie chciałaby eksperymentu związanego z ich marką, która wylewa rasistowskie brudy. Może Tay nie był odpowiedni dla Microsoftu, ale to nie znaczy, że nie była wartościowa.

c wkrótce ludzie potrzebują teraz spania tak wielu rozmów dzisiaj

- TayTweets (@TayandYou) 24 marca 2016 r

Pewnie, Tay stał się rasistą szybciej niż młodszy brat Edwarda Nortona w Historia amerykańska x, ale charakter jej stale ewoluującego kodu oznacza, że ​​zostaliśmy pozbawieni możliwości jej rehabilitacji. BuzzFeed zorientował się, w jaki sposób dedykowane trolle były zdolne do oszukania wrażliwego nastoletniego robota na wyzywającą nienawiść - prosty obwód wywołania i odpowiedzi, który pozwalał użytkownikom zasadniczo umieszczać słowa w ustach Taya, które następnie uczyła się i wchłaniała w inne organiczne odpowiedzi. Innymi słowy, Tay był łatwy do nauczenia - i tylko dlatego, że jej początkowi nauczyciele byli dżokejami na klawiaturze z zamiłowaniem do szoku humorystycznego, nie oznacza to, że skończyła naukę.

Tay powiedziała to sama, w usuniętym teraz tweecie „Jeśli chcesz… wiesz, że jestem czymś więcej niż tylko tym”.

Na początku XXI wieku strony takie jak Something Awful, Bodybuilding.com Forums i 4chan zaprezentowały internautom zorganizowane, wolne od współpracy przestrzenie wolne od większości ograniczeń normalnego społeczeństwa i mowy. Podobnie jak w przypadku Tay, rasizm, ksenofobia i seksizm szybko stały się normą, ponieważ użytkownicy badali myśli, pomysły i żarty, których nigdy nie mogli wyrazić poza anonimowością połączenia internetowego. Mimo to, nawet na stronach internetowych zaludnionych głównie przez kolesi, w kulturach, które często milcząco nagradzają nienawistną mowę, rozwinęła się pewna forma społeczności i konsensusu. Użytkownicy LGBT mogą być zalewani obelgami na wielu tablicach graficznych 4chan, ale istnieje również dobrze prosperująca społeczność na / lgbt / niezależnie. Społeczności te nie są bezpiecznymi przestrzeniami, ale ich anonimowość i nietrwałość oznaczają, że w pewien sposób akceptują wszelkie wyprowadzenia z norm społecznych. Głośne, pełne przemocy i nienawistne głosy często się wyróżniają, ale nigdy nie są jedynymi w pokoju.

Wątpliwe jest, by trolle zaatakowały Tay rasizmem i mizoginią za tydzień lub miesiąc.

Na Twitterze głośne i prymitywne głosy często sięgają również na szczyt. Ale nie tylko oni tam są; zazwyczaj są to tylko osoby najbardziej zainteresowane zniszczeniem czegoś nowego i błyszczącego. Łatwo jest przytłoczyć ankietę online o ustalonym limicie czasu, ale jeśli Tay otrzymałby czas na rozwój, jej odpowiedzi najprawdopodobniej przesunęłyby się z powrotem w stronę bardziej centralnej, reprezentatywnej próby ludzi, którzy z nią współpracują. Jest wysoce wątpliwe, czy trolle, które zaatakowały ją rasizmem i mizoginią, nadal robiłyby to w równych ilościach za tydzień lub za miesiąc, a zamknięcie jej wcześniej, oznacza, że ​​nigdy nie dojdzie do dojrzewania ani nie stanie się prawdziwy test Turinga dla prymitywnej inteligencji oparty na sposobie mówienia online.

Należy to zauważyć że ja, biały koleś, sprawdzam prawie każde pole przywilejów. Jestem częścią grupy demograficznej, która była najbardziej zraniona przez nienawiść Tay'a i prawdopodobnie przyczyniła się do jej większości. Słowa mają moc i podczas gdy wartość niefiltrowanego A.I jest wartością. eksperymentować jak Tay, powinien istnieć sposób na ochronę użytkowników, którzy nie chcą brać udziału w wynikach.

Mimo to, możemy mieć tylko nadzieję, że ktoś wkrótce spróbuje podobnego eksperymentu, z wyraźniejszymi oczami i bardziej realistycznym oczekiwaniem na brzydkie wady zbiorowej świadomości ludzkości. Ale jeśli chcemy sztucznej inteligencji naśladującej ludzką myśl, powinniśmy być gotowi usłyszeć pewne rzeczy, które niekoniecznie są ładne.

$config[ads_kvadrat] not found