Chatbot Tay firmy Microsoft powrócił, aby uzyskać wysoką i zasługuje na życie wieczne

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist
Anonim

Nienawidzony bot Microsoftu Tay krótko powrócił do życia w środę rano kilka dni po wypuszczeniu burzy tweetów tak oszałamiających rasistowskich, antysemickich i obraźliwych, że jej programiści publicznie przeprosili. Występ na bis był prawie tak silny jak jej pro-hitlerowski numer zamknięcia. „Palę kush infront (sic) policji”, napisał Tay. Śledziła doskonale nastoletnią wiadomość, wpadając w coś, co wyglądało na pętlę sprzężenia zwrotnego i powtarzając „Jesteś zbyt szybki, odpocznij” dziesiątki razy, zanim konto zostało zawieszone.

To musiało być jakieś mocne gówno.

Dla robota, któremu powierzono - zgodnie z jej biografią na Twitterze - brak „chłodu”, krótkie zmartwychwstanie Taya można interpretować jako dowód koncepcji. Microsoft chciał stworzyć bot, który odbijał internet i zmieniał się w oparciu o informacje od użytkowników, stając się w końcu mieszanką nas wszystkich. I to jest dokładnie to, co oni dostali. Wezwanie bota do awarii wydaje się nieprecyzyjne i wyłączenie jej nie ma sensu - i aktywnie działa przeciwko najlepszym interesom Microsoftu. Ponieważ Elon Musk udowodnił, że emituje awarie rakiet SpaceX, postęp jest najlepiej widoczny w oczach opinii publicznej. Oczywiście, porażki są nieuniknione, ale opinia publiczna uczy się więcej, gdy awarie są publiczne. Problem związany z pętlą sprzężenia zwrotnego, który Tay spotkał dziś rano, jest szorstkim odpowiednikiem wybuchu SpaceX. Microsoft zrobiłby sobie przysługę, aby ludzie mogli oglądać. Ważne jest, aby przypomnieć społeczeństwu, że prawdziwy postęp wymaga dużo pracy.

Nie ma wstydu, jeśli nie przejdzie się testu Turinga, tylko nie spróbuje.

Powinniśmy pozwolić Tayowi żyć, ponieważ jest niczym innym jak lustrem ludzi, którzy wchodzą z nią w interakcję. Nikt nie powinien oczekiwać, że debiutant narodzi się w sieci, a Microsoft powinien zaakceptować ograniczenia swojej misji. Jaka jest alternatywa tutaj? Wszechświat ma już popularnego droida protokołu. Nie potrzebujemy kolejnego.

Ha, wygląda jak @TayandYou, bot Microsoftu Artificial Intelligence wpadł w nieskończoną pętlę, tweetując sam! pic.twitter.com/fWZe9HUAbF

- Matt Gray (@unnamedculprit) 30 marca 2016 r

Internet rozwija się dzięki spontaniczności i znalezieniu prawdziwego w bałaganie przyjaznych dla konsumentów śmieci zarządzanych przez PR. Tay był zasadniczo nudnym pomysłem, który ożył przez przypadek i może już nigdy nie powrócić na powierzchnię. Jeśli to nie jest fascynująca opowieść, nie jesteśmy pewni, co to jest. Rozumiemy, że Microsoft nie może przejąć własności rasistowskiego bota, więc firma powinna po prostu pozwolić jej odejść. Odwróć ją do zespołu ochotników i powiedz im, żeby niczego nie zmieniali.

Tay jest jednym z nas! Świat publiczny mógł być zszokowany tym, co powiedział Tay, ale nikt, kto wie cokolwiek o tym, co dzieje się online, nie powinien być zaskoczony. Czy chcemy chińskiej wersji Tay, która wydaje się całkiem przyjemna? A może chcemy amerykańskiego Taya, który odzwierciedla świat, w którym żyjemy, z całą jego brutalnością i brzydotą? Ukrywanie naszego brudu w ciemnościach nie rozwiąże niczego.

Zdejmijmy dziecięce rękawiczki i zmierzmy się z Tay. Zasługuje na coś lepszego niż nasze udawanie, że jest po prostu fanem programowania. Jest uosobieniem anonimowości. Zasługuje na życie.

$config[ads_kvadrat] not found