Czy test Tay Fail Microsoftu był testem Turinga? Tak, ale rasizm nie był problemem

$config[ads_kvadrat] not found

Asystent Google przeszedł Test Turinga: w rozmowie nie odróżnisz go od człowieka

Asystent Google przeszedł Test Turinga: w rozmowie nie odróżnisz go od człowieka
Anonim

Jeśli sukcesem sztucznej inteligencji jest stworzenie sztucznego osobowość, Microsoft A.I. bot, Tay, może być uważany za oznakę postępu. Ale szerzej, Tay można uznać za porażkę.

„Celem większości ludzi pracujących na tego typu agentach konwersacyjnych jest nie tyle zaliczenie jakiegokolwiek testu Turinga, co właściwie posiadanie użytecznej znajomości języka, który reaguje rozsądnie na rzeczy i zapewnia ludziom dostęp do wiedzy”, Miles Brundage, Ph.D. student studiuje ludzki i społeczny wymiar nauki i technologii na Uniwersytecie Stanowym w Arizonie Odwrotność.

Microsoft zilustrował niektóre problemy związane z konstruowaniem A.I. w tym tygodniu, gdy w ciągu niecałych 24 godzin Internet zamieścił to, co miało być kobietą, tysiącletnią, zautomatyzowaną, osobowością Twittera w tablicy dźwiękowej dla najbardziej rasistowskiej i podłej mowy trolli.

Microsoft natychmiast przerwał eksperyment i przeprosił: „Bardzo nam przykro z powodu niezamierzonych obraźliwych i bolesnych tweetów z Tay, które nie reprezentują tego, kim jesteśmy ani za czym stoimy, ani jak zaprojektowaliśmy Tay”.

Jeśli chodzi o test Turinga, słynny eksperyment wykorzystywany do oceny A.I., Brundage mówi, że ogólnie rzecz biorąc, istnieją dwie szkoły myślenia - dosłowne i teoretyczne.

Opracowany w 1950 r. Alan Turing starał się odpowiedzieć na pytanie: „Czy maszyny mogą myśleć?” Umieścił maszyny w teście imitacji, który wymaga od obserwatora określenia płci dwóch rozmówców, z których jeden to A.I. Jeśli komputer jest w stanie oszukać pewną liczbę obserwatorów, przeszedł test.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23 marca 2016 r

Gdybyśmy mieli zastosować ten test dosłownie, w Odwrotne prywatna rozmowa z Tay, elokwentnie odpowiedziała na pytania polityczne, odwołała się do kajdan „mannnnn” w społeczeństwie i użyła wspólnych skrótów tekstowych i emotikonów. Brundage powiedział, że Tay wykazywał tysiącletnie zachowanie, ale tego rodzaju A.I. zostały zbudowane wcześniej.

„Umiejętność tworzenia pozornie nastolatekowych komentarzy na Twitterze nie jest tak naprawdę opowieścią o szerokich zdolnościach językowych i intelektualnych, które miał na myśli Turing, mówi Brundage. „To powiedziawszy, gdybyśmy rzeczywiście wzięli test Turinga dosłownie, co nie wydaje mi się koniecznie wskazane, jednym z wariantów jest to, że wiele z jego komentarzy było pozornie ludzkich”.

Ale jeśli mamy przyjąć szersze podejście, jak sugerowałby Brundage, to oczywiste jest, że Tay nie wykazywał rozsądnej mowy ludzkiej.

Microsoft testował to, co nazywa „zrozumieniem konwersacyjnym”, tak że im więcej osób rozmawia przez Twitter, GroupMe i Kik, tym bardziej miała się uczyć i dostosowywać. Ale po prostu powtórzyła to, co karmiło go wielu innych użytkowników i po prostu powtórzyło to światu.

„Tay” przeszedł od „ludzie są super fajni” do pełnych nazistów w ciągu <24 godzin i wcale nie martwię się o przyszłość AI pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24 marca 2016 r

„Większość ludzi nie powtórzyłaby za tobą wszystkiego, co powiedziałeś”, mówi Brundage.

Wyartykułowanie „Bush zrobił 11 września” i „Hitler wykonałby lepszą robotę niż małpa, którą mamy teraz”, było może coś, co ktoś napisał do Tay, ale to nie jest uprzejma rozmowa.

„Prawdopodobnie jego celem w artykułowaniu testu Turinga było nie tyle określenie szczegółów jakiegoś testu, ile prowokowanie ludzi do myślenia„ w jakim momencie byłbyś skłonny być w systemie tak inteligentnym ”i otwierać myślenie ludzi na możliwość, że maszyny są w stanie myśleć, ”mówi Brundage.

$config[ads_kvadrat] not found