Czy test Turinga jest ostatnim słowem w inteligencji robotów? Nie licz na to

$config[ads_kvadrat] not found

Wywiad z maszyną!

Wywiad z maszyną!

Spisu treści:

Anonim

W 1950 r. Informatyk, łamacz kodeksów i bohater wojenny Alan Turing przedstawił światu bardzo proste założenie: jeśli robot może zaangażować się w rozmowę tekstową z osobą i oszukać tę osobę, aby uwierzyła, że ​​jest to człowiek co najmniej 30 procent W tamtym czasie z pewnością zgodzimy się, że robot jest maszyną „myślącą”. Celem Turinga było zmuszenie ludzi do bardziej kreatywnego myślenia o interakcji z komputerem, ale przypadkowo stworzył test, na którym twórcy i komentatorzy inteligencji robotów polegali od lat. Ale poważni myśliciele sztucznej inteligencji nie skupiają się na myleniu dawno zmarłego geniusza przez jedną trzecią czasu. Skupiają się na bardziej miarodajnych danych.

Zasadniczo problem z testem Turinga polega na tym, że jest on słabo zdefiniowany, co ułatwia szum (np. Fałszywy asystent nauczania w Gruzji) zamiast oferować łatwo powielane wyniki. Poza tym można argumentować, że mierzy ludzką słabość, a nie sztuczną siłę. Oszustwo i odchylenie mogą pozwolić stosunkowo niezbyt wyrafinowanemu chatbotowi „zdać test”. Na przykład bot nazwiskiem Eugene Goostman, zaprojektowany do podszywania się pod 13-letniego ukraińskiego chłopca, ostatnio oszukał jedną trzecią panelu sędziów, by uwierzył w podstęp. Eugene schodzi na manowce w rozmowie, co okazało się jego tajną bronią. Sędziowie spodziewali się, że robot zaprogramowany na inteligencję, nie uniknie pytań, nie będzie żartował, zrzucił malapropizmy, i napełniał tekst emotikonami.

właśnie nie udało mi się przeprowadzić rocznego testu turing #fml

- zacięcie (@hugdeserver) 11 maja 2016 r

Jeśli nie test Turinga, to co? Naukowcy z całego świata wymyślili kilka alternatyw.

Rozszyfrowanie niejednoznacznych zdań

Podstawowym problemem z chatbotami Turinga jest to, że maszyny wciąż mają naprawdę ciężki czas na zrozumienie zdań, które natychmiast miałyby sens dla człowieka. „Peter krzyczał na Paula, bo spał ze swoją dziewczyną.” Dla człowieka od razu jasne jest, że Paul spał z dziewczyną Petera, ale komputer „on” i „jego” mogą odnosić się do każdego z nich. Zrozumienie tego, co się wydarzyło, wymaga znajomości czegoś, co znaczy krzyczeć na kogoś i pod jakimi warunkami osoba może być do tego zmotywowana.

Hector Levesque, profesor informatyki na Uniwersytecie w Toronto, zaproponował trudne maszyny do wyciągania znaczenia z tego rodzaju niejednoznacznie skonstruowanych zdań, zwanych schematem Winograd, jako alternatywy dla testu Turinga. Wymagałoby to wykroczenia poza naśladowanie ludzkiego języka i rzeczywistego zrozumienia. Już teraz oferowana jest nagroda w wysokości 25 000 $ dla dewelopera, który może wykonać bota, który działa tak dobrze jak człowiek na tym zadaniu - chociaż bot może rozważyć każde pytanie do pięciu minut.

Rozpoznawanie twarzy

Niektórzy A.I. Naukowcy rozważali pomysł, że inteligencja maszynowa może i powinna wykraczać poza język. Rozpoznawanie twarzy jest przykładem czegoś, co ludzie robią szczególnie dobrze - w końcu dziecko może rozpoznać swoją matkę w ciągu kilku tygodni od urodzenia.

Niektóre komputery już wyprzedzają ludzi w rozpoznawaniu twarzy, chociaż kwestia tego, czy jest to miara prawdziwej inteligencji, jest nadal przedmiotem dyskusji. Maszyna zaprogramowana tak, aby była bardzo dobra w jednym przypadku, różni się znacznie od posiadania elastycznej inteligencji, którą można by wykorzystać na różne sposoby iw różnych sytuacjach.

Akceptacja Kolegium

Japońscy robotycy próbują zbudować robota, który może dostać się na studia. Egzaminy wstępne na University of Tokyo są notorycznie trudne, a znacznie bardziej robotyczne niż licealne.

Niestety dla robotów bycie dobrym w testach wymaga znacznie więcej niż zapamiętywania wielu faktów. Pytania matematyczne nie dają równania do rozwiązania - opisują scenariusz w prostym języku i pozostawiasz sobie sprawę, jak zbudować równanie, które uzyska właściwą odpowiedź. Nawet proste pytanie o fakt historyczny może być skomplikowane, jeśli robot nie może zrozumieć składni lub kontekstu używanego języka.

A egzaminy wstępne to nie tylko test wielokrotnego wyboru - robot musiałby także pisać eseje. Przypuszczalnie plagiat nie byłby dozwolony, a maszyna musiałaby wygenerować pewną prozę na dany temat, który byłby zarówno oryginalny, jak i inteligentny. Biorąc pod uwagę, że roboty mają dość czasu naśladowanie języka 13-latka, wydaje się to dość odległe. Naukowcy twierdzą jednak, że mają nadzieję zobaczyć swój mały botek w college'u do 2021 roku.

Play-by-Play

Ten jest szczególnie wysoki. Komentowanie gry sportowej polega na pobieraniu złożonych informacji audiowizualnych i komunikowaniu tego, co dzieje się w prostym języku. Robot musiałby posiadać bardzo dobre umiejętności językowe oprócz systemu przetwarzania wizualnego.

Jeśli komputer może nawet stworzyć na pół przyzwoity raport na żywo z meczu piłki nożnej, ludzie mogą zgodzić się, że ten robot jest cholernie mądry. Chociaż może za 65 lat boty komentatorów sportowych będą wydawały się szczególnie dwuwymiarowe, będziemy musieli wymyślić nowe przeszkody.

$config[ads_kvadrat] not found