Google A.I. Pokonaj Facebooka w Race, aby wygrać w Ancient Game of Go

$config[ads_kvadrat] not found

Match 1 - Google DeepMind Challenge Match: Lee Sedol vs AlphaGo

Match 1 - Google DeepMind Challenge Match: Lee Sedol vs AlphaGo
Anonim

Tuż przed północą, we wtorek, w Pacyfiku Mark Zuckerberg rozpoczął atak wyprzedzający na swoją konkurencję w Google, wydając oświadczenie, które prawdopodobnie było błędne:

„Starożytna chińska gra Go jest jedną z ostatnich gier, w których najlepsi gracze nadal mogą pokonać najlepszych graczy sztucznej inteligencji”.

Bez wątpienia Zuckerberg wiedział, że około dwanaście godzin później Google to potrąci cóż, właściwie, jego sztuczna inteligencja pokonała człowieka, a nie tylko człowieka, ale jednego z najlepszych na świecie. Wyróżnione przez Google osiągnięcie - którego wyniki opublikowano w czasopiśmie Natura w środę po południu - naukowcy z DeepMind opracowali AlphaGo, sztuczną sieć neuronową, która pokonała Fan Hui z wynikiem pięciu meczów do zera.

Tymczasem Zuckerberg napisał w tym samym poście we wtorek wieczorem, że Facebook jest coraz bliżej: „Naukowcy próbują nauczyć komputery wygrywania w Go przez 20 lat. Zbliżamy się, aw ciągu ostatnich sześciu miesięcy zbudowaliśmy A.I. które mogą wykonywać ruchy w ciągu zaledwie 0,1 sekundy i nadal być tak dobre, jak poprzednie systemy, które budowano przez lata ”.

Gra Go jest starsza niż historia Jezusa, ale wciąż jest trudna do pokonania przez komputery. Algorytmy niszczą ludzi w kółko i krzyżyk, szachy i warcaby, ale sama liczba ruchów w Go (więcej niż w atomach we wszechświecie) była zbyt duża, aby komputery mogły brutalnie zmusić ich do zwycięstwa. Code nie mógł być najlepszym człowiekiem - do tej pory.

Przez dziesięciolecia informatycy rozważali wygranie gry w stylu A.I. test kwasowości. Według niektórych ekspertów, AlphaGo Google wyprzedza krzywą o dziesięć lat. W przeciwieństwie do Kasparov-killer Deep Blue (http://en.wikipedia.org/wiki/Deep niebieski (chess_computer), który może przechodzić przez możliwe ruchy i wybierać najlepszy, algorytm Google to zaawansowany system, który łączy przewidywanie ruchów przeciwnika i uczenie maszynowe.

Z oficjalnego bloga Google:

Wyszkoliliśmy sieci neuronowe na 30 milionach ruchów z gier granych przez ludzkich ekspertów, dopóki nie był w stanie przewidzieć ludzkiego ruchu 57 procent czasu (poprzedni rekord przed AlphaGo wynosił 44 procent). Ale naszym celem jest pokonanie najlepszych graczy ludzkich, a nie tylko ich naśladowanie. Aby to zrobić, AlphaGo nauczył się odkrywać nowe strategie dla siebie, grając tysiące gier między sieciami neuronowymi i dostosowując połączenia za pomocą procesu prób i błędów znanego jako uczenie się ze wzmocnieniem. Oczywiście wszystko to wymaga ogromnej mocy obliczeniowej, dlatego intensywnie korzystaliśmy z Google Cloud Platform.

Co to jest Go? Jest to gra planszowa sprzed 2,500 lat, która jest prawie niemożliwa do pokonania przy użyciu sztucznej inteligencji. pic.twitter.com/UEyGIxh42I

- Google (@google) 27 stycznia 2016 r

Teraz może się wydawać, że wielu hullabaloo ma komputer, na którym może przeskakiwać A.I. Dick trudniej w starożytnej grze planszowej. Ale gra końcowa polega na przejęciu podstawowych zasad leżących u podstaw tych programów i stworzeniu podstaw do bardziej ogólnego uczenia maszynowego.

Zuckerberg powołał się na zdolność A.I. do rozwiązywania problemów środowiskowych i analizowania chorób. Na konferencji prasowej główny programista AlphaGo Google powiedział, że prawdopodobnie pierwsza aplikacja nowej technologii Google będzie rekomendacją produktu.

$config[ads_kvadrat] not found