A.I. Czy pamiętasz, ale wciąż niszczysz w Magic: The Gathering

$config[ads_kvadrat] not found

Ikoria Commander C20 w/ Cassius Marsh & AliasV l Game Knights #36 l Magic the Gathering Gameplay

Ikoria Commander C20 w/ Cassius Marsh & AliasV l Game Knights #36 l Magic the Gathering Gameplay
Anonim

Sieci neuronowe są kluczowe dla przyszłości A.I. i, według Elona Muska, przyszłość całej ludzkości. Na szczęście DeepMind firmy Google właśnie złamał kod, aby uczynić sieci neuronowe znacznie mądrzejszymi, dając im pamięć wewnętrzną.

W badaniu opublikowanym w Natura 12 października DeepMind pokazał, jak można łączyć sieci neuronowe i systemy pamięci w celu stworzenia uczenia maszynowego, które nie tylko przechowuje wiedzę, ale szybko wykorzystuje ją do rozumowania w oparciu o okoliczności. Jedno z największych wyzwań związanych z A.I. robi to, by pamiętać rzeczy. Wygląda na to, że jesteśmy o krok bliżej do osiągnięcia tego celu.

Udoskonalone sieci neuronowe, nazywane różniczkowymi komputerami neuronowymi (DNC), działają podobnie jak komputer. Komputer ma procesor do wykonywania zadań (sieć neuronowa), ale procesor potrzebuje systemu pamięci do wykonywania algorytmów z różnych punktów danych (DNC).

Przed innowacją DeepMind, sieci neuronowe musiały polegać na pamięci zewnętrznej, aby nie zakłócać aktywności neuronów w sieci.

Bez pamięci zewnętrznej sieci neuronowe potrafią rozumować tylko na podstawie znanych informacji. Potrzebują ogromnych ilości danych i praktyki, aby stać się bardziej dokładnymi. Podobnie jak człowiek uczący się nowego języka, sieci neuronowe potrzebują czasu, aby stać się inteligentnymi. Jest to ten sam powód, dla którego sieć neuronowa DeepMind jest świetna w Go, ale straszna w grze opartej na strategii Magic: Sieci neuronowe po prostu nie są w stanie przetworzyć wystarczającej liczby zmiennych bez pamięci.

Pamięć umożliwia sieciom neuronowym włączanie zmiennych i szybkie analizowanie danych, dzięki czemu może wykreślić coś tak złożonego jak metro w Londynie i móc wyciągać wnioski na podstawie konkretnych punktów danych. W badaniu DeepMind odkryli, że DNC może samodzielnie nauczyć się odpowiadać na pytania dotyczące najszybszych tras między miejscami docelowymi i w jakim miejscu wycieczka zakończy się po prostu za pomocą nowo przedstawionego wykresu i wiedzy o innych systemach transportu. Potrafi także wydedukować relacje z drzewa genealogicznego bez przedstawiania informacji z wyjątkiem drzewa. DNC był w stanie zrealizować cel dla danego zadania bez podawania dodatkowych punktów danych, które byłyby potrzebne tradycyjnej sieci neuronowej.

Choć może to nie wydawać się imponujące (Google Maps jest już całkiem niezły w obliczaniu najbardziej efektywnej trasy), technologia ta stanowi ogromny krok w przyszłość A.I. Jeśli uważasz, że wyszukiwanie predykcyjne jest wydajne (lub przerażające), wyobraź sobie, jak dobrze może być z neuronową pamięcią sieciową. Kiedy przeszukasz Facebooka po imieniu Ben, dowiesz się, że byłeś na stronie wzajemnego przyjaciela, patrząc na jego zdjęcie, które masz na myśli Ben z ulicy, a nie Ben ze szkoły podstawowej.

Naturalna nauka języka A.I. w końcu miałby wystarczająco kontekstu, aby działać w obu językach dziennik "Wall Street i być w stanie zrozumieć Czarny Twitter. Siri zrozumiała, że ​​Pepe the Frog to coś więcej niż postać z komiksu, ponieważ czyta każdy Odwrotność artykuł o tym.

„Jestem pod wrażeniem zdolności sieci do uczenia się„ algorytmów ”z przykładów”, powiedział Brenden Lake, naukowiec kognitywny z New York University Przegląd technologii. „Algorytmy, takie jak sortowanie lub znajdowanie najkrótszych ścieżek, są chlebem i masłem klasycznej informatyki. Tradycyjnie wymagają od programisty zaprojektowania i wdrożenia ”.

Dając A.I. zdolność rozumienia kontekstu pozwala pominąć potrzebę zaprogramowanych algorytmów.

Podczas gdy DNC DeepMind nie jest pierwszym eksperymentem w pamięci neuronowej, jest on najbardziej wyrafinowany. To powiedziawszy, sieć neuronowa jest wciąż na wczesnym etapie i ma przed sobą długą drogę, zanim stanie się na poziomie ludzkim. Naukowcy wciąż muszą ustalić, jak skalować przetwarzanie systemów, aby móc szybko skanować i obliczać przy użyciu każdego fragmentu pamięci.

Na razie ludzie mogą rządzić neurologicznie.

$config[ads_kvadrat] not found