Projekt OpenAI Elona Muska zidentyfikował 4 duże problemy z sztuczną inteligencją

Starlink - w czym pomogą, a komu przeszkadzają satelity Elona Muska? KŚ wyjaśnia

Starlink - w czym pomogą, a komu przeszkadzają satelity Elona Muska? KŚ wyjaśnia

Spisu treści:

Anonim

Większość problemów, które mogą wynikać z coraz bardziej wyrafinowanej sztucznej inteligencji, jest znacznie bardziej subtelna niż SkyNet, ale to nie oznacza mądrzejszego A.I. nie obywa się bez ryzyka.

Dlatego właśnie Elon Musk i inni grube ryby z Doliny Krzemowej utworzyli Open AI, grupę zajmującą się rozwiązywaniem problemów z A.I. zanim będą w stanie spowodować prawdziwe obrażenia. Ta grupa nazywa się OpenAI i szuka pomocy w tych kwestiach.

„OpenAI to firma badawcza zajmująca się sztuczną inteligencją typu non-profit”, mówi grupa na stronie „O programie”. „Naszym celem jest rozwijanie inteligencji cyfrowej w sposób, który najprawdopodobniej przyniesie korzyści całej ludzkości, nie ograniczając potrzeby generowania zwrotu finansowego”.

Ogłoszenie o pracy przebrane za post na blogu zatytułowany „Projekty specjalne” przedstawia cztery takie „projekty” jako problemy, które mają „albo bardzo szerokie implikacje”, albo dotyczą „ważnych pojawiających się konsekwencji rozwoju sztucznej inteligencji”. A potem jego twórcy - Ilya Sutskever, Dario Amodei i Sam Altman - zapraszają silnych ekspertów od uczenia maszynowego, aby „rozpoczęli wysiłek w jednym z tych problemów w OpenAI”. Wystarczy złożyć wniosek, pytają. Oto cztery duże problemy stojące przed sztuczną inteligencją:

Znajdowanie ukrytych systemów sztucznej inteligencji.

Co gorsze niż bardzo inteligentny A.I. które mogą być użyte w niewłaściwym celu? Bardzo inteligentny A.I. to już używane w złym celu, bez wiedzy kogokolwiek. „Wraz ze wzrostem liczby organizacji i zasobów przeznaczonych na badania nad sztuczną inteligencją prawdopodobieństwo wzrasta, że ​​organizacja dokona nieujawnionego przełomu AI i wykorzysta system do potencjalnie złośliwych celów”, pisze zespół OpenAI w swoim blogu. „Wydaje się ważne, aby to wykryć. Możemy sobie wyobrazić wiele sposobów na to - patrząc na wiadomości, rynki finansowe, gry online itp. ”

Budowanie A.I. który może programować.

Niektórzy z najlepszych programistów są leniwi. Więc ma sens, że OpenAI chce stworzyć A.I. zdolny do samodzielnego tworzenia programów. Lepiej spędzić czas robiąc A.I. wystarczająco sprytny, aby kodować wszystko, czego możesz potrzebować w przyszłości, niż sam kodować wszystkie te rzeczy. To jest 2016, za głośny płacz, a programiści potrzebują przerwy!

Korzystanie z A.I. do cyberobrony.

„Wczesne wykorzystanie sztucznej inteligencji będzie polegało na włamaniu do systemów komputerowych” - pisze OpenAI. „Chcielibyśmy, aby techniki sztucznej inteligencji broniły się przed wyrafinowanymi hakerami intensywnie wykorzystującymi metody sztucznej inteligencji”. Brzmi to dobrze, zwłaszcza że MIT ostrzegł, że obecny A.I. polega na ludziach, aby chronić się przed cyberatakami.

Dokonywanie naprawdę złożonych symulacji.

„Jesteśmy zainteresowani zbudowaniem bardzo dużej symulacji z wieloma różnymi agentami, które mogą ze sobą współpracować, uczyć się przez długi okres czasu, odkrywać język i osiągać różnorodne cele” - pisze zespół OpenAI.

Daj spokój. Teraz próbujesz udowodnić, że Musk ma rację, że żyjemy w symulacji.