OpenAI: Dawna firma Elona Muska jest na krawędzi nowego A.I. Era

$config[ads_kvadrat] not found

Elon Musk's AI company is kinda terrifying

Elon Musk's AI company is kinda terrifying
Anonim

OpenAI, organizacja non-profit zajmująca się badaniami nad sztuczną inteligencją, współzałożona przez Elona Muska w 2016 r., Poczyniła duże postępy - nawet po tym, jak Musk rozstał się z powodu nieporozumień dotyczących jego kierunku. Naukowcy opracowali systemy, które mogą grać w gry, pisać artykuły prasowe i przenosić obiekty fizyczne z przełomowymi poziomami zręczności.

OpenAI wywołało kontrowersje w swoich badaniach. W zeszłym tygodniu ogłosił opracowanie modelu językowego GTP2, który może generować teksty z ograniczoną liczbą zapytań. Biorąc pod uwagę ludzką podpowiedź „Miley Cyrus została złapana za kradzież w sklepach z Abercrombie and Fitch na Hollywood Boulevard dzisiaj”, system przedstawił wiarygodną kompletną historię, którą kontynuował „19-letni piosenkarz został złapany podczas eskortowania kamery ze sklepu przez ochroniarzy. ”

Stworzyła także tę oryginalną historię o rozmowach jednorożców na podstawie krótkiej podpowiedzi:

„Od ponad roku nie jestem blisko związany z OpenAI i nie mam nadzoru zarządu ani nadzoru zarządu”, skomentował Musk na Twitterze w weekend. „Musiałem skupić się na rozwiązaniu boleśnie dużej liczby problemów inżynieryjnych i produkcyjnych w Tesli (szczególnie) i SpaceX. Ponadto Tesla rywalizowała o niektórych takich samych ludzi jak OpenAI i nie zgadzałem się z tym, co chciał zrobić zespół OpenAI. Dodaj to wszystko i lepiej było rozstać się na dobrych warunkach. ”

Firma początkowo wydawała się idealnym sposobem dla Muska na osiągnięcie celów związanych z wykorzystaniem A.I. dla dobra ludzkości. Przedsiębiorca uprzedził wcześniej o „podstawowym ryzyku” dla cywilizacji stwarzanym przez super inteligentne maszyny, wzywając rządy do regulowania „jak robimy jedzenie, narkotyki, samoloty i samochody”.

Musk obiecał 10 milionów dolarów na początkowe uruchomienie firmy, a jej misja koncentruje się na „odkrywaniu i wprowadzaniu ścieżki do bezpiecznej sztucznej inteligencji ogólnej”.

Nietrudno zauważyć, że programy, które tworzą historie takie jak te udostępniane przez dyrektora generalnego OpenAI Grega Brockmana, mogą zostać wykorzystane przez stosunkowo niewielką liczbę osób do wpływania na opinie mniej doświadczonego społeczeństwa.

Pracownik OpenAI wydrukował tę próbkę napisaną przez SI i opublikował ją w koszu do recyklingu: http://t.co/PT8CMSU2AR pic.twitter.com/PuXEzxL7Xd

- Greg Brockman (@gdb) 14 lutego 2019 r

„Ze względu na nasze obawy związane ze szkodliwymi aplikacjami technologii, nie wypuszczamy wyszkolonego modelu” - wyjaśniła firma na blogu. „Jako eksperyment w odpowiedzialnym ujawnianiu, zamiast tego wypuszczamy znacznie mniejszy model dla naukowców do eksperymentowania, a także papier techniczny”.

Ogłoszenie doprowadziło do obaw, że technologia może zostać wykorzystana do generowania fałszywych wiadomości. Analytics India ostrzegł, że wraz ze zbliżającymi się wyborami w Indiach w tym roku, A.I. może siać spustoszenie w procesie demokratycznym. Naukowcy z OpenAI twierdzą, że w połączeniu z badaniami nad produkcją syntetycznego dźwięku i wideo „ogół społeczeństwa będzie musiał bardziej sceptycznie podchodzić do tekstu znalezionego w Internecie”.

Ryan Lowe, A.I. naukowiec i były stażysta OpenAI podsumował zagrożenie związane z takim programem wykorzystywanym do zwięzłego tworzenia fałszywych wiadomości w tym przekazanym medium:

… Zautomatyzowany system mógłby: (1) umożliwić złym aktorom, którzy nie mają środków na zatrudnienie tysięcy ludzi, prowadzenie kampanii dezinformacyjnych na dużą skalę; oraz (2) drastycznie zwiększy skalę kampanii dezinformacyjnych prowadzonych już przez podmioty państwowe.

Nie wszystkie badania OpenAI okazały się tak kontrowersyjne. Dactyl, zaprezentowany w lipcu 2018 roku, może dostosować się do fizyki świata rzeczywistego, aby manipulować obiektami w rzeczywistym świecie. Ręka robota jest bardzo złożona, z 24 stopniami swobody, ale system może łatwo przenosić obiekty tylko za pomocą trzech kamer RGB i współrzędnych ręki robota.

Ręka robota wykorzystuje ogólne algorytmy uczenia się wzmacniania, używane do pokonywania ludzi podczas gier wideo. Zespół „OpenAI Five” zmierzył się z zespołem profesjonalistów Dota 2 graczy w 2018 roku. System został przeszkolony w 180-letniej historii gier, wykorzystując oszałamiające 128 000 rdzeni procesorów i 256 procesorów graficznych. Podczas gdy pokonał ludzki zespół byłych profesjonalistów i serpentyny Twitch, zawiódł w stosunku do profesjonalnych graczy.

Musk używał Dota 2 mecze mające zwrócić uwagę na Neuralink, jego plan stworzenia symbiotycznej relacji z A.I. łącząc ludzkie mózgi i unikając przejęcia robota:

Świetna praca autorstwa @OpenAI. Potrzebujesz interfejsu neuronowego, aby umożliwić symbiozę człowieka / sztucznej inteligencji.

- Elon Musk (@elonmusk) 6 sierpnia 2018 r

W swoim ogłoszeniu dotyczącym generatora tekstu OpenAI powiedział, że planuje przedyskutować swoją szerszą strategię za sześć miesięcy. Firma ma nadzieję zainicjować zniuansowaną dyskusję na temat niebezpieczeństw związanych ze sztuczną inteligencją, co mogłoby zapobiec niektórym scenariuszom katastrofy przewidzianym przez Muska. Jednak nawet firma przyznaje, że „nie jest pewne, czy” wstrzymanie generatora tekstu „jest dziś właściwą decyzją”. Z powodu schizmy już powstałej między dwoma głównymi podmiotami ostrzegającymi o niebezpieczeństwie AI, jest mało prawdopodobne, że ustawodawcy będą mieli łatwy czas na opracowywanie rozwiązań.

$config[ads_kvadrat] not found