Starlink - w czym pomogą, a komu przeszkadzają satelity Elona Muska? KŚ wyjaśnia
Spisu treści:
- Znajdowanie ukrytych systemów sztucznej inteligencji.
- Budowanie A.I. który może programować.
- Korzystanie z A.I. do cyberobrony.
- Dokonywanie naprawdę złożonych symulacji.
Większość problemów, które mogą wynikać z coraz bardziej wyrafinowanej sztucznej inteligencji, jest znacznie bardziej subtelna niż SkyNet, ale to nie oznacza mądrzejszego A.I. nie obywa się bez ryzyka.
Dlatego właśnie Elon Musk i inni grube ryby z Doliny Krzemowej utworzyli Open AI, grupę zajmującą się rozwiązywaniem problemów z A.I. zanim będą w stanie spowodować prawdziwe obrażenia. Ta grupa nazywa się OpenAI i szuka pomocy w tych kwestiach.
„OpenAI to firma badawcza zajmująca się sztuczną inteligencją typu non-profit”, mówi grupa na stronie „O programie”. „Naszym celem jest rozwijanie inteligencji cyfrowej w sposób, który najprawdopodobniej przyniesie korzyści całej ludzkości, nie ograniczając potrzeby generowania zwrotu finansowego”.
Ogłoszenie o pracy przebrane za post na blogu zatytułowany „Projekty specjalne” przedstawia cztery takie „projekty” jako problemy, które mają „albo bardzo szerokie implikacje”, albo dotyczą „ważnych pojawiających się konsekwencji rozwoju sztucznej inteligencji”. A potem jego twórcy - Ilya Sutskever, Dario Amodei i Sam Altman - zapraszają silnych ekspertów od uczenia maszynowego, aby „rozpoczęli wysiłek w jednym z tych problemów w OpenAI”. Wystarczy złożyć wniosek, pytają. Oto cztery duże problemy stojące przed sztuczną inteligencją:
Znajdowanie ukrytych systemów sztucznej inteligencji.
Co gorsze niż bardzo inteligentny A.I. które mogą być użyte w niewłaściwym celu? Bardzo inteligentny A.I. to już używane w złym celu, bez wiedzy kogokolwiek. „Wraz ze wzrostem liczby organizacji i zasobów przeznaczonych na badania nad sztuczną inteligencją prawdopodobieństwo wzrasta, że organizacja dokona nieujawnionego przełomu AI i wykorzysta system do potencjalnie złośliwych celów”, pisze zespół OpenAI w swoim blogu. „Wydaje się ważne, aby to wykryć. Możemy sobie wyobrazić wiele sposobów na to - patrząc na wiadomości, rynki finansowe, gry online itp. ”
Budowanie A.I. który może programować.
Niektórzy z najlepszych programistów są leniwi. Więc ma sens, że OpenAI chce stworzyć A.I. zdolny do samodzielnego tworzenia programów. Lepiej spędzić czas robiąc A.I. wystarczająco sprytny, aby kodować wszystko, czego możesz potrzebować w przyszłości, niż sam kodować wszystkie te rzeczy. To jest 2016, za głośny płacz, a programiści potrzebują przerwy!
Korzystanie z A.I. do cyberobrony.
„Wczesne wykorzystanie sztucznej inteligencji będzie polegało na włamaniu do systemów komputerowych” - pisze OpenAI. „Chcielibyśmy, aby techniki sztucznej inteligencji broniły się przed wyrafinowanymi hakerami intensywnie wykorzystującymi metody sztucznej inteligencji”. Brzmi to dobrze, zwłaszcza że MIT ostrzegł, że obecny A.I. polega na ludziach, aby chronić się przed cyberatakami.
Dokonywanie naprawdę złożonych symulacji.
„Jesteśmy zainteresowani zbudowaniem bardzo dużej symulacji z wieloma różnymi agentami, które mogą ze sobą współpracować, uczyć się przez długi okres czasu, odkrywać język i osiągać różnorodne cele” - pisze zespół OpenAI.
Daj spokój. Teraz próbujesz udowodnić, że Musk ma rację, że żyjemy w symulacji.
Teledyski U2 są teraz wykorzystywane w badaniach nad sztuczną inteligencją
Sztuczna inteligencja mogłaby pewnego dnia przeskanować teledyski, które oglądamy, by stworzyć predykcyjne opcje odkrywania muzyki w oparciu o emocje wykonawcy. Co oznacza, że A.I. wkrótce będzie w stanie rozpoznać smutną twarz Bono i służyć wam bardziej mopey Bono, a może coś bardziej uśmiechniętego. Technologia, aby to zrobić ...
OpenAI Elona Muska może być skuteczny w badaniach nad sztuczną inteligencją
W weekend Elon Musk, Sam Altman i inni grube ryby z Doliny Krzemowej niespodziewanie ogłosili uruchomienie OpenAI, firmy non-profit, która opisuje swój cel jako: „rozwinąć cyfrową inteligencję w sposób, który najprawdopodobniej przyniesie korzyści całej ludzkości, niewymuszony koniecznością generowania zwrotu finansowego. ”
„A.I. Spielberga” Sztuczna inteligencja ma rację, pomimo złej nauki
Kiedy Steven Spielberg przejął rozwój A.I. Sztuczna inteligencja Stanleya Kubricka w 1995 roku, sztuczna inteligencja, technologia, była w powijakach. Fantastyka naukowa, która przez pół wieku rozmawiała o humanoidalnym robocie, nadal miała więcej do zaoferowania dzięki poradnictwu estetycznemu niż scie ...