OpenAI Elona Muska może być skuteczny w badaniach nad sztuczną inteligencją

$config[ads_kvadrat] not found

Top 10 Greatest Elon Musk Creations and Inventions

Top 10 Greatest Elon Musk Creations and Inventions
Anonim

W weekend Elon Musk, Sam Altman i inni grube ryby z Doliny Krzemowej niespodziewanie ogłosili uruchomienie OpenAI, firmy non-profit, która opisuje swój cel jako: „rozwinąć cyfrową inteligencję w sposób, który najprawdopodobniej przyniesie korzyści całej ludzkości, niewymuszony koniecznością generowania zwrotu finansowego. ”

„Ponieważ nasze badania są wolne od zobowiązań finansowych, możemy lepiej skupić się na pozytywnym wpływie człowieka. Wierzymy w A.I. powinien być przedłużeniem indywidualnych ludzkich woli i, w duchu wolności, jak najszerzej i równomiernie rozłożony ”.

Z tego komunikatu wynikają dwie główne uwagi. Po pierwsze, Musk i firma widzą A.I. badania są obecnie zbyt wąskie, aby osiągnąć krótkoterminową wartość praktyczną, i chcą pomóc w dążeniu do dalszych działań, które przyjmują bardziej szerokie, kompleksowe podejście do rozwoju A.I. systemy. Drugim, bardziej ukrytym rozwiązaniem jest to, że Musk wciąż martwi się potencjalnym szkodliwym wpływem A.I., jeśli opracujemy i wprowadzimy na wpół upieczone systemy. Musk wcześniej nazywał się A.I. „Nasze największe zagrożenie egzystencjalne” i zasugerował, że nadzór regulacyjny może być konieczny, aby zapobiec potencjalnym zagrożeniom. OpenAI może być sposobem na zapewnienie tego nadzoru bez potrzeby federalnego nadzoru.

Czym różni się Musk i jego koledzy od tego, co zrobili inni. W końcu open source A.I. nie jest niczym nowym. Google stworzyło własne A.I. oprogramowanie open source w zeszłym miesiącu i stało się to dość standardową procedurą. Ale z wyposażeniem w wysokości 1 miliarda dolarów OpenAI jest już jedną z największych organizacji pracujących nad A.I. badania i całkiem łatwo największy non-profit. Jego celem jest publiczne udostępnienie wyników i wszystkich jej patentów za darmo. Mają marchewkę i kij i zamierzają wykorzystać go do sterowania przemysłem.

Chodzi o wykorzystanie OpenAI jako swoistej przeciwwagi dla większych korporacji, prywatnych laboratoriów badawczych, a nawet światowych rządów, które mają niewiarygodne ilości pieniędzy i zasobów, aby wlać je do swoich własnych A.I. badania, które nie mogą być poświęcone przyjaznym celom, a zamiast tego mogą prowadzić do technologii o nikczemnych zastosowaniach. Naukowcy pracujący z OpenAI będą w zasadzie dążyć do „przyjaznego” A.I., bez presji pokazywania natychmiastowych rezultatów. Większe znaczenie mogą mieć cechy bezpieczeństwa i projektowania, które prywatne firmy mogą zignorować. Nie będzie białej wieży, gdzie tylko kilku wybranych kontroluje ścieżkę A.I. rozwój. Dla wszystkich będzie to świat mile widziany.

W wywiadzie dla Tylny kanał, Musk podkreśla także chęć stworzenia szerokiej gamy A.I. systemy. „Chcemy A.I. być powszechnym - mówi. „Wydaje nam się, że wielu jest dobrych”.

To ważne, ponieważ jest to prawdopodobnie główny powód, dla którego Musk i Altman chcą zdemokratyzować A.I. Wierzą w najlepszy rodzaj A.I. - rodzaj, który będzie korzystny dla ludzkości w pozytywny sposób, bez tworzenia robotników-władców - jest rodzajem, który działa jako „przedłużenie indywidualnej ludzkiej woli”, jak to określa Musk. Dalej mówi:

„Jak w A.I. rozszerzenie siebie, tak że każda osoba jest zasadniczo symbiotyczna z AI, w przeciwieństwie do AI będącej dużą centralną inteligencją, która jest czymś innym. Jeśli myślisz o tym, jak używasz, powiedzmy, aplikacji w Internecie, masz swój e-mail i masz media społecznościowe oraz aplikacje na swoich telefonach - skutecznie sprawiają, że jesteś nadludzki i nie myślisz o nich jako o będąc innym, myślisz o nich jako o przedłużeniu siebie. Więc do tego stopnia, że ​​możemy prowadzić AI w tym kierunku, chcemy to zrobić. I znaleźliśmy wielu podobnie myślących inżynierów i badaczy w dziedzinie sztucznej inteligencji, którzy czują się podobnie ”.

Zasadniczo wizja OpenAI dla A.I. badania to zdecentralizowana społeczność, która pomaga połączyć ludzi ze sobą i ze światem.

Musk nie nakreślił jeszcze, w jaki sposób uniemożliwiłoby to prowadzenie badań w ramach OpenAI - lub przez grupy zewnętrzne - przed pójściem w niebezpiecznym kierunku. I tu jest coś godnego uwagi: systemy open source mają sens tylko wtedy, gdy dane wykorzystywane do budowania algorytmów uczenia maszynowego są swobodnie udostępniane. Musi to być inteligentny system uczyć się jak być inteligentnym, a aby to zrobić, musi uczyć się na podstawie danych i doświadczeń. To tak jak budowanie zapory - potrzebne są zarówno plany (algorytm), jak i materiały budowlane (dane), aby stworzyć coś, co zatrzyma wodę.

Dlatego ludzie nadal mają ograniczone możliwości korzystania z Google TensorFlow - nie mają jeszcze danych Google. A jeśli współpraca oparta na OpenAI nie pozwoli na swobodny dostęp do tych samych danych, z którymi pracują wewnętrzni naukowcy, wizja Muska nie będzie koniecznie realizowana - a przynajmniej nie w sposób, w jaki ją promuje.

Musk, Altman i inni założyciele OpenAI rozpoczęli coś, co będzie miało ogromny wpływ na rozwój A.I. od teraz. Jednocześnie będą musieli być szczerzy w swoim zaangażowaniu we wspieranie społeczności badawczej o otwartym kodzie źródłowym, co oznacza bycie publicznym o swoich planach dla firmy non-profit i chęć dzielenia się danymi. W przeciwnym razie OpenAI nie różni się zbytnio od firm flockowych, dla których został stworzony.

$config[ads_kvadrat] not found