Piżmo, Woźniak, Hawking, inni geniusze przeciwstawiają się broni autonomicznej

$config[ads_kvadrat] not found

Czy broń autonomiczna to początek naszego końca ??? ||Safety Spear

Czy broń autonomiczna to początek naszego końca ??? ||Safety Spear
Anonim

Od dziesięcioleci AK-47 jest najczęściej wybieraną maszyną do zabijania w zakurzonych zakątkach świata, ponieważ jest tania, trwała i wszechobecna. Te same czynniki, twierdzą sygnatariusze listu otwartego opublikowanego w poniedziałek przez Instytut Przyszłości Życia, są powodem, dla którego broń autonomiczna jest obarczona niebezpieczeństwem. Ale to, co odróżnia broń sztucznej inteligencji od kałasznikowów, to to, że autonomiczna maszyna może „wybierać i angażować cele bez ludzkiej interwencji” - która w niewłaściwych rękach mogłaby popełnić okrucieństwa o wiele większe niż jakikolwiek nieliczący się karabin.

Sygnatariusze mają dla nich pracę. Jako ludzie, jako całość jesteśmy o wiele lepsi w reagowaniu niż myśleniu. Główni gracze nie spieszyli się z obniżaniem broni jądrowej (a budowanie autonomicznych dronów wymagałoby ułamka maszyny, która wchodzi w skład broni jądrowej); gdzie indziej miny lądowe wciąż zajmują dziesiątki lat. Kiedy technologia ma zrewolucjonizować działania wojenne - czy to proch, czy pancerniki morskie, czy wzbogacony uran - prawie nigdy nie był wyścig zbrojeń.

FLI rozróżnia drony, które mamy teraz, pilotowane zdalnie przez ludzkie ręce, i robota włączonego i pozostawionego własnym morderczym urządzeniom. Stworzenie tego ostatniego wywołałoby globalny wyścig zbrojeń AI, który, jak twierdzi FLI, i jak pokazuje historia Kałasznikowa, nie zakończyłby się dobrze:

Dopiero kwestią czasu będzie pojawienie się na czarnym rynku i w rękach terrorystów, dyktatorów pragnących lepiej kontrolować swoją ludność, watażków pragnących dokonać czystek etnicznych itp. Broń autonomiczna jest idealna do zadań takich jak zabójstwa, destabilizacja narodów, tłumiących populacje i selektywnie zabijających określoną grupę etniczną. Dlatego uważamy, że wojskowy wyścig zbrojeń AI nie byłby korzystny dla ludzkości. AI może sprawić, że pola bitwy będą bezpieczniejsze dla ludzi, zwłaszcza dla cywilów, bez tworzenia nowych narzędzi do zabijania ludzi.

To jakieś ciężkie gówno. Nazwy stojące za tym ostrzeżeniem nie są twoimi popularnymi crackami Skynet - są to twórcy, inżynierowie, naukowcy i filozofowie, którzy pomogli ukształtować to, jak wygląda nasza technologia. Część nazwisk to: Steve Wozniak, Apple Jaan Tallinn, fizyk Harvard Lisa Randall, która z naukowców i robotów AI - w tym Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - aktorka Talulah Riley, Noam Chomsky, Stephen Hawking.

Hawking ostatnio trochę się pesymistycznie pochylił, powtarzając również swoje prognozy dotyczące niebezpieczeństw związanych z życiem pozaziemskim. Będzie również odpowiadał na pytania dotyczące tego listu i przyszłości technologii na Reddit w tym tygodniu - możemy nie być w stanie kontrolować wrogich kosmitów, ale możemy umieścić „ciężar na naukowcach będących w czołówce tej technologii, aby utrzymać czynnik ludzki przód i środek ich innowacji. ”

Możesz także dodać swoje imię do listu.

$config[ads_kvadrat] not found