Uczenie się z bronią maszynową przeciwko ISIS splątać łańcuchy wojskowe dowodzenia

$config[ads_kvadrat] not found

Czy warto kupować wojskową odzież i sprzęt? Domowy Survival

Czy warto kupować wojskową odzież i sprzęt? Domowy Survival
Anonim

Wszyscy w Internecie świetnie się bawili z Tay, robotem Twittera Microsoftu, który w ciągu kilku godzin stał się rasistowskim negatorem Holokaustu (potem wrócił i zrobił to ponownie). Firma stworzyła klapę public relations - więcej incydentów niż katastrofy - jednocześnie dając społeczeństwu lekcję przedmiotową na temat zalet i wad uczenia maszynowego: Automatyzacja może wykorzystać wzory do fascynującego efektu z prędkością, ale wyniki będą przewidywalnie trudne do przewidzenia.

Jak to często bywa, wojsko jest wczesnym użytkownikiem technologii automatyzacji. Jest - w pewnym momencie - prowadzeniem oskarżenia w kierunku uczenia maszynowego, a także desperacko próbuje nadążyć. Jednym z głównych obszarów zainteresowania Pentagonu są autonomiczne roboty i sposób, w jaki będą współpracować z ludźmi - na przykład robot skrzydłowy w stylu R2D2. Ale w tym tygodniu zastępca sekretarza obrony Robert Work przedstawił kolejne zadanie dla A.I.: chrupania danych open source.

„Jesteśmy absolutnie pewni, że korzystanie z maszyn do głębokiego uczenia się pozwoli nam lepiej zrozumieć ISIL jako sieć i lepsze zrozumienie, w jaki sposób celować w niego precyzyjnie i doprowadzić do jego porażki”, powiedział Sekretarz Pracy, Strona internetowa DoD. Zgodnie z tym kontem Work, który przemawiał na imprezie zorganizowanej przez Washington Post, miał swoje objawienie podczas oglądania firmy technologicznej z Doliny Krzemowej, pokazującej „maszynę, która pobierała dane z Twittera, Instagrama i wielu innych źródeł publicznych, aby pokazać strzelaninę Malaysia Airlines Flight 17 z lipca 2014 w czasie rzeczywistym”.

Prywatne firmy i organy ścigania od dawna próbują zrozumieć „duże dane”. Ale wojsko ma przewagę: zasoby. Ponadto mają dostęp do materiałów niejawnych.

Rząd USA wydaje się gotowy założyć, że algorytmy oprogramowania mogą sortować ogromną ilość danych, aby zidentyfikować cele ISIS, które w przeciwnym razie umykałyby im, oraz wykryć i zakłócić wątki, zanim planiści będą w stanie je wykonać. Rząd próbuje już studiować media społecznościowe, aby przewidzieć rozmiar protestów online. Nie ma wątpliwości, że uczenie maszynowe da analitykom wywiadowczym większą moc, aby zrozumieć bogactwo dostępnych informacji na świecie. Ale kiedy ta inteligencja stanie się podstawą do zabójczego strajku, kwestie etyczne stają się bardziej złożone, nawet jeśli wydają się proste.

Mimo że Praca szybko stwierdzała, że ​​Pentagon nie „oddałby śmiertelnej władzy maszynie”, to pozostaje grą końcową. Tymczasem ludzie pozostaną „w pętli”, jak mówi żargon. Ale ponieważ każdy, kto spojrzał na iPhone'a w celu uzyskania raportu pogodowego, kiedy stoi obok okna, wie, że relacje z naszymi urządzeniami i oprogramowaniem nie są proste. Jesteśmy problematycznie łatwowierni i łatwo rozpraszani przez problemy z interfejsem użytkownika.

„Uprzedzenie automatyzacji”, skłonność ludzi do odkładania maszyn, stanowi wyraźne i coraz bardziej aktualne niebezpieczeństwo. Przykładem zilustrowania tego zjawiska jest sytuacja, w której telefon nakazuje Ci wybrać trasę podróży, o której wiesz, że jest niewłaściwa, ale mimo to robisz to, zakładając, że telefon musi wiedzieć coś, czego nie masz. Jest to powszechny problem w kontekstach niewojskowych. Jednak wydaje się, że Pentagon podchodzi bliżej do raportów o zagrożeniach złożonych ze sztucznej inteligencji. Nie wiemy nic o potencjalnej skuteczności tego programu, poza tym, że trudno będzie ludziom go wdrożyć.

W opracowaniu z 2001 r. Dotyczącym pilotów studenckich i zawodowych oraz tendencji w automatyzacji naukowcy odkryli, że „w scenariuszach, w których dostępne były poprawne informacje do krzyżowego sprawdzania i wykrywania anomalii automatyzacji, w obu populacjach udokumentowano poziomy błędu zbliżone do 55%”. że dodanie dodatkowego członka drużyny nie zmniejszyło problemu.

Podobnie, badanie MIT z zeszłego roku nieco niepokojąco wykazało, że gracze komputerowi i gracze wideo mieli „większą skłonność do nadużywania automatyzacji”. Może to oznaczać, że im więcej czasu spędzamy na oglądaniu naszych ekranów, tym bardziej ufamy temu, co widzimy. Ponownie, problem nie dotyczy systemów, których używamy, ale sposobu, w jaki ich używamy. Wina nie jest w naszych gwiazdach, ale w nas samych.

Duże dane są obiecujące. Uczenie maszynowe jest obiecujące. Ale kiedy maszyny doradzają ludziom, wyniki są przewidywalne nieprzewidywalne. Czy transformacja Tay w neonazistowski mizoginistę oznacza, że ​​Twitter nienawidzi Żydów i kobiet? Trudno to poznać, ale jest mało prawdopodobne. Kiedy nie rozumiemy procesu poprzez sposób, w jaki dane wejściowe stają się wyjściami, walczymy o racjonalne radzenie sobie z wynikami. Co stawia Pentagon w interesującej pozycji. Czy ludzie programujący wojskowe oprogramowanie do nauki maszyn będą tymi, którzy będą zamawiać naloty? Nie tak działa łańcuch dowodzenia, ale łańcuchy dowodzenia zostają zaplątane, gdy zaangażuje się technologia.

$config[ads_kvadrat] not found