Human Rights Watch: Chiny wykorzystują Big Data do docelowych grup mniejszościowych

$config[ads_kvadrat] not found

Data Science - Kierunek Przyszłości? | Wywiad

Data Science - Kierunek Przyszłości? | Wywiad
Anonim

Chiński rząd wykorzystuje predykcyjne algorytmy policyjne do kierowania mniejszości etnicznych w prowincji Xinjiang, wynika z opublikowanego w poniedziałek raportu Human Rights Watch.

Prowincja w północno-zachodnich Chinach jest domem dla 11 milionów Ujgurów, tureckiej muzułmańskiej grupy etnicznej, która była dyskryminowana przez chiński rząd w ostatnich latach.

Władze podobno wykorzystują duże dane, aby systematycznie atakować osoby podejrzane o polityczną nielojalność. Nacisk jest częścią kampanii „Mocne uderzenie”, której celem jest stłumienie potencjalnej działalności terrorystycznej w Chinach. W praktyce doprowadziło to do nieproporcjonalnych działań policji Ujgurów, mówi Human Rights Watch.

Predykcyjny system policyjny, znany jako IJOP - Zintegrowana Platforma Operacyjna - jest zasilany danymi z różnych różnych narzędzi nadzoru. Należą do nich kamery CCTV, tablice rejestracyjne i numery identyfikacyjne obywateli uzyskane z punktów kontroli bezpieczeństwa oraz zbiór danych osobowych, w tym dane dotyczące zdrowia, bankowości i prawa.

Oprócz zautomatyzowanego nadzoru urzędnicy rządowi przeprowadzają wizyty domowe w celu gromadzenia danych o ludności. Chiński biznesmen podzielił się formularzem, który wypełnił w aktach IJOP z Human Rights Watch - między innymi w kwestionariuszu zapytano, czy biznesmenem jest Ujgur, jak często się modli i dokąd udaje się na nabożeństwa.

Wszystkie te dane wejściowe są używane przez IJOP do oznaczania ludzi jako potencjalne zagrożenia. Gdy ktoś zostanie oflagowany, policja wszczyna dalsze dochodzenie i aresztuje je, jeśli zostanie uznane za podejrzane.

„Po raz pierwszy jesteśmy w stanie wykazać, że chińskie władze wykorzystują duże zbiory danych i przewidywania policyjne nie tylko rażąco naruszają prawa do prywatności, ale także umożliwiają urzędnikom arbitralne zatrzymywanie ludzi”, powiedziała Maya Wang, główna badaczka chińskich organizacji Human Rights Watch.

Według raportu, niektórzy oflagowani ludzie zostali wysłani do ośrodków edukacji politycznej, gdzie zostali zatrzymani na czas nieokreślony bez procesu.

„Od około kwietnia 2016 r., Szacunki Human Rights Watch, władze Xinjiangu wysłały dziesiątki tysięcy Ujgurów i innych mniejszości etnicznych do„ ośrodków edukacji politycznej ”- czytamy w raporcie. IJOP uwiarygodnia te zatrzymania, stosując forsowną obiektywną analizę algorytmiczną do dyskryminujących aresztowań.

Co gorsza, wewnętrzne funkcjonowanie IJOP owiane jest tajemnicą.

„Ludzie w Xinjiang nie mogą się oprzeć lub kwestionować coraz bardziej natarczywej analizy ich codziennego życia, ponieważ większość nawet nie wie o tym programie„ czarnej skrzynki ”ani o tym, jak to działa” - powiedział Wang.

Jest to ten sam problem, który nęka najbardziej wyrafinowane systemy uczenia maszynowego: stosowane przez nich procedury decyzyjne są nieprzejrzyste nawet dla twórców algorytmu.

Warto zwrócić uwagę na korzystanie przez IJOP z Chin, ponieważ przewidywanie działań policyjnych prawdopodobnie ulegnie proliferacji wraz z poprawą technologii. Jak zauważył Jon Christian Zarys Systemy przewidywania działań policyjnych są już wykorzystywane w niektórych miejscach w Stanach Zjednoczonych. Wydział Policji w Los Angeles korzysta z oprogramowania, które przewiduje, gdzie i kiedy mogą wystąpić przestępstwa, aby oficerowie mogli je usunąć.

Po drugiej stronie systemu wymiaru sprawiedliwości w sprawach karnych sale sądowe używają czasami algorytmów, które dają potencjalnym warunkom „oceny ryzyka” wyniki oceny, które pomagają sędziom podejmować bardziej świadome decyzje. Niestety te rzekomo obiektywne algorytmy faktycznie rozróżniają na podstawie rasy.

Chińskie dążenie do przewidywania działań policyjnych podkreśla znaczenie odpowiedzialnego wdrażania algorytmów, ponieważ uczenie maszynowe nadal wchodzi do sektora publicznego. Być może nadszedł czas, aby doświadczone rządy przyjęły nową mantrę: czasami sztuczna inteligencja stwarza więcej problemów niż rozwiązuje.

$config[ads_kvadrat] not found