Algorytm jest testowany w San Francisco, aby ustawić przedpłatową kaucję

Wyszukiwanie elementu w zbiorze nieuporządkowanym - Scratch

Wyszukiwanie elementu w zbiorze nieuporządkowanym - Scratch
Anonim

System wymiaru sprawiedliwości w sprawach karnych jest w trakcie zmiany algorytmicznej. Około 30 jurysdykcji - w tym w całych stanach Arizona, Kentucky i New Jersey, a także w miastach takich jak San Francisco i Chicago - testowało algorytm, który ustala koszt kaucji na podstawie ogólnokrajowych danych z rejestrów karnych. Nie wszyscy sędziowie są koniecznie gotowi wziąć do serca cyfrowe zalecenia.

Algorytm został stworzony przez Laurę i Johna Arnolda z siedzibą w Houston i jest nazywany oceną bezpieczeństwa publicznego lub PSA. Celem algorytmu jest wyeliminowanie błędów związanych z ustanawianiem zwolnienia za pomocą danych z 1,5 miliona spraw przedprocesowych. W przeszłości jednak algorytmy niosły ze sobą te same uprzedzenia ludzi, którzy je tworzą.

Do algorytmu wpływa dziewięć czynników, na stronie internetowej fundacji:

  • Czy obecne wykroczenie jest gwałtowne
  • Czy dana osoba ma oczekującą opłatę w momencie aresztowania
  • Czy osoba ma uprzednie przekonanie o wykroczeniu
  • Czy osoba ma uprzednie przekonanie o zbrodni
  • Czy dana osoba ma wcześniejszy wyrok skazujący za przestępstwo z użyciem przemocy
  • Wiek osoby w momencie aresztowania
  • Czy dana osoba nie pojawiła się na przesłuchaniu przedprocesowym w ciągu ostatnich dwóch lat
  • Czy osoba nie pojawiła się na przesłuchaniu przedprocesowym ponad dwa lata temu
  • Czy dana osoba została wcześniej skazana na karę więzienia.

Algorytm nie uwzględnia rasy, płci, dochodów, wykształcenia, zatrudnienia ani sąsiedztwa. To, według fundacji, czyni PSA neutralnym.

Mimo to sędziowie w San Francisco nie konsekwentnie stosowali się do zaleceń San Francisco Chronicle raporty.

San Francisco przystąpiło do stosowania algorytmu po tym, jak miasto zostało pozwane przez krajową grupę praw obywatelskich, która twierdziła, że ​​nadmierna kaucja zaszkodzi biednym bardziej niż bogatym. Bogaci ludzie, którzy popełnili drobne przestępstwa, wykupywali sobie drogę z więzienia, podczas gdy biedni ludzie, którzy nie mogli sobie pozwolić na nadmierne kwoty poręczenia, pozostawiano w celi do czasu, aż można było zaplanować proces.

PSA miał wyrównać szanse, patrząc na dane, a nie na bezpośrednie przestępstwo. Algorytm wykorzystuje dane historyczne do oceny prawdopodobieństwa, że ​​dana osoba popełni kolejne przestępstwo lub uniknie procesu, jeśli zostanie zwolniona za kaucją, Raport mniejszości styl. Jeśli prawdopodobieństwo jest wysokie, kaucja jest wyższa i odwrotnie.

Podobny algorytm stworzony przez Northpointe został użyty do wyznaczenia daty wydania więźnia. ProPublica opublikował wyniki badania przeprowadzonego w maju, które wykazało, że wyniki „oceny ryzyka” podane przez algorytm Northpointe przewidywały nieproporcjonalnie, że Czarni byli bardziej skłonni popełnić kolejne przestępstwo niż biali ludzie po tym, jak się wydostali. Zaledwie 20 procent prognoz Northpointe było trafnych.

Z drugiej strony zaawansowane technologie mapowania i duże dane pomagają również w identyfikacji organów ścigania i policyjnych miejscach przestępczych.

Algorytm fundacji ma na celu uniknięcie podobnego błędu poprzez usunięcie wszelkich wskaźników demograficznych. Jednak to, czy naprawdę działa, nie będzie widoczne, dopóki sędziowie nie zaczną polegać na algorytmach nad precedensem i intuicją.