A.I. Instytut Badawczy pokazuje, jak tworzyć odpowiedzialne algorytmy

$config[ads_kvadrat] not found

Sztuczna inteligencja - podstawy podstaw

Sztuczna inteligencja - podstawy podstaw
Anonim

Instytut badawczy AI Now opublikował w środę nowe zalecenia dotyczące odpowiedzialnej implementacji algorytmów w sferze publicznej.Ich rada skierowana jest do grupy zadaniowej utworzonej przez Radę Miasta Nowego Jorku w styczniu, która bada rządowe wykorzystanie sztucznej inteligencji.

Raport AI Now, Algorytmiczne oceny wpływu: w kierunku odpowiedzialnej automatyzacji w agencjach publicznych, podkreśla potrzebę przejrzystości przy wdrażaniu algorytmów. Algorytmy mają ogromny wpływ na nasze codzienne życie, ale ich wpływ czasami pozostaje niezauważony. Ponieważ są one wypalone w infrastrukturze mediów społecznościowych i platform wideo, na przykład łatwo zapomnieć, że programy często określają, jakie treści są przekazywane użytkownikom Internetu. Dopiero gdy coś pójdzie nie tak, jak wideo z teorii spiskowej, które znajduje się na szczycie listy trendów YouTube, analizujemy zautomatyzowane procedury decyzyjne, które kształtują doświadczenia online.

A algorytmy nie są ograniczone do platform internetowych. Instytucje rządowe coraz bardziej polegają na algorytmach w dziedzinach od edukacji po wymiar sprawiedliwości w sprawach karnych. W idealnym świecie algorytmy usunęłyby ludzkie uprzedzenia z trudnych decyzji, np. Ustalenie, czy osadzonemu należy się zwolnienie warunkowe. W praktyce jednak algorytmy są tak skuteczne, jak ludzie, którzy je tworzą.

Na przykład dochodzenie przez ProPublica wykazali, że algorytmy oceny ryzyka stosowane w salach sądowych były stronnicze pod względem rasowym. Co gorsza, wiele algorytmów używanych w sektorze publicznym jest własnością prywatną, a niektóre firmy odmawiają udostępnienia kodu leżącego u podstaw ich oprogramowania. To uniemożliwia zrozumienie, dlaczego te tak zwane algorytmy „czarnej skrzynki” zwracają pewne wyniki.

Jedno potencjalne rozwiązanie oferowane przez AI Now? Algorytmiczne oceny wpływu. Oceny te ustanawiają normę całkowitej przejrzystości, co oznacza, że ​​agencje rządowe, które używają algorytmów, będą musiały publikować informacje o tym, kiedy i jak z nich korzystają. „Ten wymóg sam w sobie znacznie przyczyni się do rzucenia światła na to, które technologie są wdrażane, aby służyć społeczeństwu i gdzie powinny być skoncentrowane badania nad odpowiedzialnością” - czytamy w raporcie.

Polityka otwartości otaczająca algorytmy otworzyłaby również drzwi dla obywateli, aby mogli zbadać i zaprotestować ich użycie. Czy chcesz, aby algorytm dawał Ci ocenę ryzyka opartą na czynnikach, na które nie masz wpływu, zwłaszcza gdy wynik ten może pomóc ustalić, czy pójdziesz do więzienia? Może tak może nie. Tak czy inaczej, ważne jest, aby dokładnie wiedzieć, jakie zmienne są analizowane przez algorytm.

Ponadto AI Now zaleca ustanowienie prawnego standardu dla osób, które lobbują przeciwko nieuczciwym algorytmom.

Na przykład, jeśli agencja nie ujawni systemów, które racjonalnie wchodzą w zakres działań podejmowanych przez zautomatyzowane decyzje, lub jeśli pozwala sprzedawcom na zgłaszanie zarzutów dotyczących tajemnicy handlowej, a tym samym blokuje znaczący dostęp do systemu, opinia publiczna powinna mieć możliwość zgłaszania wątpliwości dotyczących organ nadzorujący agencję lub bezpośrednio w sądzie, jeżeli agencja odmówiła naprawienia tych problemów po okresie publicznego komentarza.

Zalecenia zasadniczo sprowadzają się do jednego nadrzędnego mandatu: jeśli używasz algorytmów, nie bądź o tym podejrzany.

Przeczytaj pełny raport tutaj.

$config[ads_kvadrat] not found