Sztuczna inteligencja - podstawy podstaw
Instytut badawczy AI Now opublikował w środę nowe zalecenia dotyczące odpowiedzialnej implementacji algorytmów w sferze publicznej.Ich rada skierowana jest do grupy zadaniowej utworzonej przez Radę Miasta Nowego Jorku w styczniu, która bada rządowe wykorzystanie sztucznej inteligencji.
Raport AI Now, Algorytmiczne oceny wpływu: w kierunku odpowiedzialnej automatyzacji w agencjach publicznych, podkreśla potrzebę przejrzystości przy wdrażaniu algorytmów. Algorytmy mają ogromny wpływ na nasze codzienne życie, ale ich wpływ czasami pozostaje niezauważony. Ponieważ są one wypalone w infrastrukturze mediów społecznościowych i platform wideo, na przykład łatwo zapomnieć, że programy często określają, jakie treści są przekazywane użytkownikom Internetu. Dopiero gdy coś pójdzie nie tak, jak wideo z teorii spiskowej, które znajduje się na szczycie listy trendów YouTube, analizujemy zautomatyzowane procedury decyzyjne, które kształtują doświadczenia online.
A algorytmy nie są ograniczone do platform internetowych. Instytucje rządowe coraz bardziej polegają na algorytmach w dziedzinach od edukacji po wymiar sprawiedliwości w sprawach karnych. W idealnym świecie algorytmy usunęłyby ludzkie uprzedzenia z trudnych decyzji, np. Ustalenie, czy osadzonemu należy się zwolnienie warunkowe. W praktyce jednak algorytmy są tak skuteczne, jak ludzie, którzy je tworzą.
Na przykład dochodzenie przez ProPublica wykazali, że algorytmy oceny ryzyka stosowane w salach sądowych były stronnicze pod względem rasowym. Co gorsza, wiele algorytmów używanych w sektorze publicznym jest własnością prywatną, a niektóre firmy odmawiają udostępnienia kodu leżącego u podstaw ich oprogramowania. To uniemożliwia zrozumienie, dlaczego te tak zwane algorytmy „czarnej skrzynki” zwracają pewne wyniki.
Jedno potencjalne rozwiązanie oferowane przez AI Now? Algorytmiczne oceny wpływu. Oceny te ustanawiają normę całkowitej przejrzystości, co oznacza, że agencje rządowe, które używają algorytmów, będą musiały publikować informacje o tym, kiedy i jak z nich korzystają. „Ten wymóg sam w sobie znacznie przyczyni się do rzucenia światła na to, które technologie są wdrażane, aby służyć społeczeństwu i gdzie powinny być skoncentrowane badania nad odpowiedzialnością” - czytamy w raporcie.
Polityka otwartości otaczająca algorytmy otworzyłaby również drzwi dla obywateli, aby mogli zbadać i zaprotestować ich użycie. Czy chcesz, aby algorytm dawał Ci ocenę ryzyka opartą na czynnikach, na które nie masz wpływu, zwłaszcza gdy wynik ten może pomóc ustalić, czy pójdziesz do więzienia? Może tak może nie. Tak czy inaczej, ważne jest, aby dokładnie wiedzieć, jakie zmienne są analizowane przez algorytm.
Ponadto AI Now zaleca ustanowienie prawnego standardu dla osób, które lobbują przeciwko nieuczciwym algorytmom.
Na przykład, jeśli agencja nie ujawni systemów, które racjonalnie wchodzą w zakres działań podejmowanych przez zautomatyzowane decyzje, lub jeśli pozwala sprzedawcom na zgłaszanie zarzutów dotyczących tajemnicy handlowej, a tym samym blokuje znaczący dostęp do systemu, opinia publiczna powinna mieć możliwość zgłaszania wątpliwości dotyczących organ nadzorujący agencję lub bezpośrednio w sądzie, jeżeli agencja odmówiła naprawienia tych problemów po okresie publicznego komentarza.
Zalecenia zasadniczo sprowadzają się do jednego nadrzędnego mandatu: jeśli używasz algorytmów, nie bądź o tym podejrzany.
Przeczytaj pełny raport tutaj.
Algorytmy poznane Jak zwiększyć rozmiar tego, co wyglądasz - i znaleźć swoje podwójne
Trwają starania, aby nauczyć ich, jak odtwarzać bardziej ludzkie umiejętności, takie jak odnajdywanie twarzy w chmurach lub dziełach sztuki. Nic nie pokazało tego bardziej niż aplikacja Google Arts and Culture, która stała się wirusowa w styczniu. Oto jak to działa.
Dlaczego statek badawczy w Wielkiej Brytanii „Boaty McBoatface” powinien mieć pozwolenie na żeglowanie
Jeśli chodzi o nazwy statków, niewiele rzeczy może pokonać Boaty McBoatface. Brytyjska opinia publiczna nie mogła zgodzić się na więcej: „Boaty McBoatface jest przytłaczającym zwycięzcą w głosowaniu publicznym, by nazwać 200-milionowy statek”, ogłosił BBC w weekend na swoim koncie na Twitterze. Szkoda, że minister nauki kraju Jo Johnson nie był ...
Instytut Allena pokazuje stare filmy myszom, aby odblokować tajemnice mózgu
W laboratorium w Seattle kilkadziesiąt myszy oglądało scenę otwarcia klasycznego Touch of Evil Orsona Wellesa z 1958 r., A naukowcy obserwowali je z niecierpliwością. Nie byli szczególnie zainteresowani tym, czy myszy uznają ten film za ekscytujący - ich troska była o wiele bardziej żywiołowa. Naukowcy dosłownie ...