DARPA zdecydował, że chce rzeczywiście zrozumieć A.I.

DOE FY2021 Budget Request for Advanced Research Projects Agency (EventID=110705)

DOE FY2021 Budget Request for Advanced Research Projects Agency (EventID=110705)
Anonim

Pentagon chce dowiedzieć się, co sprawia, że ​​sztuczna inteligencja się klei. Agencja Zaawansowanych Projektów Badawczych Obrony (DARPA) ogłosiła w czwartek, że jest bardzo zainteresowana wyjaśnianiem A.I. projekty znane jako XAI. Wiadomość jest ostrą odejściem dla agencji, która wcześniej nadała priorytet A.I. skuteczność, zamiast faktycznie rozumieć, w jaki sposób systemy podejmują decyzje.

DARPA chce wspierać A.I. projekty, które wyjaśnią użytkownikowi końcowemu, dlaczego coś się stało. Na przykład DARPA chce, aby analitycy wywiadu zrozumieli, dlaczego zalecenia są ich A.I. wysyła je zostały wybrane. Jeśli analityk ludzki patrzy na A.I. wybrane dane, powinni zrozumieć, dlaczego komputer umieścił te dane przed nimi, a nie coś innego. A.I. podobnie jak te w finansowanym przez agencję Cyber ​​Grand Challenge musiałyby być zaprojektowane w bardziej przejrzysty sposób, ale zapowiedź DARPA mówi, że rozważa ona różne interfejsy użytkownika (nie podaje zbyt wielu szczegółów, jak projekt XAI powinien wyjaśnij się.)

Abstrakty dla potencjalnych projektów mają się ukazać 1 września, a DARPA przewiduje wręczenie wielu nagród naukowcom. Obejmują one zamówienia publiczne i umowy o współpracy, ale agencja nie będzie udzielać dotacji. Agencja poszukuje również zespołów, które mogą prowadzić badania w jaki sposób A.I. powinien wyjaśnić się; innymi słowy, naukowcy muszą przestudiować A.I. w ten sam sposób psychologowie badają, jak ludzki umysł przetwarza informacje w różnych okolicznościach.