Taylor Swift - I Knew You Were Trouble
Sztuczna inteligencja wymaga przejrzystości, aby ludzie mogli ją rozliczyć, twierdził badacz. Virginia Dignum, profesor nadzwyczajny na Uniwersytecie Technologicznym w Delft, powiedziała publiczności na Uniwersytecie Nowojorskim w piątek, że jeśli nie zrozumiemy, dlaczego maszyny działają tak, jak robią, nie będziemy w stanie ocenić ich decyzji.
Dignum przytoczył historię Davida Berreby, pisarza i badacza nauki, która została opublikowana w Psychologia dzisiaj: „Dowody sugerują, że kiedy ludzie pracują na maszynach, odczuwają mniej poczucia sprawczości niż gdy pracują sami lub z innymi ludźmi”.
„Problem z wózkiem”, wyjaśnił Dignum, to obszar, w którym ludzie mogą umieścić ślepą wiarę w maszynie, aby wybrać właściwy wynik. Pytanie brzmi, czy przełączyć dźwignię na hipotetyczny niekontrolowany pociąg, aby zabił jedną osobę zamiast pięciu. Ludzie oczekują, że maszyny rozwiążą problem w najbardziej racjonalny sposób. Jednak nie zawsze tak jest, a przejrzystość pomoże wyjaśnić, w jaki sposób maszyna podjęła decyzję.
„To nie tylko bardzo głęboki, neuronowy łańcuch zdarzeń, którego nikt nie może zrozumieć, ale także wyjaśnienia w sposób, który ludzie mogą zrozumieć” - powiedziała.
A.I. to sprawia, że jego działanie jest jasne, a obszar, który DARPA bada. Agencja opublikowała w sierpniu ogłoszenie, że szuka zespołów zainteresowanych wyjaśnianiem A.I. projekty znane jako XAI. Systemy te pomogą naukowcom zrozumieć, dlaczego A.I. podjął decyzję, która to zrobiła, dając więcej możliwości decydowania, co zrobić z uzyskanymi informacjami, zamiast ślepo ufać maszynie.
Dzięki uczeniu maszynowemu Dignum zauważył, że przejrzystość jest ważniejsza niż kiedykolwiek. „Nie możemy oczekiwać, że systemy, a zwłaszcza maszyny do uczenia maszynowego, będą się uczyć i od razu je znać” - powiedziała.„Nie oczekujemy, że nasi kierowcy podczas jazdy będą w pełni rozumieć przepisy ruchu drogowego. W wielu krajach używają tych tabliczek „L”, aby pokazać: „Uczę się, przepraszam za błędy, które mogę popełnić.” ”Oglądanie sztucznej inteligencji, zrozumienie, w jaki sposób dochodzi do pewnych decyzji i działania oparte na tym, będzie kluczowe dla zatrzymywanie maszyn, które wciąż uczą się od podejmowania złych decyzji.
Raport przejrzystości Google ujawnia wzrost liczby żądań danych rządowych
Najnowszy raport Google dotyczący przejrzystości jest trochę mieszany. Firma ujawniła w tym tygodniu, że w okresie sześciu miesięcy, kończącym się w grudniu 2015 r., Otrzymała więcej żądań danych użytkowników od rządu USA niż kiedykolwiek wcześniej. To wydaje się złą wiadomością, ponieważ Google przechowuje informacje o tym, gdzie są jego użytkownicy, z ...
Zmumifikowałem hot doga pod moim łóżkiem i teraz rozumiem rozkład
Przez ostatnie dwa tygodnie miałem pod swoim łóżkiem hot doga. Uwięziony w przezroczystym Tupperware i zakopany w sodzie oczyszczonej, nie przypomina już czegoś, co rzucasz na grilla i podajesz przyjaciołom obsypanym musztardą. Wygląda jak cygaro lub może część gałęzi, jeśli te rzeczy pachniały jak gorące śmieci. Mój ...
Dlaczego potrzebujemy „hibernacyjnych pojemników w stylu pasażerów” do podróży kosmicznych
Finansowane przez NASA badania nad torpor mogą zapewnić rzeczywiste rozwiązanie głębokiego snu dla długich podróży kosmicznych.