Как лопнуть голову сопернику? Алеша VS Папа! Мега эпичный баттл!
Roboty okazują się być wspaniałymi ludzkimi towarzyszami. Kto nie chciałby, żeby urocza mała Pepper opowiadała nam dowcipy, składała nam komplementy i ogólnie sprawiała, że czuliśmy się mniej samotni na świecie? Nawet bezkształtne roboty okazują się zaskakująco dobrym towarzystwem. Weźmy na przykład Alexę z Amazon Echo. Jest robotycznym mózgiem z ludzkim głosem uwięzionym w ciele głośnika, ale jest pomocna, a jeśli przeczytasz jej recenzje, jasne jest, że stała się dla wielu użytkowników jak rodzina. Czy ludzie będą myśleć inaczej, jeśli skłamie? Może powie ci coś, czego naprawdę nie chciałeś usłyszeć?
Pomyśl o tym: mówimy dzieciom, aby nigdy nie kłamały, a uczciwość jest najlepszą polityką, a jednak pomijamy, zniekształcamy prawdę i wprost okłamujemy dzieci cały czas. To uczy ich, poprzez nasze działania, jeśli nie przez nasze słowa, że nie chodzi o całkowitą uczciwość, ale o poznanie skomplikowanych zasad społecznych dotyczących tego, kiedy i jak ujawniać lub ukrywać potencjalnie poufne informacje. Programowanie robotów w celu przestrzegania tych reguł społecznych może być trudną, ale niezbędną częścią procesu innowacji automatycznej.
Oto przykład: Byłem w domu szwagra drugiego weekendu i poszedłem do sklepu, żeby wziąć trochę kanapek na lunch dla wszystkich. Moja sześcioletnia siostrzenica pomagała mi wyjąć jedzenie, podczas gdy wszyscy pozostali byli poza kuchnią, a ona zapytała mnie, ile kosztują artykuły spożywcze. Powiedziałem jej, ponieważ nauczanie dzieci o wartości pieniędzy to dobra rzecz.
Przy stole obiadowym poprosiła mnie, abym powiedział wszystkim, ile kosztują artykuły spożywcze. Powiedziałem nie.„Dlaczego?” Zapytała autentycznie zdezorientowana, dlaczego pytanie, na które odpowiedziałem swobodnie kilka minut wcześniej, było teraz tajną informacją. „To nie jest grzeczne” - powiedziałem, wyjaśniając, że ponieważ jest dzieckiem, zasady są inne, gdy jesteśmy sami. Uczyłem ją, że uczciwość i otwartość mają czas i miejsce. Informacje w ludzkim kontekście zawsze nie chcą być wolne.
To samo dotyczy robotów. Uważamy, że nie chcemy, aby nasze roboty okłamywały nas, ale w rzeczywistości chcemy, aby nauczyli się skomplikowanych społecznych zasad grzeczności i dyskrecji, które czasami wymagają zniekształcenia prawdy. I już się uczą, jak to robić. Weź ten krótki klip Peppera do interakcji z reporterem, na przykład:
Pierwszą rzeczą z ust Pepper jest komplement: „Jesteś bardzo szykowny. Jesteś modelem?"
Reporter jest wystarczająco przystojny, ale pytanie Peppera nie jest całkowicie szczere. Rozumiemy, że Pepper tak naprawdę nie zastanawia się, czy jest modelem, i został zaprogramowany do mówienia miłych rzeczy bez względu na to, jak wygląda osoba.
Wkrótce potem Pepper prosi o pożyczkę, nieoczekiwanie. To niegrzeczne pytanie, niedyskrecja, którą łatwo wybaczamy robotowi, tak jak my, dziecko. Reporter mógł wskazać, że pytanie jest niegrzeczne, zasugerował, że roboty nie potrzebują pieniędzy, lub przyznał, że nie ma interesu w przekazaniu Pepperowi 100 dolarów. Cała prawda jest taka, że reporter mógłby pożycz pieniądze robotowi, ale rozumie, że samo pytanie jest trochę grą. To, co chce powiedzieć, to odchylenie i albo białe kłamstwo, albo półprawda - nie ma na nim pieniędzy. Mamy nadzieję, że robot zrozumie to jako delikatne „nie” i nie sugeruje, że reporter udaje się do bankomatu i dokonuje wypłaty. Ponieważ Pepper najwyraźniej ma jakąś społeczną łaskę, linia przesłuchania się kończy.
Roboty społeczne są zaprogramowane, aby uczyć się sygnałów społecznych, i to jest dobra rzecz - ostatecznie uczyni ich lepszymi w naszej pracy. Zadaniem programistów nie jest eliminowanie wszystkich oszustw robotów, ale dodawanie funkcji, które ułatwiają robotom podejmowanie decyzji o odpowiednich odpowiedziach.
Kiedy roboty są naszymi zaufanymi, muszą mieć świadomość kontekstu i odbiorców. Jeśli na przykład wypróbowuję stroje w domu, będę chciał uczciwej oceny tego, jak pochlebne są różne opcje. Jeśli wychodzę na imprezę i nagle jestem samoświadomy, że wybrałem niewłaściwą sukienkę, zapewnienie, że wyglądam dobrze, będzie najbardziej pomocną odpowiedzią.
Roboty będą uczyć się wielu informacji osobistych na temat swoich towarzyszy i ważne będzie dla nich zrozumienie różnicy między poufnymi informacjami a informacjami publicznymi, a także być świadomym tego, kto słucha, gdy mówi. Pytania będą miały różne odpowiedzi w zależności od tego, kto pyta. Roboty będą się zachowywać inaczej, gdy goście będą w domu.
Roboty, podobnie jak dzieci, potrzebują odpowiedzialnego rodzicielstwa. Oznacza to, że zarówno programiści robotów, jak i właściciele robotów muszą głęboko przemyśleć etyczne i społeczne konsekwencje naszego A.I. interakcje. Ale nie oznacza to wymagania doskonałej uczciwości - poważnie, nikt tego nie chce.
Robot Erotic Dancers stał się rzeczą i uczą się, jak flirtować
Oczywiście, sztuczna inteligencja jest na dobrej drodze, by zrewolucjonizować biznes bankowy, dziennikarstwo, pracę w fabryce, pomoc domową i - jak się domyślacie - także przemysł seksualny. Znajdują się tutaj realistyczne burdele sex-botów, ale nie erotyczne A.I. jest bardziej zaawansowany niż Cardi-Bot CamSody.
Obywatelstwo robota: dlaczego nasi sztuczni asystenci mogą potrzebować paszportów jednego dnia
Malta współpracuje z SingularityNET, aby zbadać możliwości przyznawania sztucznej inteligencji i obywatelstwa robotów. Ten ruch następuje po przyznaniu obywatelstwa Sophii, twórcy humanoidalnych robotów przez Hanson Robotics. Czy jesteś gotowy na nadanie praw Siri lub Amazon Alexa?
Apple i Amazon wynajmują poetów, aby zrobić ich A.I. Asystenci brzmią bardziej ludzko
Okazuje się, że „bezużyteczny” stopień humanistyczny może pomóc ci zdobyć pracę w Dolinie Krzemowej dzięki rozwojowi sztucznej inteligencji. Mózgi stojące za Apple Siri, Alexa Amazona i Cortana Microsoftu zdały sobie sprawę, że aby ich brzmienie brzmiało bardziej jak ludzie, musieli zatrudniać pracowników, których kreatywność była mniej cyfrowa ...