Naukowcy ujawniają tajne polecenia do przechwycenia twojego Siri

$config[ads_kvadrat] not found

NAUKOWCY UJAWNIAJĄ DLACZEGO PSY CHRONIĄ LUDZI! MAJĄ POWÓD... | 90 SEKUND

NAUKOWCY UJAWNIAJĄ DLACZEGO PSY CHRONIĄ LUDZI! MAJĄ POWÓD... | 90 SEKUND
Anonim

Naukowcy ujawnili, w jaki sposób tajne polecenia mogą wykorzystywać narzędzia do sterowania głosem, takie jak Siri i Google Now, do przejęcia smartfonu bez Twojej wiedzy.

„Podczas gdy wszechobecne rozpoznawanie głosu przynosi wiele korzyści”, piszą naukowcy w artykule, który zostanie zaprezentowany w sierpniu, „jego konsekwencje dla bezpieczeństwa nie są dobrze zbadane”. Zespół z Georgetown University i University of California w Berkeley przeprowadził serię testy, aby sprawdzić, jak łatwo można oszukać tych asystentów, a kiedy wykazali, że telefon może być zmuszony do aktywacji trybu samolotowego lub zadzwonić pod 911, próbowali dowiedzieć się, jak bronić się przed tymi atakami.

Naukowcy byli w stanie zmusić tych wirtualnych asystentów do odpowiedzi na polecenie, którego ludzie nawet nie rozumieją. (Brzmi to trochę jak skrzyżowanie próby dziecka wypowiedzenia pełnego zdania z hałasem zepsutego młynka do kawy.) Dzieje się tak dlatego, że wirtualni asystenci powinni być w stanie zrozumieć jak najwięcej ludzi, co oznacza, że ​​mogą zgadnijcie słowa, nawet my nie możemy analizować.

Naukowcy odkryli, że maszyny cały czas lepiej rozumieją polecenia niż ludzie - z jednym wyjątkiem - i są znacznie lepsi w wykrywaniu ich, gdy polecenia są zaciemnione. Są duże szanse, że twój wirtualny asystent lepiej zrozumie ludzką mowę niż ty, co oznacza, że ​​nigdy nie będziesz wiedział, czy otrzymałeś polecenie.

Jest to niewielka uciążliwość, jeśli ktoś nakazuje telefonowi włączenie trybu samolotowego. Może to być większy problem, jeśli są w stanie otworzyć stronę internetową używaną do rozpowszechniania złośliwego oprogramowania lub udostępnić informacje, których nie ma udostępniać. A teraz nie ma sposobu na obronę przed tego typu atakami bez wyłączania Google Now, Siri lub innego wirtualnego asystenta w telefonie.

„Nie jesteśmy świadomi żadnego urządzenia lub systemu, który obecnie chroni przed zaciemnionymi poleceniami głosowymi” - piszą naukowcy w swoim artykule. Sugerują niektóre możliwe sposoby obrony - audio CAPTCHA, pomagając wirtualnym asystentom wykrywać różnice między mową naturalną lub syntezowaną, powiadamiając użytkowników o wydaniu polecenia - ale żaden z nich nie jest obecnie dostępny dla konsumentów.

Uważaj więc, kiedy następnym razem zdecydujesz się obejrzeć losowy film na YouTube. Nigdy nie wiadomo, kiedy ktoś może skorzystać z jednej z flagowych funkcji telefonu, aby w najlepszym razie irytować użytkownika i w najgorszym razie naruszyć bezpieczeństwo telefonu.

Przeczytaj cały artykuł „Ukryte polecenia głosowe” poniżej:

$config[ads_kvadrat] not found