Jak hakerzy używają sztucznej inteligencji do podstępu do klikania szkicowych linków

Fałszywe witryny to kolejne narzędzie hakerów. Ofiara nie ma pojęcia że jest okradana! #Złodzieje

Fałszywe witryny to kolejne narzędzie hakerów. Ofiara nie ma pojęcia że jest okradana! #Złodzieje
Anonim

Użytkownicy Twittera mogą być bardziej ostrożni w linkach, na które klikają.

Philip Tully i John Seymour z ZeroFox ujawnili na kongresie hakerów Black Hat USA 2016 4 sierpnia, że ​​mogą korzystać z uczenia maszynowego (tj. Sztucznej inteligencji), aby użytkownicy Twittera otworzyli linki do złośliwych stron internetowych z wskaźnikiem powodzenia od 30 do 66 procent.

Duet stworzył SNAP_R, „powtarzającą się sieć neuronową, która uczy się tweetować posty phishingowe skierowane do konkretnych użytkowników”, aby udowodnić, że sztuczna inteligencja może być wykorzystana do pomocy w próbach „spear phishing”. Phishing typu spear jest bezpośrednią próbą phishowania użytkownika w celu kliknięcia niewłaściwego linku, w przeciwieństwie do normalnego phishingu, który rzuca szeroką sieć na wielu użytkowników (np. W e-mailach łańcuchowych lub spamowych, które żądają informacji logowania). SNAP_R zasadniczo znajduje cel, pisze tweet, który według niego go interesuje, używa skróconego adresu URL Google, aby ukryć złośliwy link, a następnie tweety w jego celu w nadziei, że kliknie link.

„W testach składających się z 90 użytkowników odkryliśmy, że nasza zautomatyzowana platforma phishingowa miała od 30% do 66% skuteczności”. Tully i Seymour piszą w artykule o SNAP_R. „To jest bardziej udane niż 5-14% wcześniej zgłaszane w dużych kampaniach phishingowych i porównywalne z 45% zgłoszonymi do dużych wysiłków phishingowych”.

Sztuczna inteligencja jest często wykorzystywana do ochrony danych, a nie do naruszania ich. Seymour i Tully chcieli odwrócić to na głowie, żeby pokazać, że nawet hakerzy nie boją się A.I. uniemożliwiając hakowanie, opinia publiczna powinna obawiać się, że hakerzy mogą używać podobnych narzędzi w stosunku do swoich celów.

OpenAI, projekt wspierany przez Elona Muska badający sposób, w jaki sztuczna inteligencja wpłynie na nas w przyszłości, powiedział w lipcu, że technologia może stanowić ryzyko. „Wczesne wykorzystanie sztucznej inteligencji będzie polegało na włamaniu się do systemów komputerowych” - napisał OpenAI. „Chcielibyśmy, aby techniki sztucznej inteligencji broniły się przed wyrafinowanymi hakerami intensywnie wykorzystującymi metody sztucznej inteligencji”.

Ujawnienie, jak działa SNAP_R, ma „wspierać większą świadomość i zrozumienie” ataków phishingowych włóczni. Omówienie wewnętrznych narzędzi narzędzia może pomóc komuś znaleźć sposób na ochronę użytkowników Twittera przed podobnymi zagrożeniami, pod warunkiem, że użytkownicy Twittera będą mogli ograniczyć ich ciekawość i zachować ostrożność.

„Nasze podejście opiera się na fakcie, że media społecznościowe szybko stają się łatwym celem ataków phishingowych i socjotechnicznych”, piszą Seymour i Tully. „Korzystamy z Twittera jako naszej platformy ze względu na niski próg dopuszczalnych postów, tolerancję społeczności dla wygodnych usług, takich jak skrócone linki, efektywne API i wszechobecną kulturę prześwietlania danych osobowych.” Ups.

Prezentacja ta była jedną z wielu prezentowanych w Black Hat USA 2016, aby pomóc ludziom zrozumieć zagrożenia bezpieczeństwa. Może to nie mieć tak dużego wpływu jak nowy program firmy Apple dotyczący błędów, ale wciąż dobrze jest śledzić, jak ewoluują narzędzia hakerskie.

Poniżej możesz przeczytać pełny artykuł Seymoura i Tully'ego na temat SPAN_R: