Rapid Advance A.I. powinien być przerażający, jeśli zwracasz uwagę

$config[ads_kvadrat] not found

Advance.AI: More businesses turn to artificial intelligence amid pandemic | ANC

Advance.AI: More businesses turn to artificial intelligence amid pandemic | ANC
Anonim

Jeśli chodzi o identyfikację egzystencjalnych zagrożeń stwarzanych przez innowacje technologiczne, popularna wyobraźnia przywołuje wizje Terminator, Macierz, i Ja robotem - dystopie rządzone przez władców robotów, którzy masowo wykorzystują i eksterminują ludzi. W tych spekulacyjnych przyszłościach połączenie superinteligencji i złych intencji prowadzi komputery do unicestwienia lub zniewolenia rasy ludzkiej.

Jednak nowe badanie sugeruje, że będą to banalne zastosowania A.I. doprowadzi to do poważnych konsekwencji społecznych w ciągu najbliższych kilku lat. Raport „Złośliwe wykorzystanie sztucznej inteligencji” - autorstwa 26 naukowców i naukowców z elitarnych uniwersytetów i ośrodków analitycznych skoncentrowanych na technologii, przedstawia sposoby, w jakie obecny A.I. technologie zagrażają bezpieczeństwu fizycznemu, cyfrowemu i politycznemu. Aby skupić się na swoich badaniach, grupa badawcza przyjrzała się tylko technologii, która już istnieje lub jest prawdopodobna w ciągu najbliższych pięciu lat.

Co znalazło badanie: A.I. systemy prawdopodobnie rozszerzą istniejące zagrożenia, wprowadzą nowe i zmienią ich charakter. Teza raportu głosi, że postęp technologiczny ułatwi i uczyni pewne błędy. Naukowcy twierdzą, że ulepszenia w A.I. zmniejszy ilość zasobów i wiedzy potrzebnej do przeprowadzenia niektórych ataków cybernetycznych, skutecznie obniżając bariery dla przestępczości:

Koszty ataków mogą zostać obniżone przez skalowalne wykorzystanie systemów sztucznej inteligencji do wykonywania zadań, które zwykle wymagają ludzkiej pracy, inteligencji i wiedzy specjalistycznej. Naturalnym efektem byłoby rozszerzenie zestawu aktorów, którzy mogą przeprowadzać określone ataki, tempo, w jakim mogą przeprowadzić te ataki, oraz zestaw potencjalnych celów.

Raport zawiera cztery zalecenia:

1 - Decydenci powinni ściśle współpracować z badaczami technicznymi w celu zbadania, zapobiegania i łagodzenia potencjalnych szkodliwych zastosowań sztucznej inteligencji.

2 - Naukowcy i inżynierowie zajmujący się sztuczną inteligencją powinni poważnie potraktować naturę pracy podwójnego zastosowania, umożliwiając wpływanie na priorytety i normy badawcze związane z niewłaściwym wykorzystaniem, a także aktywnie docierając do odpowiednich podmiotów, gdy przewidywane są szkodliwe zastosowania.

3 - Należy zidentyfikować najlepsze praktyki w obszarach badawczych, stosując bardziej dojrzałe metody rozwiązywania problemów podwójnego zastosowania, takie jak bezpieczeństwo komputera, i importowane, w stosownych przypadkach, w przypadku sztucznej inteligencji.

4 - Aktywnie staraj się poszerzać grono interesariuszy i ekspertów ds. Domen zaangażowanych w dyskusje na temat tych wyzwań

Jak A.I. może sprawić, że obecne oszustwa będą mądrzejsze: przykład, ataki typu spear phishing, w których artyści przedstawiają się jako znajomi celu, członkowie rodziny lub współpracownicy w celu zdobycia zaufania i wydobycia informacji i pieniędzy, są już zagrożeniem. Ale dziś wymagają znacznych nakładów czasu, energii i wiedzy. Jako A.I. systemy zwiększają złożoność, niektóre czynności wymagane do ataku phishingowego, takie jak zbieranie informacji o celu, mogą być zautomatyzowane. Phisher może następnie zainwestować znacznie mniej energii w każdą grę i skierować ją na więcej osób.

A jeśli oszuści zaczną integrować A.I. w ich gry online może okazać się niemożliwe odróżnienie rzeczywistości od symulacji. „Ponieważ AI rozwija się dalej, przekonujące chatboty mogą wzbudzić ludzkie zaufanie, angażując ludzi w dłuższe dialogi, a być może ostatecznie udają wizualnie inną osobę na czacie wideo” - czytamy w raporcie.

Widzieliśmy już skutki wideo generowanego przez maszynę w postaci Deepfakes. Ponieważ technologie te stają się bardziej dostępne i przyjazne dla użytkownika, naukowcy obawiają się, że źli aktorzy będą rozpowszechniać sfabrykowane zdjęcia, filmy i pliki audio. Może to prowadzić do bardzo udanych kampanii zniesławienia z konsekwencjami politycznymi.

Poza klawiaturą: A potencjalne nadużycia nie ograniczają się do Internetu. Gdy zbliżamy się do przyjęcia autonomicznych pojazdów, hakerzy mogą wdrożyć kontradyktoryjne przykłady, aby oszukać samonapędzające się samochody, aby zmylić ich otoczenie. „Obraz znaku stopu z kilkoma pikselami zmienionymi w określony sposób, który ludzie łatwo rozpoznaliby jako wciąż będący obrazem znaku stopu, może jednak zostać błędnie sklasyfikowany jako coś zupełnie innego przez system sztucznej inteligencji” - czytamy w raporcie.

Inne zagrożenia obejmują autonomiczne drony ze zintegrowanym oprogramowaniem do rozpoznawania twarzy do celów targetowania, skoordynowane ataki DOS naśladujące ludzkie zachowanie oraz zautomatyzowane hiperspersonalizowane kampanie dezinformacyjne.

Raport zaleca naukowcom rozważenie potencjalnych szkodliwych aplikacji A.I. rozwijając te technologie. Jeśli odpowiednie środki ochrony nie zostaną wdrożone, możemy już mieć technologię, która zniszczy ludzkość, nie są wymagane żadne roboty zabójcze.

$config[ads_kvadrat] not found