Cyberataki oparte na sztucznej inteligencji: hakerzy wykorzystują sztuczną inteligencję

Węzeł źródłowy: 1883086

Nie da się ukryć, że AI zmienia branżę cyberbezpieczeństwa. Miecz obosieczny, sztuczna inteligencja może być wykorzystywana zarówno jako rozwiązanie zabezpieczające, jak i broń przez hakerów. Gdy sztuczna inteligencja wkracza do głównego nurtu, pojawia się wiele dezinformacji i nieporozumień dotyczących jej możliwości i potencjalnych zagrożeń. Kultura popularna obfituje w dystopijne scenariusze wszechwiedzących maszyn przejmujących świat i niszczących ludzkość. Jednak wiele osób dostrzega potencjalne korzyści, jakie sztuczna inteligencja może nam przynieść dzięki postępom i spostrzeżeniom, jakie może zapewnić.

Systemy komputerowe zdolne do uczenia się, rozumowania i działania są wciąż na wczesnym etapie. Uczenie maszynowe wymaga ogromnych ilości danych. W zastosowaniu do rzeczywistych systemów, takich jak pojazdy autonomiczne, technologia ta łączy złożone algorytmy, robotykę i czujniki fizyczne. Chociaż wdrażanie jest uproszczone dla firm, zapewnienie sztucznej inteligencji dostępu do danych i przyznanie jej dowolnej autonomii budzi poważne obawy.

Sztuczna inteligencja zmienia naturę cyberbezpieczeństwa na lepsze lub gorsze

Sztuczna inteligencja (AI) jest szeroko stosowana w rozwiązaniach z zakresu cyberbezpieczeństwa, ale hakerzy wykorzystują ją również do tworzenia wyrafinowanego złośliwego oprogramowania i przeprowadzania cyberataków.

W erze hiperłączności, w której dane są postrzegane jako najcenniejszy zasób firmy, branża cyberbezpieczeństwa dywersyfikuje się. Jest dużo Trendy cyberbezpieczeństwa oparte na sztucznej inteligencji muszą być tego świadomi eksperci branżowi.

Szacuje się, że do 2023 r. cyberbezpieczeństwo będzie warte 248 miliardów dolarów, głównie ze względu na wzrost cyberzagrożeń, które wymagają coraz bardziej złożonych i precyzyjnych środków zaradczych.

W dzisiejszych czasach na cyberprzestępczości można zarobić dużo pieniędzy. Dzięki mnóstwu dostępnych zasobów nawet osoby bez wiedzy technicznej mogą się w nią zaangażować. Dostępne są zestawy exploitów o różnym poziomie zaawansowania, od kilkuset dolarów do dziesiątek tysięcy. Według Business Insidera haker może generować około 85,000 XNUMX USD miesięcznie.

Jest to niezwykle dochodowa i dostępna rozrywka, więc nie zniknie ona w najbliższym czasie. Co więcej, oczekuje się, że w przyszłości cyberataki staną się trudniejsze do wykrycia, częstsze i bardziej wyrafinowane, co narazi na ryzyko wszystkie nasze połączone urządzenia.

Firmy oczywiście ponoszą znaczne straty w postaci utraty danych, utraty przychodów, wysokich kar i możliwości zamknięcia działalności.

W rezultacie oczekuje się, że rynek cyberbezpieczeństwa będzie się rozwijał, a dostawcy oferują zróżnicowaną gamę rozwiązań. Niestety, to niekończąca się bitwa, a ich rozwiązania są tak skuteczne, jak następna generacja złośliwego oprogramowania.

Nowe technologie, w tym sztuczna inteligencja, będą nadal odgrywać znaczącą rolę w tej bitwie. Hakerzy mogą skorzystać z postępów AI i używać ich do cyberataków, takich jak ataki DDoS, ataki MITM i tunelowanie DNS.

Weźmy na przykład CAPTCHA, technologię dostępną od dziesięcioleci w celu ochrony przed upychaniem danych uwierzytelniających poprzez wyzywanie botów, które nie są ludźmi, do odczytywania zniekształconego tekstu. Kilka lat temu badanie Google wykazało, że technologia optycznego rozpoznawania znaków (OCR) oparta na uczeniu maszynowym może obsłużyć 99.8 procent botów”. trudności z CAPTCHA.

Przestępcy wykorzystują również sztuczną inteligencję do szybszego hakowania haseł. Głębokie uczenie się może pomóc w przyspieszeniu ataków brute force. Na przykład, zbadaj wyszkolone sieci neuronowe z milionami ujawnionych haseł, co dało 26% wskaźnik sukcesu podczas generowania nowych haseł.

Czarny rynek narzędzi i usług związanych z cyberprzestępczością daje sztuczną inteligencję okazję do zwiększenia wydajności i rentowności.

Najpoważniejszą obawą przed zastosowaniem sztucznej inteligencji w złośliwym oprogramowaniu jest to, że nowe szczepy będą uczyć się na podstawie wykrytych zdarzeń. Jeśli szczep złośliwego oprogramowania może dowiedzieć się, co spowodowało jego wykrycie, następnym razem można uniknąć tego samego działania lub cechy.

Twórcy zautomatyzowanego szkodliwego oprogramowania mogą na przykład przepisać kod robaka, jeśli to on był przyczyną jego włamania. Podobnie losowość może być dodana do reguł dopasowywania wzorców folii, jeśli określone cechy zachowania spowodowały jej wykrycie.

Ransomware

Skuteczność oprogramowania ransomware zależy od tego, jak szybko może się rozprzestrzeniać w systemie sieciowym. Cyberprzestępcy już wykorzystują w tym celu sztuczną inteligencję. Na przykład wykorzystują sztuczną inteligencję, aby zobaczyć reakcje zapór ogniowych i zlokalizować otwarte porty, które zaniedbał zespół ds. bezpieczeństwa.

Istnieje wiele przypadków, w których zasady zapory ogniowej w tej samej firmie kolidują, a sztuczna inteligencja jest doskonałym narzędziem do wykorzystania tej luki. Wiele z niedawnych naruszeń wykorzystywało sztuczną inteligencję do obchodzenia ograniczeń zapory sieciowej.

Inne ataki są oparte na sztucznej inteligencji, biorąc pod uwagę ich skalę i wyrafinowanie. Sztuczna inteligencja jest wbudowana w zestawy exploitów sprzedawane na czarnym rynku. To bardzo lukratywna strategia dla cyberprzestępców, a pakiety SDK oprogramowania ransomware są naładowane technologią AI.

Zautomatyzowane ataki

Hakerzy wykorzystują również sztuczną inteligencję i uczenie maszynowe do automatyzacji ataków na sieci korporacyjne. Na przykład cyberprzestępcy mogą wykorzystywać sztuczną inteligencję i ML do tworzenia złośliwego oprogramowania w celu wykrywania luk w zabezpieczeniach i określania, którego ładunku użyć do ich wykorzystania.

Oznacza to, że złośliwe oprogramowanie może uniknąć wykrycia, ponieważ nie musi komunikować się z serwerami dowodzenia i kontroli. Zamiast stosować zwykłą wolniejszą strategię rozproszonego strzału, która może ostrzec ofiarę, że jest atakowana, ataki mogą być skoncentrowane na laserze.

Nieostre

Atakujący wykorzystują również sztuczną inteligencję do odkrywania nowych słabości oprogramowania. Dostępne są już narzędzia do fuzzingu, które pomagają legalnym twórcom oprogramowania i testerom penetracyjnym chronić ich programy i systemy, ale jak to często bywa, bez względu na to, jakich narzędzi używają dobrzy ludzie, źli mogą wykorzystać.

Sztuczna inteligencja i powiązane systemy stają się coraz bardziej powszechne w światowej gospodarce, a przestępczy półświatek idzie w ich ślady. Co więcej, kod źródłowy, zbiory danych i metodologie wykorzystywane do rozwijania i utrzymywania tych solidnych funkcji są publicznie dostępne, więc cyberprzestępcy mający motywację finansową do ich wykorzystania skoncentrują swoje wysiłki właśnie tutaj.

Jeśli chodzi o wykrywanie złośliwej automatyzacji, centra danych muszą przyjąć strategię zerowego zaufania.

phishing

Pracownicy nauczyli się identyfikować wiadomości phishingowe, szczególnie te wysyłane masowo, ale sztuczna inteligencja pozwala atakującym na spersonalizowanie każdej wiadomości e-mail dla każdego odbiorcy.

W tym miejscu obserwujemy poważną pierwszą broń algorytmów uczenia maszynowego. Obejmuje to czytanie postów pracownika w mediach społecznościowych lub, w przypadku atakujących, którzy wcześniej uzyskali dostęp do sieci, czytanie całej komunikacji pracownika.

Atakujący mogą również wykorzystać sztuczną inteligencję, aby włączyć się w trwającą wymianę e-maili. Wiadomość e-mail będąca częścią bieżącej rozmowy natychmiast brzmi autentycznie. Przechwytywanie wątków poczty e-mail to skuteczna strategia dostania się do systemu i rozprzestrzeniania złośliwego oprogramowania z jednego urządzenia na drugie.

Źródło: https://www.smartdatacollective.com/ai-powered-cyberattacks-hackers-are-weaponizing-artificial-intelligence/

Znak czasu:

Więcej z Kolektyw SmartData