Kibernetski napadi, ki jih poganja umetna inteligenca: hekerji orožijo umetno inteligenco

Izvorno vozlišče: 1883086

Ni zanikati dejstva, da AI preoblikuje industrijo kibernetske varnosti. Dvorezen meč, umetno inteligenco lahko hekerji uporabijo tako kot varnostno rešitev kot kot orožje. Ko umetna inteligenca vstopa v mainstream, je veliko dezinformacij in zmede glede njenih zmogljivosti in potencialnih groženj. V popularni kulturi je veliko distopičnih scenarijev vsevednih strojev, ki prevzemajo svet in uničujejo človeštvo. Vendar pa veliko ljudi priznava potencialne koristi, ki nam jih lahko prinese umetna inteligenca z napredkom in vpogledi, ki jih lahko zagotovi.

Računalniški sistemi, ki se lahko učijo, sklepajo in delujejo, so še vedno v zgodnjih fazah. Strojno učenje potrebuje ogromne količine podatkov. Pri uporabi v sistemih resničnega sveta, kot so avtonomna vozila, ta tehnologija združuje kompleksne algoritme, robotiko in fizične senzorje. Medtem ko je uvajanje poenostavljeno za podjetja, zagotavljanje AI dostopa do podatkov in dodelitev kakršne koli stopnje avtonomije povzroča precejšnje pomisleke.

AI spreminja naravo kibernetske varnosti na bolje ali slabše

Umetna inteligenca (AI) se pogosto uporablja v rešitvah kibernetske varnosti, vendar jo hekerji uporabljajo tudi za ustvarjanje sofisticirane zlonamerne programske opreme in izvajanje kibernetskih napadov.

V dobi hiperpovezljivosti, kjer se na podatke gleda kot na najdragocenejše premoženje, ki ga ima podjetje, se industrija kibernetske varnosti diverzificira. Obstaja veliko Trendi kibernetske varnosti, ki jih poganja AI ki se jih morajo strokovnjaki iz industrije zavedati.

Do leta 2023 naj bi bila kibernetska varnost vredna 248 milijard dolarjev, predvsem zaradi porasta kibernetskih groženj, ki zahtevajo vse bolj kompleksne in natančne protiukrepe.

Dandanes je mogoče s kibernetskim kriminalom zaslužiti veliko denarja. Z obilico razpoložljivih virov se lahko tega lotijo ​​tudi tisti brez tehničnega znanja. Na voljo so kompleti izkoriščanja različnih stopenj zahtevnosti, ki se gibljejo od nekaj sto dolarjev do več deset tisoč. Po podatkih Business Insiderja lahko heker vsak mesec ustvari približno 85,000 $.

To je zelo donosna in dostopna zabava, zato ne bo kmalu izginila. Poleg tega se pričakuje, da bodo kibernetski napadi v prihodnosti težje zaznavni, pogostejši in bolj sofisticirani, zaradi česar bodo ogrožene vse naše povezane naprave.

Podjetja se seveda soočajo z znatnimi izgubami v smislu izgube podatkov, izgube prihodkov, visokih kazni in možnosti zaustavitve poslovanja.

Posledično se pričakuje, da se bo trg kibernetske varnosti razširil, dobavitelji pa bodo ponujali raznoliko paleto rešitev. Na žalost je to bitka brez konca, njihove rešitve pa so tako učinkovite kot naslednja generacija zlonamerne programske opreme.

Nastajajoče tehnologije, vključno z umetno inteligenco, bodo še naprej igrale pomembno vlogo v tej bitki. Hekerji lahko izkoristijo napredek AI in jih uporabite za kibernetske napade, kot so napadi DDoS, napadi MITM in tuneliranje DNS.

Za primer vzemimo CAPTCHA, tehnologijo, ki je na voljo že desetletja za zaščito pred polnjenjem poverilnic, tako da izziva nečloveške robote, da berejo popačeno besedilo. Pred nekaj leti je Googlova študija odkrila, da lahko tehnologija optičnega prepoznavanja znakov (OCR), ki temelji na strojnem učenju, obravnava 99.8 odstotka robotov. težave s CAPTCHA.

Kriminalci uporabljajo tudi umetno inteligenco za hitrejše vdiranje v gesla. Globoko učenje lahko pomaga pospešiti napade s surovo silo. Na primer, raziskave so usposobile nevronske mreže z milijoni razkritih gesel, kar je povzročilo 26-odstotno stopnjo uspešnosti pri ustvarjanju novih gesel.

Črni trg za orodja in storitve kibernetske kriminalitete daje priložnost za AI, da poveča učinkovitost in donosnost.

Največji strah glede uporabe umetne inteligence v zlonamerni programski opremi je, da se bodo nastajajoči sevi učili iz dogodkov zaznavanja. Če bi vrsta zlonamerne programske opreme lahko ugotovila, zakaj je bila zaznana, se lahko naslednjič izognemo istemu dejanju ali lastnosti.

Samodejni razvijalci zlonamerne programske opreme lahko na primer prepišejo kodo črva, če je bil vzrok za njegovo ogrožanje. Podobno se lahko pravilom za ujemanje vzorcev folije doda naključnost, če so bile odkrite posebne značilnosti vedenja.

izsiljevalska

Učinkovitost izsiljevalske programske opreme je odvisna od tega, kako hitro se lahko razširi v omrežnem sistemu. Kibernetski kriminalci v ta namen že uporabljajo AI. Na primer, uporabljajo umetno inteligenco, da vidijo reakcije požarnih zidov in locirajo odprta vrata, ki jih je varnostna ekipa zanemarila.

Obstajajo številni primeri, v katerih so politike požarnega zidu v istem podjetju v nasprotju, in AI je odlično orodje za izkoriščanje te ranljivosti. Veliko nedavnih vdorov je uporabilo umetno inteligenco za izogibanje omejitvam požarnega zidu.

Druge napade poganja AI, glede na njihov obseg in prefinjenost. AI je vdelan v komplete za izkoriščanje, ki se prodajajo na črnem trgu. To je zelo donosna strategija za kibernetske kriminalce, SDK-ji za izsiljevalsko programsko opremo pa so naloženi s tehnologijo umetne inteligence.

Avtomatizirani napadi

Hekerji uporabljajo tudi umetno inteligenco in strojno učenje za avtomatizacijo napadov na korporativna omrežja. Kibernetski kriminalci lahko na primer uporabijo AI in ML za ustvarjanje zlonamerne programske opreme za odkrivanje ranljivosti in določanje, kateri tovor uporabiti za njihovo izkoriščanje.

To pomeni, da se zlonamerna programska oprema lahko izogne ​​odkrivanju, če ji ni treba komunicirati s strežniki za ukaze in nadzor. Namesto uporabe običajne počasnejše, razpršene strategije, ki lahko žrtev opozori, da je napadena, so lahko napadi lasersko osredotočeni.

Zmehčanje

Napadalci uporabljajo tudi AI za odkrivanje novih pomanjkljivosti programske opreme. Orodja za fuzzing so že na voljo za pomoč zakonitim razvijalcem programske opreme in preizkuševalcem penetracije pri zaščiti njihovih programov in sistemov, a kot se pogosto zgodi, katera koli orodja uporabljajo dobri fantje, lahko slabi fantje izkoristijo.

Umetna inteligenca in povezani sistemi postajajo vse pogostejši v svetovnem gospodarstvu, kriminalno podzemlje pa temu sledi. Poleg tega so izvorna koda, nabori podatkov in metodologije, ki se uporabljajo za razvoj in vzdrževanje teh robustnih zmogljivosti, javno dostopni, zato bodo kibernetski kriminalci s finančno spodbudo, da jih izkoristijo, svoja prizadevanja osredotočili tukaj.

Ko gre za odkrivanje zlonamerne avtomatizacije, morajo podatkovni centri sprejeti strategijo ničelnega zaupanja.

Ribarjenje

Zaposleni so postali vešči prepoznavanja e-poštnih sporočil z lažnim predstavljanjem, zlasti tistih, ki so poslana množično, vendar AI napadalcem omogoča, da vsako e-poštno sporočilo prilagodijo vsakemu prejemniku.

Tam smo priča prvi resni uporabi algoritmov za strojno učenje kot orožje. To vključuje branje objav zaposlenega na družbenih omrežjih ali, v primeru napadalcev, ki so predhodno pridobili dostop do omrežja, branje celotne komunikacije zaposlenega.

Napadalci lahko uporabijo tudi AI, da se vmešajo v tekoče izmenjave e-pošte. E-poštno sporočilo, ki je del trenutnega pogovora, takoj zveni pristno. Ugrabitev e-poštnih niti je močna strategija za vstop v sistem in širjenje zlonamerne programske opreme iz ene naprave v drugo.

Vir: https://www.smartdatacollective.com/ai-powered-cyberattacks-hackers-are-weaponizing-artificial-intelligence/

Časovni žig:

Več od Zbirka SmartData