AI-drevne cyberangrep: Hackere våpen kunstig intelligens

Kilde node: 1883086

Det kan ikke nektes for det AI transformerer cybersikkerhetsindustrien. Et tveegget sverd, kunstig intelligens kan brukes både som en sikkerhetsløsning og et våpen av hackere. Når AI kommer inn i mainstream, er det mye feilinformasjon og forvirring angående dens evner og potensielle trusler. Dystopiske scenarier med allvitende maskiner som tar over verden og ødelegger menneskeheten florerer i populærkulturen. Imidlertid erkjenner mange mennesker de potensielle fordelene som AI kan gi oss gjennom fremskrittene og innsikten den kan levere.

Datasystemer som er i stand til å lære, resonnere og handle er fortsatt i de tidlige stadiene. Maskinlæring krever enorme mengder data. Når den brukes på virkelige systemer som autonome kjøretøy, kombinerer denne teknologien komplekse algoritmer, robotikk og fysiske sensorer. Selv om distribusjonen er strømlinjeformet for bedrifter, gir det betydelige bekymringer å gi AI tilgang til data og gi den en hvilken som helst grad av autonomi.

AI endrer cybersikkerhetens natur på godt og verre

Kunstig intelligens (AI) har vært mye brukt i cybersikkerhetsløsninger, men hackere bruker den også til å lage sofistikert skadevare og utføre cyberangrep.

I en tid med hyper-tilkobling, hvor data blir sett på som den mest verdifulle ressursen et selskap har, diversifiserer cybersikkerhetsindustrien. Det er mange av AI-drevne cybersikkerhetstrender som bransjeeksperter må være klar over.

Innen 2023 forventes cybersikkerhet å være verdt 248 milliarder dollar, hovedsakelig på grunn av veksten av cybertrusler som krever stadig mer komplekse og presise mottiltak.

Det er mye penger å tjene på nettkriminalitet i disse dager. Med overfloden av tilgjengelige ressurser kan selv de uten teknisk ekspertise engasjere seg i det. Utnyttingssett av varierende grad av raffinement er tilgjengelig for kjøp, alt fra noen få hundre dollar til titusenvis. Ifølge Business Insider kan en hacker generere omtrent 85,000 XNUMX dollar hver måned.

Dette er et enormt lønnsomt og tilgjengelig tidsfordriv, så det forsvinner ikke med det første. Dessuten forventes cyberangrep å bli vanskeligere å oppdage, hyppigere og mer sofistikerte i fremtiden, og sette alle våre tilkoblede enheter i fare.

Bedrifter står selvfølgelig overfor betydelige tap i form av tap av data, inntektstap, store bøter og muligheten for å få stengt ned.

Som et resultat forventes cybersikkerhetsmarkedet å utvide seg, med leverandører som tilbyr et mangfoldig utvalg av løsninger. Dessverre er det en uendelig kamp, ​​med løsningene deres bare like effektive som neste generasjon skadevare.

Nye teknologier, inkludert AI, vil fortsette å spille en betydelig rolle i denne kampen. Hackere kan dra nytte av AI-fremskritt og bruke dem til nettangrep som DDoS-angrep, MITM-angrep og DNS-tunnelering.

La oss for eksempel ta CAPTCHA, en teknologi som har vært tilgjengelig i flere tiår for å beskytte mot legitimasjonsfylling ved å utfordre ikke-menneskelige roboter til å lese forvrengt tekst. For noen år siden oppdaget en Google-studie at maskinlæringsbasert optisk tegngjenkjenning (OCR) teknologi kunne håndtere 99.8 prosent av roboter problemer med CAPTCHA.

Kriminelle bruker også kunstig intelligens for å hacke passord raskere. Dyplæring kan bidra til å akselerere brute force-angrep. For eksempel forskningstrente nevrale nettverk med millioner av lekkede passord, noe som resulterte i en suksessrate på 26 % ved generering av nye passord.

Det svarte markedet for verktøy og tjenester for cyberkriminalitet gir AI en mulighet til å øke effektiviteten og lønnsomheten.

Den mest alvorlige frykten for AIs applikasjon i skadelig programvare er at nye stammer vil lære av deteksjonshendelser. Hvis en malware-stamme kan finne ut hva som forårsaket at den ble oppdaget, kan den samme handlingen eller egenskapen unngås neste gang.

Utviklere av automatiserte skadevare kan for eksempel skrive om koden til en orm hvis det var årsaken til kompromitteringen. På samme måte kan tilfeldighet legges til regler for samsvarende foliemønster hvis spesifikke egenskaper ved atferd førte til at det ble oppdaget.

ransomware

Effektiviteten til løsepengevare avhenger av hvor raskt den kan spre seg i et nettverkssystem. Nettkriminelle utnytter allerede AI til dette formålet. For eksempel bruker de kunstig intelligens for å se reaksjonene til brannmurene og finne åpne porter som sikkerhetsteamet har oversett.

Det er mange tilfeller der brannmurpolicyer i samme selskap kolliderer, og AI er et utmerket verktøy for å dra nytte av denne sårbarheten. Mange av de siste bruddene har brukt kunstig intelligens for å omgå brannmurrestriksjoner.

Andre angrep er AI-drevet, gitt deres omfang og raffinement. AI er innebygd i utnyttelsessett som selges på det svarte markedet. Det er en veldig lukrativ strategi for nettkriminelle, og løsepengevare-SDK-ene er lastet med AI-teknologi.

Automatiserte angrep

Hackere bruker også kunstig intelligens og maskinlæring for å automatisere angrep på bedriftsnettverk. For eksempel kan nettkriminelle bruke AI og ML for å bygge skadevare for å oppdage sårbarheter og bestemme hvilken nyttelast de skal bruke for å utnytte dem.

Dette innebærer at skadelig programvare kan unngå oppdagelse ved ikke å måtte kommunisere med kommando- og kontrollservere. I stedet for å bruke den vanlige langsommere scattershot-strategien som kan advare et offer om at de er under angrep, kan angrep være laserfokuserte.

fuzzing

Angripere bruker også AI for å avdekke nye programvaresvakheter. Uklare verktøy er allerede tilgjengelig for å hjelpe legitime programvareutviklere og penetrasjonstestere med å beskytte programmene og systemene deres, men som ofte er tilfellet, uansett hvilke verktøy de gode gutta bruker, kan de slemme gutta utnytte.

AI og tilhørende systemer blir mer vanlig i den globale økonomien, og den kriminelle underverdenen følger etter. Dessuten er kildekoden, datasettene og metodene som brukes for å utvikle og vedlikeholde disse robuste egenskapene alle offentlig tilgjengelige, så nettkriminelle med et økonomisk insentiv til å dra nytte av dem vil konsentrere innsatsen her.

Når det gjelder å oppdage ondsinnet automatisering, må datasentre vedta en null-tillit-strategi.

Phishing

Ansatte har blitt flinke til å identifisere phishing-e-poster, spesielt de som sendes i massevis, men AI lar angripere tilpasse hver e-post for hver mottaker.

Det er der vi ser den alvorlige første bevæpningen av maskinlæringsalgoritmer. Dette inkluderer å lese en ansatts innlegg i sosiale medier eller, i tilfelle angripere som tidligere har fått tilgang til et nettverk, å lese all den ansattes kommunikasjon.

Angripere kan også bruke AI for å sette seg inn i pågående e-postutvekslinger. En e-post som er en del av en pågående samtale høres umiddelbart ekte ut. E-posttrådkapring er en kraftig strategi for å komme inn i et system og spre skadelig programvare fra en enhet til en annen.

Kilde: https://www.smartdatacollective.com/ai-powered-cyberattacks-hackers-are-weaponizing-artificial-intelligence/

Tidstempel:

Mer fra SmartData Collective