AI-drevne cyberangreb: Hackere bevæbner kunstig intelligens

Kildeknude: 1883086

Det kan man ikke benægte AI transformerer cybersikkerhedsindustrien. Et tveægget sværd, kunstig intelligens kan bruges både som en sikkerhedsløsning og et våben af ​​hackere. Efterhånden som AI kommer ind i mainstream, er der megen misinformation og forvirring med hensyn til dens muligheder og potentielle trusler. Dystopiske scenarier med alvidende maskiner, der overtager verden og ødelægger menneskeheden, florerer i populærkulturen. Imidlertid erkender mange mennesker de potentielle fordele, som AI kan bringe os gennem de fremskridt og indsigter, den kan levere.

Computersystemer, der er i stand til at lære, ræsonnere og handle, er stadig i de tidlige stadier. Maskinlæring kræver enorme mængder data. Når den anvendes på systemer fra den virkelige verden som autonome køretøjer, kombinerer denne teknologi komplekse algoritmer, robotteknologi og fysiske sensorer. Selvom implementeringen er strømlinet for virksomheder, giver det betydelige bekymringer at give AI adgang til data og give den enhver grad af autonomi.

AI ændrer karakteren af ​​cybersikkerhed til det bedre eller værre

Kunstig intelligens (AI) er blevet meget brugt i cybersikkerhedsløsninger, men hackere bruger den også til at skabe sofistikeret malware og udføre cyberangreb.

I en æra med hyperforbindelse, hvor data betragtes som det mest værdifulde aktiv, en virksomhed har, diversificerer cybersikkerhedsindustrien. Der er en masse af AI-drevne cybersikkerhedstendenser som brancheeksperter skal være opmærksomme på.

I 2023 forventes cybersikkerhed at være 248 milliarder dollars værd, hovedsageligt på grund af væksten i cybertrusler, der kræver stadig mere komplekse og præcise modforanstaltninger.

Der er mange penge at tjene på cyberkriminalitet i disse dage. Med overfloden af ​​tilgængelige ressourcer kan selv dem uden teknisk ekspertise engagere sig i det. Udnyttelsessæt af forskellige sofistikerede niveauer er tilgængelige for køb, lige fra et par hundrede dollars til titusindvis. Ifølge Business Insider kan en hacker generere omkring $85,000 hver måned.

Dette er et enormt rentabelt og tilgængeligt tidsfordriv, så det forsvinder ikke med det første. Ydermere forventes cyberangreb at blive sværere at opdage, hyppigere og mere sofistikerede i fremtiden, hvilket bringer alle vores tilsluttede enheder i fare.

Virksomheder står naturligvis over for betydelige tab i form af tab af data, indtægtstab, store bøder og muligheden for at få lukket deres drift.

Som følge heraf forventes cybersikkerhedsmarkedet at udvide sig med leverandører, der tilbyder en bred vifte af løsninger. Desværre er det en uendelig kamp, ​​med deres løsninger kun så effektive som den næste generation af malware.

Nye teknologier, herunder kunstig intelligens, vil fortsat spille en væsentlig rolle i denne kamp. Hackere kan drage fordel af AI-fremskridt og bruge dem til cyberangreb som DDoS-angreb, MITM-angreb og DNS-tunneling.

Lad os f.eks. tage CAPTCHA, en teknologi, der har været tilgængelig i årtier for at beskytte mod fyldning af legitimationsoplysninger ved at udfordre ikke-menneskelige bots til at læse forvrænget tekst. For et par år siden opdagede en Google-undersøgelse, at maskinlæringsbaseret optisk tegngenkendelse (OCR) teknologi kunne håndtere 99.8 procent af bots' vanskeligheder med CAPTCHA.

Kriminelle bruger også kunstig intelligens til at hacke adgangskoder hurtigere. Dyb læring kan hjælpe med at fremskynde brute force-angreb. For eksempel forskningstrænede neurale netværk med millioner af lækkede adgangskoder, hvilket resulterer i en succesrate på 26 % ved generering af nye adgangskoder.

Det sorte marked for cyberkriminalitetsværktøjer og -tjenester giver AI mulighed for at øge effektiviteten og rentabiliteten.

Den mest alvorlige frygt ved AI's anvendelse i malware er, at nye stammer vil lære af detektionsbegivenheder. Hvis en malware-stamme kunne finde ud af, hvad der forårsagede, at den blev opdaget, kan den samme handling eller egenskab undgås næste gang.

Automatiserede malware-udviklere kan for eksempel omskrive en ormes kode, hvis det var årsagen til dens kompromittering. Ligeledes kan tilfældighed føjes til regler for matchning af foliemønster, hvis specifikke egenskaber ved adfærd forårsagede, at det blev opdaget.

ransomware

Effektiviteten af ​​ransomware afhænger af, hvor hurtigt den kan spredes i et netværkssystem. Cyberkriminelle udnytter allerede kunstig intelligens til dette formål. For eksempel bruger de kunstig intelligens til at se reaktionerne fra firewalls og lokalisere åbne porte, som sikkerhedsteamet har forsømt.

Der er adskillige tilfælde, hvor firewallpolitikker i samme virksomhed kolliderer, og AI er et fremragende værktøj til at udnytte denne sårbarhed. Mange af de seneste brud har brugt kunstig intelligens til at omgå firewall-restriktioner.

Andre angreb er AI-drevet, på grund af deres omfang og sofistikering. AI er indlejret i udnyttelsessæt, der sælges på det sorte marked. Det er en meget lukrativ strategi for cyberkriminelle, og ransomware SDK'erne er fyldt med AI-teknologi.

Automatiserede angreb

Hackere anvender også kunstig intelligens og maskinlæring til at automatisere angreb på virksomhedens netværk. For eksempel kan cyberkriminelle bruge AI og ML til at bygge malware for at opdage sårbarheder og bestemme, hvilken nyttelast de skal bruge til at udnytte dem.

Dette indebærer, at malware kan undgå opdagelse ved ikke at skulle kommunikere med kommando- og kontrolservere. I stedet for at bruge den sædvanlige langsommere scattershot-strategi, der kan advare et offer om, at de er under angreb, kan angreb være laser-fokuserede.

Fuzzing

Angribere bruger også AI til at afdække nye softwaresvagheder. Fuzzing værktøjer er allerede tilgængelige for at hjælpe legitime softwareudviklere og penetrationstestere med at beskytte deres programmer og systemer, men som det ofte er tilfældet, uanset hvilke værktøjer de gode fyre bruger, kan de onde udnytte.

AI og tilhørende systemer bliver mere almindelige i den globale økonomi, og den kriminelle underverden følger trop. Desuden er kildekoden, datasættene og metoderne, der bruges til at udvikle og vedligeholde disse robuste funktioner, alle offentligt tilgængelige, så cyberkriminelle med et økonomisk incitament til at drage fordel af dem vil koncentrere deres indsats her.

Når det kommer til at opdage ondsindet automatisering, skal datacentre vedtage en nul-tillidsstrategi.

Phishing

Medarbejdere er blevet dygtige til at identificere phishing-e-mails, især dem, der sendes i massevis, men AI giver angribere mulighed for at tilpasse hver e-mail til hver modtager.

Det er her, vi ser den alvorlige første våbenskabelse af maskinlæringsalgoritmer. Dette omfatter læsning af en medarbejders opslag på sociale medier eller, i tilfælde af angribere, der tidligere har fået adgang til et netværk, læsning af al medarbejderens kommunikation.

Angribere kan også bruge AI til at indsætte sig selv i løbende e-mail-udvekslinger. En e-mail, der er en del af en aktuel samtale, lyder øjeblikkeligt ægte. E-mail-trådkapring er en kraftfuld strategi til at komme ind i et system og sprede malware fra én enhed til en anden.

Kilde: https://www.smartdatacollective.com/ai-powered-cyberattacks-hackers-are-weaponizing-artificial-intelligence/

Tidsstempel:

Mere fra SmartData Collective