AI-drivna cyberattacker: Hackare vapenar artificiell intelligens

Källnod: 1883086

Det går inte att förneka det faktum AI förändrar cybersäkerhetsbranschen. Ett tveeggat svärd, artificiell intelligens kan användas både som en säkerhetslösning och ett vapen av hackare. När AI kommer in i mainstream finns det mycket desinformation och förvirring angående dess kapacitet och potentiella hot. Dystopiska scenarier där allvetande maskiner tar över världen och förstör mänskligheten finns i överflöd i populärkulturen. Men många människor inser de potentiella fördelarna som AI kan ge oss genom de framsteg och insikter den kan leverera.

Datorsystem som kan lära sig, resonera och agera är fortfarande i ett tidigt skede. Maskininlärning kräver enorma mängder data. När den tillämpas på verkliga system som autonoma fordon, kombinerar denna teknik komplexa algoritmer, robotik och fysiska sensorer. Även om implementeringen är strömlinjeformad för företag, väcker det betydande bekymmer att tillhandahålla AI med tillgång till data och ge den valfri grad av autonomi.

AI förändrar cybersäkerhetens natur till det bättre eller sämre

Artificiell intelligens (AI) har använts flitigt i cybersäkerhetslösningar, men hackare använder den också för att skapa sofistikerad skadlig programvara och utföra cyberattacker.

I en tid av hyperanslutning, där data ses som den mest värdefulla tillgång ett företag har, diversifierar cybersäkerhetsbranschen. Det finns många AI-drivna cybersäkerhetstrender som branschexperter måste vara medvetna om.

År 2023 förväntas cybersäkerhet vara värd 248 miljarder dollar, främst på grund av tillväxten av cyberhot som kräver allt mer komplexa och precisa motåtgärder.

Det finns mycket pengar att tjäna på cyberbrott i dessa dagar. Med överflöd av tillgängliga resurser kan även de utan teknisk expertis engagera sig i det. Exploatpaket med olika sofistikerade nivåer finns att köpa, allt från några hundra dollar till tiotusentals. Enligt Business Insider kan en hackare generera ungefär $85,000 XNUMX varje månad.

Detta är ett oerhört lönsamt och tillgängligt tidsfördriv, så det försvinner inte snart. Dessutom förväntas cyberattacker bli svårare att upptäcka, mer frekventa och mer sofistikerade i framtiden, vilket utsätter alla våra anslutna enheter för risker.

Företag, naturligtvis, drabbas av betydande förluster i form av dataförlust, intäktsförlust, höga böter och möjligheten att få sin verksamhet stängd.

Som ett resultat förväntas cybersäkerhetsmarknaden expandera, med leverantörer som erbjuder ett brett utbud av lösningar. Tyvärr är det en aldrig sinande kamp, ​​med deras lösningar som bara är lika effektiva som nästa generations skadlig programvara.

Framväxande teknologier, inklusive AI, kommer att fortsätta att spela en betydande roll i denna kamp. Hackare kan dra fördel av AI-framsteg och använd dem för cyberattacker som DDoS-attacker, MITM-attacker och DNS-tunnling.

Låt oss till exempel ta CAPTCHA, en teknik som har funnits tillgänglig i decennier för att skydda mot inloggningsfyllning genom att utmana icke-mänskliga bots att läsa förvrängd text. För några år sedan upptäckte en Google-studie att maskininlärningsbaserad optisk teckenigenkänning (OCR)-teknik kunde hantera 99.8 procent av botarnas svårigheter med CAPTCHA.

Brottslingar använder också artificiell intelligens för att hacka lösenord snabbare. Djup inlärning kan hjälpa till att påskynda brute force-attacker. Till exempel forskningstränade neurala nätverk med miljontals läckta lösenord, vilket resulterade i en framgångsfrekvens på 26 % vid generering av nya lösenord.

Den svarta marknaden för cyberbrottsverktyg och -tjänster ger en möjlighet för AI att öka effektiviteten och lönsamheten.

Den allvarligaste rädslan för AI:s tillämpning i skadlig programvara är att nya stammar kommer att lära sig av upptäcktshändelser. Om en skadlig kod kunde ta reda på vad som orsakade att den upptäcktes, kan samma åtgärd eller egenskap undvikas nästa gång.

Utvecklare av automatisk skadlig programvara kan till exempel skriva om en masks kod om det var orsaken till att den kompromitterats. Likaså kan slumpmässighet läggas till regler för matchning av foliemönster om specifika beteendeegenskaper gjorde att det upptäcktes.

Ransomware

Effektiviteten av ransomware beror på hur snabbt den kan spridas i ett nätverkssystem. Cyberkriminella utnyttjar redan AI för detta ändamål. Till exempel använder de artificiell intelligens för att se reaktionerna från brandväggarna och hitta öppna portar som säkerhetsteamet har försummat.

Det finns många tillfällen där brandväggspolicyer i samma företag krockar, och AI är ett utmärkt verktyg för att dra fördel av denna sårbarhet. Många av de senaste överträdelserna har använt artificiell intelligens för att kringgå brandväggsbegränsningar.

Andra attacker är AI-drivna, med tanke på deras omfattning och sofistikering. AI är inbäddad i exploateringssatser som säljs på den svarta marknaden. Det är en mycket lukrativ strategi för cyberkriminella, och ransomware-SDK:erna är laddade med AI-teknik.

Automatiserade attacker

Hackare använder också artificiell intelligens och maskininlärning för att automatisera attacker på företagsnätverk. Till exempel kan cyberbrottslingar använda AI och ML för att bygga skadlig programvara för att upptäcka sårbarheter och bestämma vilken nyttolast som ska användas för att utnyttja dem.

Detta innebär att skadlig programvara kan undvika upptäckt genom att inte behöva kommunicera med kommando- och kontrollservrar. Istället för att använda den vanliga långsammare scattershot-strategin som kan varna ett offer att de är under attack, kan attacker vara laserfokuserade.

Luddrigt

Angripare använder också AI för att upptäcka nya svagheter i mjukvaran. Otydliga verktyg finns redan tillgängliga för att hjälpa legitima mjukvaruutvecklare och penetrationstestare att skydda sina program och system, men som ofta är fallet, vilka verktyg de goda killarna än använder kan de onda utnyttja.

AI och tillhörande system blir allt vanligare i den globala ekonomin, och den kriminella undervärlden följer efter. Dessutom är källkoden, datamängderna och metoderna som används för att utveckla och underhålla dessa robusta funktioner alla offentligt tillgängliga, så cyberbrottslingar med ett ekonomiskt incitament att dra fördel av dem kommer att koncentrera sina ansträngningar här.

När det gäller att upptäcka skadlig automatisering måste datacenter anta en nollförtroendestrategi.

Nätfiske

Anställda har blivit skickliga på att identifiera nätfiske-e-postmeddelanden, särskilt de som skickas i massa, men AI tillåter angripare att anpassa varje e-postmeddelande för varje mottagare.

Det är där vi ser den allvarliga första beväpningen av maskininlärningsalgoritmer. Detta inkluderar att läsa en anställds inlägg på sociala medier eller, i fallet med angripare som tidigare har fått tillgång till ett nätverk, läsa all anställds kommunikation.

Angripare kan också använda AI för att infoga sig själva i pågående e-postutbyten. Ett e-postmeddelande som är en del av en aktuell konversation låter omedelbart äkta. Kapning av e-posttråd är en kraftfull strategi för att komma in i ett system och sprida skadlig programvara från en enhet till en annan.

Källa: https://www.smartdatacollective.com/ai-powered-cyberattacks-hackers-are-weaponizing-artificial-intelligence/

Tidsstämpel:

Mer från SmartData Collective