Cyberattaques alimentées par l'IA : les pirates informatiques utilisent l'intelligence artificielle comme arme

Nœud source: 1883086

On ne peut nier le fait que L'IA transforme l'industrie de la cybersécurité. Arme à double tranchant, l'intelligence artificielle peut être utilisée à la fois comme solution de sécurité et comme arme par les pirates. Alors que l'IA entre dans le courant dominant, il y a beaucoup de désinformation et de confusion concernant ses capacités et ses menaces potentielles. Les scénarios dystopiques de machines omniscientes prenant le contrôle du monde et détruisant l'humanité abondent dans la culture populaire. Cependant, de nombreuses personnes reconnaissent les avantages potentiels que l'IA peut nous apporter grâce aux avancées et aux connaissances qu'elle peut apporter.

Les systèmes informatiques capables d'apprendre, de raisonner et d'agir en sont encore à leurs balbutiements. L'apprentissage automatique a besoin d'énormes quantités de données. Lorsqu'elle est appliquée à des systèmes du monde réel comme les véhicules autonomes, cette technologie combine des algorithmes complexes, la robotique et des capteurs physiques. Alors que le déploiement est rationalisé pour les entreprises, fournir à l'IA un accès aux données et lui accorder une certaine autonomie soulève des préoccupations importantes.

L'IA change la nature de la cybersécurité pour le meilleur ou pour le pire

L'intelligence artificielle (IA) a été largement utilisée dans les solutions de cybersécurité, mais les pirates l'utilisent également pour créer des logiciels malveillants sophistiqués et mener des cyberattaques.

À l'ère de l'hyper-connectivité, où les données sont considérées comme l'atout le plus précieux d'une entreprise, le secteur de la cybersécurité se diversifie. Il y a beaucoup de Tendances de la cybersécurité axée sur l'IA que les experts de l'industrie doivent connaître.

D'ici 2023, la cybersécurité devrait valoir 248 milliards de dollars, principalement en raison de la croissance des cybermenaces qui nécessitent des contre-mesures de plus en plus complexes et précises.

Il y a beaucoup d'argent à gagner grâce à la cybercriminalité ces jours-ci. Avec la pléthore de ressources disponibles, même ceux qui n'ont pas d'expertise technique peuvent s'y engager. Des kits d'exploitation de différents niveaux de sophistication sont disponibles à l'achat, allant de quelques centaines de dollars à des dizaines de milliers. Selon Business Insider, un pirate peut générer environ 85,000 XNUMX dollars par mois.

C'est un passe-temps extrêmement rentable et accessible, il ne va donc pas disparaître de si tôt. De plus, les cyberattaques devraient devenir plus difficiles à détecter, plus fréquentes et plus sophistiquées à l'avenir, mettant tous nos appareils connectés en danger.

Les entreprises, bien sûr, font face à des pertes substantielles en termes de perte de données, de perte de revenus, de lourdes amendes et de la possibilité de voir leurs opérations fermées.

En conséquence, le marché de la cybersécurité devrait se développer, les fournisseurs proposant une gamme variée de solutions. Malheureusement, c'est une bataille sans fin, avec leurs solutions aussi efficaces que la prochaine génération de logiciels malveillants.

Les technologies émergentes, y compris l'IA, continueront de jouer un rôle important dans cette bataille. Les pirates peuvent profiter des avancées de l'IA et les utiliser pour les cyberattaques comme les attaques DDoS, les attaques MITM et le tunneling DNS.

Par exemple, prenons CAPTCHA, une technologie disponible depuis des décennies pour se protéger contre le credential stuffing en mettant au défi des robots non humains de lire un texte déformé. Il y a quelques années, une étude de Google a découvert que la technologie de reconnaissance optique de caractères (OCR) basée sur l'apprentissage automatique pouvait gérer 99.8 % des robots. difficultés avec CAPTCHA.

Les criminels utilisent également l'intelligence artificielle pour pirater les mots de passe plus rapidement. L'apprentissage en profondeur peut aider à accélérer les attaques par force brute. Par exemple, la recherche de réseaux de neurones entraînés avec des millions de mots de passe divulgués, entraînant un taux de réussite de 26 % lors de la génération de nouveaux mots de passe.

Le marché noir des outils et services de cybercriminalité offre à l'IA une opportunité d'accroître son efficacité et sa rentabilité.

La crainte la plus grave concernant l'application de l'IA dans les logiciels malveillants est que les souches émergentes apprendront des événements de détection. Si une souche de malware pouvait comprendre ce qui l'a fait être détectée, la même action ou caractéristique peut être évitée la prochaine fois.

Les développeurs de logiciels malveillants automatisés peuvent, par exemple, réécrire le code d'un ver s'il est à l'origine de sa compromission. De même, le caractère aléatoire peut être ajouté pour déjouer les règles de correspondance de modèles si des caractéristiques spécifiques de comportement en ont fait la découverte.

Ransomware

L'efficacité d'un rançongiciel dépend de la rapidité avec laquelle il peut se propager dans un système de réseau. Les cybercriminels utilisent déjà l'IA à cette fin. Par exemple, ils utilisent l'intelligence artificielle pour voir les réactions des pare-feu et localiser les ports ouverts que l'équipe de sécurité a négligés.

Il existe de nombreux cas où les politiques de pare-feu d'une même entreprise entrent en conflit, et l'IA est un excellent outil pour tirer parti de cette vulnérabilité. De nombreuses violations récentes ont utilisé l'intelligence artificielle pour contourner les restrictions de pare-feu.

D'autres attaques sont alimentées par l'IA, compte tenu de leur ampleur et de leur sophistication. L'IA est intégrée dans des kits d'exploitation vendus sur le marché noir. C'est une stratégie très lucrative pour les cybercriminels, et les SDK de rançongiciels sont chargés de technologie d'intelligence artificielle.

Attaques automatisées

Les pirates utilisent également l'intelligence artificielle et l'apprentissage automatique pour automatiser les attaques sur les réseaux d'entreprise. Par exemple, les cybercriminels peuvent utiliser l'IA et le ML pour créer des logiciels malveillants afin de détecter les vulnérabilités et de déterminer quelle charge utile utiliser pour les exploiter.

Cela implique que les logiciels malveillants peuvent éviter d'être détectés en n'ayant pas à communiquer avec les serveurs de commande et de contrôle. Au lieu d'employer la stratégie habituelle plus lente et dispersée qui peut avertir une victime qu'elle est attaquée, les attaques peuvent être focalisées au laser.

Fuzzing

Les attaquants utilisent également l'IA pour découvrir de nouvelles faiblesses logicielles. Des outils de fuzzing sont déjà disponibles pour aider les développeurs de logiciels légitimes et les testeurs d'intrusion à protéger leurs programmes et leurs systèmes, mais comme c'est souvent le cas, quels que soient les outils utilisés par les bons, les méchants peuvent les exploiter.

L'IA et les systèmes associés sont de plus en plus courants dans l'économie mondiale, et la pègre emboîte le pas. De plus, le code source, les ensembles de données et les méthodologies utilisés pour développer et maintenir ces capacités robustes sont tous accessibles au public, de sorte que les cybercriminels ayant une incitation financière à en tirer parti concentreront leurs efforts ici.

Lorsqu'il s'agit de détecter une automatisation malveillante, les centres de données doivent adopter une stratégie de confiance zéro.

Phishing

Les employés sont devenus aptes à identifier les e-mails de phishing, en particulier ceux envoyés en masse, mais l'IA permet aux attaquants de personnaliser chaque e-mail pour chaque destinataire.

C'est là que nous assistons à la première militarisation sévère des algorithmes d'apprentissage automatique. Cela inclut la lecture des publications d'un employé sur les réseaux sociaux ou, dans le cas d'attaquants qui ont déjà eu accès à un réseau, la lecture de toutes les communications de l'employé.

Les attaquants peuvent également utiliser l'IA pour s'insérer dans les échanges d'e-mails en cours. Un e-mail qui fait partie d'une conversation en cours semble instantanément authentique. Le détournement de fils de messagerie est une stratégie puissante pour pénétrer dans un système et propager des logiciels malveillants d'un appareil à un autre.

Source : https://www.smartdatacollective.com/ai-powered-cyberattacks-hackers-are-weaponizing-artificial-intelligence/

Horodatage:

Plus de Collectif SmartData