Yapay Zeka Destekli Siber Saldırılar: Bilgisayar Korsanları Yapay Zekayı Silahlandırıyor

Kaynak Düğüm: 1883086

olduğu gerçeğini inkar etmek yok AI, siber güvenlik endüstrisini dönüştürüyor. İki ucu keskin bir kılıç olan yapay zeka, bilgisayar korsanları tarafından hem güvenlik çözümü hem de silah olarak kullanılabilir. AI ana akıma girerken, yetenekleri ve potansiyel tehditleri hakkında çok fazla yanlış bilgi ve kafa karışıklığı var. Her şeyi bilen makinelerin dünyayı ele geçirdiği ve insanlığı yok ettiği distopik senaryolar popüler kültürde bolca yer alıyor. Bununla birlikte, birçok kişi, sunabileceği ilerlemeler ve içgörüler yoluyla yapay zekanın bize getirebileceği potansiyel faydaların farkındadır.

Öğrenebilen, akıl yürütebilen ve hareket edebilen bilgisayar sistemleri hala erken aşamalardadır. Makine öğrenimi büyük miktarda veriye ihtiyaç duyar. Otonom araçlar gibi gerçek dünya sistemlerine uygulandığında bu teknoloji, karmaşık algoritmaları, robotik ve fiziksel sensörleri birleştirir. Dağıtım işletmeler için kolaylaştırılmış olsa da, AI'ya verilere erişim sağlamak ve ona herhangi bir miktarda özerklik vermek önemli endişeleri beraberinde getiriyor.

AI, Siber Güvenliğin Doğasını Daha İyi veya Daha Kötü Olarak Değiştiriyor

Yapay zeka (AI), siber güvenlik çözümlerinde yaygın olarak kullanılmaktadır, ancak bilgisayar korsanları bunu karmaşık kötü amaçlı yazılımlar oluşturmak ve siber saldırılar gerçekleştirmek için de kullanır.

Verilerin bir şirketin sahip olduğu en değerli varlık olarak görüldüğü hiper bağlantı çağında, siber güvenlik sektörü çeşitleniyor. Orada bir sürü Yapay zeka güdümlü siber güvenlik trendleri sektör uzmanlarının bilmesi gerekir.

2023 yılına kadar siber güvenliğin 248 milyar dolar değerinde olması bekleniyorgiderek daha karmaşık ve kesin karşı önlemler gerektiren siber tehditlerin büyümesi nedeniyle.

Bugünlerde siber suçlardan kazanılacak çok para var. Mevcut kaynakların bolluğuyla, teknik uzmanlığı olmayanlar bile buna katılabilir. Birkaç yüz dolardan on binlerce dolara kadar değişen çeşitli gelişmişlik düzeylerinde yararlanma kitleri satın alınabilir. Business Insider'a göre, bir bilgisayar korsanı her ay yaklaşık 85,000 dolar kazanabilir.

Bu son derece karlı ve erişilebilir bir eğlencedir, bu nedenle yakın zamanda ortadan kalkmayacak. Ayrıca, siber saldırıların gelecekte tespit edilmesi daha zor, daha sık ve daha karmaşık hale gelmesi ve tüm bağlı cihazlarımızı riske atması bekleniyor.

İşletmeler, elbette, veri kaybı, gelir kaybı, ağır cezalar ve operasyonlarının durdurulması olasılığı açısından önemli kayıplarla karşı karşıyadır.

Sonuç olarak, tedarikçilerin çeşitli çözümler sunması ile siber güvenlik pazarının genişlemesi bekleniyor. Ne yazık ki, çözümlerinin yalnızca yeni nesil kötü amaçlı yazılımlar kadar etkili olduğu hiç bitmeyen bir savaş.

Yapay zeka da dahil olmak üzere gelişen teknolojiler bu savaşta önemli bir rol oynamaya devam edecek. Bilgisayar korsanları, AI ilerlemelerinden yararlanabilir ve bunları DDoS saldırıları gibi siber saldırılar için kullanın, MITM saldırıları ve DNS tünelleme.

Örneğin, insan olmayan botları çarpık metinleri okumaya zorlayarak kimlik bilgilerinin doldurulmasına karşı koruma sağlamak için onlarca yıldır kullanılabilen bir teknoloji olan CAPTCHA'yı ele alalım. Birkaç yıl önce, bir Google araştırması, makine öğrenimi tabanlı optik karakter tanıma (OCR) teknolojisinin botların yüzde 99.8'ini işleyebileceğini keşfetti. CAPTCHA ile ilgili zorluklar.

Suçlular ayrıca şifreleri daha hızlı hacklemek için yapay zeka kullanıyor. Derin öğrenme, kaba kuvvet saldırılarını hızlandırmaya yardımcı olabilir. Örneğin, milyonlarca sızdırılmış parola içeren eğitimli sinir ağlarını araştırın ve yeni parolalar oluştururken %26'lık bir başarı oranı elde edin.

Siber suç araçları ve hizmetleri için karaborsa, yapay zekanın verimliliği ve karlılığı artırması için bir fırsat sunuyor.

Yapay zekanın kötü amaçlı yazılımlara uygulanmasıyla ilgili en ciddi korku, ortaya çıkan suşların tespit olaylarından öğreneceğidir. Kötü amaçlı yazılım türü, algılanmasına neyin neden olduğunu çözebilirse, bir sonraki seferde aynı eylem veya özellikten kaçınılabilir.

Otomatik kötü amaçlı yazılım geliştiricileri, örneğin, tehlikeye girmesinin nedeni bir solucanın kodunu yeniden yazabilir. Benzer şekilde, davranışın belirli özellikleri keşfedilmesine neden olduysa, kalıp eşleştirme kurallarını bozmak için rastgelelik eklenebilir.

Ransomware

Fidye yazılımının etkinliği, bir ağ sisteminde ne kadar hızlı yayılabileceğine bağlıdır. Siber suçlular zaten bu amaç için yapay zekadan yararlanıyor. Örneğin, güvenlik duvarlarının tepkilerini görmek ve güvenlik ekibinin ihmal ettiği açık portları bulmak için yapay zeka kullanırlar.

Aynı şirketteki güvenlik duvarı ilkelerinin çatıştığı çok sayıda örnek vardır ve AI, bu güvenlik açığından yararlanmak için mükemmel bir araçtır. Son ihlallerin çoğu, güvenlik duvarı kısıtlamalarını aşmak için yapay zekayı kullandı.

Diğer saldırılar AI desteklidir, ölçekleri ve gelişmişlikleri göz önüne alındığında. AI, karaborsada satılan istismar kitlerine yerleştirilmiştir. Siber suçlular için çok kazançlı bir stratejidir ve fidye yazılımı SDK'ları AI teknolojisi ile yüklenir.

Otomatik Saldırılar

Bilgisayar korsanları, kurumsal ağlara yönelik saldırıları otomatikleştirmek için yapay zeka ve makine öğrenimi de kullanıyor. Örneğin, siber suçlular, güvenlik açıklarını tespit etmek ve bunlardan yararlanmak için hangi yükün kullanılacağını belirlemek için kötü amaçlı yazılım oluşturmak için AI ve ML kullanabilir.

Bu, kötü amaçlı yazılımın komuta ve kontrol sunucularıyla iletişim kurmak zorunda kalmadan algılamayı önleyebileceği anlamına gelir. Bir kurbanı saldırı altında oldukları konusunda uyarabilen alışılmış daha yavaş, saçılma stratejisini kullanmak yerine, saldırılar lazer odaklı olabilir.

fuzzing

Saldırganlar ayrıca yeni yazılım zayıflıklarını ortaya çıkarmak için yapay zekayı kullanır. Meşru yazılım geliştiricilerin ve sızma testçilerinin programlarını ve sistemlerini korumalarına yardımcı olmak için bulanıklaştırma araçları zaten mevcuttur, ancak çoğu zaman olduğu gibi, iyi adamlar hangi araçları kullanırsa kullansın, kötü adamlar istismar edebilir.

Yapay zeka ve ilgili sistemler küresel ekonomide daha yaygın hale geliyor ve suç yeraltı dünyası da aynı şeyi yapıyor. Ayrıca, bu sağlam yetenekleri geliştirmek ve sürdürmek için kullanılan kaynak kodu, veri kümeleri ve metodolojilerin tümü kamuya açıktır; bu nedenle, bunlardan yararlanmak için finansal bir teşvike sahip siber suçlular çabalarını burada yoğunlaştıracaktır.

Kötü amaçlı otomasyonu tespit etmek söz konusu olduğunda, veri merkezleri sıfır güven stratejisi benimsemelidir.

Phishing

Çalışanlar, özellikle toplu olarak gönderilenler olmak üzere kimlik avı e-postalarını belirleme konusunda ustalaştı, ancak AI, saldırganların her bir e-postayı her alıcı için kişiselleştirmesine izin veriyor.

Makine öğrenimi algoritmalarının ilk ciddi silahlanma sürecini burada görüyoruz. Buna, bir çalışanın sosyal medya gönderilerini okumak veya daha önce bir ağa erişim kazanmış saldırganlar durumunda, çalışanın tüm iletişimlerini okumak dahildir.

Saldırganlar, kendilerini devam eden e-posta alışverişlerine eklemek için AI'yı da kullanabilir. Geçerli bir konuşmanın parçası olan bir e-posta anında gerçek gibi görünür. E-posta ileti dizisini ele geçirme, bir sisteme girmek ve kötü amaçlı yazılımları bir cihazdan diğerine yaymak için güçlü bir stratejidir.

Kaynak: https://www.smartdatacollective.com/ai-powered-cyberattacks-hackers-are-weapizing-artificial-intelligence/

Zaman Damgası:

Den fazla SmartData Toplu