Kaspersky: Siber suçlular yapay zekayla deneyler yapıyor

bencede

New member
Güvenlik firması Kaspersky'ye göre siber suçlular, ChatGPT gibi yapay zeka metin oluşturucularından bilgi almak için kötü niyetli yapay zeka istekleri oluşturma konusunda giderek daha becerikli hale geliyor. Geçen yıl bu türden 249 ipucu internette satışa sunuldu. Bu, belirsiz bir şekilde çevrilmiş başlığı olan bir Kaspersky raporuyla kanıtlanıyor: “Gölge yeniliği: Siber suçlular Karanlık Web'de yapay zekayla nasıl deneyler yapıyor.”

Duyuru



ChatGPT gibi büyük dil modelleri (LLM'ler), tam saldırı zincirleri oluşturmaya veya fidye yazılımı enfeksiyonları veya diğer siber saldırılar için polimorfik kötü amaçlı yazılımlar üretmeye yaklaşamazken, dolandırıcıların yapay zeka kullanmaya olan ilgisi artıyor. Şirket, Telegram kanallarında ve dark web forumlarında ChatGPT ve diğer üretken dil modellerinin yasa dışı faaliyetler için nasıl kullanılabileceğini tartışan 3.000'den fazla gönderi buldu.

Raporda, “Bir zamanlar belirli düzeyde uzmanlık gerektiren görevler bile artık sadece bir ipucu ile gerçekleştirilebiliyor” ifadesine yer veriliyor. “Bu, ceza adaleti de dahil olmak üzere birçok sektöre giriş eşiğini önemli ölçüde düşürüyor.”

Artan tehdit durumu


Ancak yalnızca kötü niyetli istemler yaratan suçlular yoktur, aynı zamanda bunları kendi istemlerini oluşturma becerisine sahip olmayan başkalarına da satarlar. Kapersky ayrıca çalınan ChatGPT kimlik bilgileri ve güvenliği ihlal edilmiş premium hesaplar için büyüyen bir pazar olduğunu da bildirdi.

Pek çok saygın geliştirici, yazılımlarının performansını veya verimliliğini artırmak için yapay zekayı kullanırken, kötü amaçlı yazılım üreticileri de aynısını yapıyor. Kaspersky'nin araştırması, yapay zekayı yalnızca bilgileri analiz etmek ve işlemek için değil, aynı zamanda ele geçirildiğinde kapsama alanlarını otomatik olarak değiştirerek suç faaliyetlerini korumak için kullanan kötü amaçlı yazılım operatör yazılımını tanıtan bir gönderinin ekran görüntüsünü de içeriyor. Ancak Kaspersky raporu bu iddiaları doğrulamıyor. Kötü amaçlı yazılım operatörleri için reklamı yapılan yazılımın kendisi bile bir dolandırıcılık olabilir.

Microsoft'un yan kuruluşu OpenAI'nin ChatGPT'sinin başarısının ardından, kötü amaçlı yazılım oluşturmak için yapay zekanın kullanılması konusunda birçok tartışma yaşandı. Ancak Kaspersky uzmanları, kendi kodunu antivirüs araçları tarafından tanınmayacak şekilde değiştirebilen, yapay zeka tarafından yazılan hiçbir polimorfik kötü amaçlı yazılımın henüz keşfedilmediğini, “ancak gelecekte ortaya çıkabileceğini” yazıyor.

Federal Bilgi Güvenliği Dairesi (BSI) başkanı Claudia Plattner, geçtiğimiz günlerde Almanya'da bilgi güvenliğine ilişkin BSI yönetim raporunun sunumu sırasında, suçluların siber suç alanında faaliyet gösterdiği profesyonelliğin “endişe verici” olduğunu açıkladı. BSI güvenlik konusunda “benzeri görülmemiş zorluklar” görüyor. Raporda, genel olarak büyük yapay zeka dil modellerinin “tehditte sistemik bir değişime” yol açtığı belirtiliyor.


(akın)



Haberin Sonu
 
Üst