Avrupa Siber Güvenlik Ajansı, yapay zekanın seçimlere sızmasına karşı uyardı

bencede

New member
Yaklaşan Avrupa seçimleri öncesinde Avrupalı siber güvenlik otoritesi Enisa, yapay zeka (AI) alanındaki yeni gelişmelerin körüklediği olası manipülasyon kampanyalarından endişe duyuyor. Kurum, Perşembe günü 2023’teki tehdit ortamına ilişkin yayınladığı raporda ChatGPT, Microsoft Bing veya Google Bard gibi üretken yapay zekaya sahip sohbet robotlarının kullanımının “çalışma, yaşama ve oynama şeklimizi değiştirdiğini” yazıyor. Bilgisayar güvenliği de etkileniyor Yapay zekayla oluşturulan görünüşte mükemmel deepfake’ler “gerçekçi ve hedefli sosyal mühendislik saldırıları” için kullanılabilir.

Duyuru



Seçim sürecine olan güveni koruyun


Enisa direktörü Juhan Lepassaar, analizi yayınlarken “AB seçim sürecine olan güven, önemli ölçüde siber güvenlikli altyapılara güvenme yeteneğimize ve ayrıca bilginin bütünlüğü ve kullanılabilirliğine bağlı olacaktır” dedi. “Demokrasilerimiz için bu hassas ama hayati hedefe ulaşmak için gerekli adımların atılmasını sağlamak artık bizim elimizde.”

Rapora göre, bu yılın başlarında İsrail’de, istihbarat servisleri, siyasi kampanyalar ve özel şirketler adına sosyal medyada hackleme ve otomatik dezenformasyon yoluyla 30’dan fazla seçimi manipüle ettiğini iddia eden bir “Jorge Takımı”nın maskesi düşürüldü. Soruşturmaya göre grup, Telegram ve Gmail hesaplarına sızmak için 30.000’den fazla sahte sosyal medya profili ve siber saldırı kullandı.

Enisa, hükümet üyelerinin, medya temsilcilerinin ve kamuoyunun, önemli altyapıların muhasebesinin sorumluluğunu üstlenmenin dezenformasyonun yayılmasını kolaylaştırdığının farkında olması gerektiğinin altını çiziyor. ChatGPT’nin yaklaşık bir yıl önce piyasaya sürülmesinden bu yana, “sosyal mühendislikteki yenilikler” öncelikle yapay zeka tarafından yönlendirildi. Yeni özellikler arasında meşru kaynaklara çok benzeyen daha inandırıcı kimlik avı e-postaları oluşturmak için yapay zekanın kullanılması, öncelikle söylentileri klonlamak için kullanılan derin sahtekarlıklar ve yapay zeka tabanlı veri madenciliği yer alıyor.

Artan sosyal mühendislik


Raporda, BT güvenliği araştırmacılarının yalnızca Ocak’tan Şubat 2023’e kadar yeni sosyal mühendislik saldırılarında %135’lik bir artış gözlemlediği belirtildi. Bütün bunlar, “üretken yapay zekanın, tehdit aktörlerine karmaşık, hedefli saldırıları hızlı ve geniş ölçekte gerçekleştirme yeteneği sunduğunu” öne sürüyor. En önemli uygulamalardan biri muhtemelen yapay zeka tabanlı ses klonlamayı kullanan Vishing (sesli kimlik avı) saldırıları olacaktır.

Enisa’ya göre kuruluşların bu nedenle hassas BT altyapılarının en başından itibaren adli soruşturmalara yönlendirilmesini sağlaması gerekiyor. Örneğin log dosyalarının eksiksiz, güvenilir, doğru ve tutarlı bir şekilde toplanması önemlidir. Yazarlar ayrıca fidye yazılımı ve diğer kötü amaçlı programlar, kötü amaçlı reklamcılık, verilere müdahale veya DDoS saldırıları gibi diğer tehditleri de inceliyorlar.

Toplamda, Temmuz 2022’den Haziran 2023’e kadar olan raporlama döneminde Kurum, Üye Devletlerde yaklaşık 2.580 siber güvenlik olayı kaydetti. Ayrıca özellikle iki veya daha fazla AB ülkesine atıfta bulunan 220 tane de var. En çok etkilenen sektörler arasında kamu yönetimi (%19) ve sağlık (%8) yer alıyor.


(vbr)



Haberin Sonu
 
Üst