ABD hükümeti, Defcon 31’deki AI sistemlerini hacklemek istiyor

bencede

New member


  1. ABD hükümeti, Defcon 31’deki AI sistemlerini hacklemek istiyor

ABD hükümeti geçen hafta, bireylere ve toplumumuza yönelik risk ve zararı önleyen yapay zeka sistemlerinin geliştirilmesinde “sorumlu, güvenilir ve etik yenilik ve önlemleri” teşvik etme planlarını yayınladı. Bu amaçla Başkan Yardımcısı Kamala Harris, ABD’nin dört büyük şirketi Alphabet, Anthropic, Microsoft ve OpenAI’nin CEO’ları ile bir araya geldi. Daha fazla geliştirme için mali desteğe ek olarak, Ağustos ayında Las Vegas’ta düzenlenen Defcon BT güvenlik konferansında yapılacak bir güvenlik denetimi bu hedeflere ulaşılmasına yardımcı olacaktır.


ABD hükümeti yaptığı açıklamada, bu hedefe ulaşmayı planladığı çeşitli önlemleri açıkladı. Bir yandan, Ulusal Bilim Vakfı aracılığıyla yedi yapay zeka araştırma enstitüsünün kurulması için 140 milyon ABD doları fon akacak. Bu, ülke çapında dahil olan enstitülerin sayısını 25’e çıkarır. Yapay zekada “sorumlu, hesap verebilir ve etik” ilerlemeler elde etmek için eğitim kurumları, federal kurumlar, endüstri ve diğerleri arasındaki işbirliğini hızlandırmayı amaçlar.

Yapay Zeka Sistemleri: Büyük Üreticiler Kamu Değerlendirmesi Sözü Veriyor


Mevcut üretken yapay zeka sistemleri herkese açık olarak değerlendirilmelidir. Beyaz Saray, Anthropic, Google, Hugging Face, Microsoft, Nvidia, OpenAI ve Stability AI dahil olmak üzere önde gelen AI geliştiricilerinin katılacağını söyledi. Bu, Las Vegas’ta düzenlenen Defcon-31 güvenlik konferansında ‘AI Köyü’nde Scale AI tarafından geliştirilen bir değerlendirme platformunda – Sorumlu İfşa ilkelerine uygun olarak AI sistemlerinin halka açık bir değerlendirmesine katılarak yapılacaktır. 10. bu yıl 13 Ağustos’a kadar.


ABD hükümeti, “Bu bağımsız süreç, araştırmacılara ve halka bu modellerin etkisi hakkında önemli bilgiler sağlayacak ve şirketlerin ve yapay zeka geliştiricilerinin bu modellerde bulunan sorunları ele almak için harekete geçmesini sağlayacaktır” diyor. Yapay zeka modellerini hükümetten veya onları geliştiren şirketlerden bağımsız olarak test etmek, etkili değerlendirmelerinin önemli bir bileşenidir.

Tehditleri önlemeye ve yapay zekanın gücünden yararlanmaya yönelik politikalar


Yönetim ve Bütçe Ofisi’nin (OMB), bu yaz sonunda ABD hükümetinin yapay zeka sistemlerini kullanımına ilişkin kamuoyu yorumu için taslak yönergeler yayınlaması bekleniyor. Kılavuz, yapay zeka sistemlerinin geliştirilmesi, satın alınması ve kullanılmasının ABD halkının haklarını ve güvenliğini korumaya odaklanmasını sağlamak için federal departmanlar ve kurumlar için özel yönergeler oluşturacaktır. Düzenlemelerle ABD hükümeti, yapay zeka risklerine karşı savunmada ve yapay zekanın sunduğu fırsatlardan yararlanmada örnek teşkil etmesini sağlamayı amaçlıyor.


“Politikalar aynı zamanda ajansların misyonlarını ilerletmek ve Amerikalılara adil bir şekilde hizmet etme yeteneklerini güçlendirmek için yapay zekayı sorumlu bir şekilde kullanmalarına olanak tanıyacak. Ayrıca eyalet ve yerel yönetimler, işletmeler ve diğerlerinin yapay zeka satın alma ve kullanımınızda takip edecekleri bir rol model görevi görecek. diye açıklıyor ABD hükümeti.

Yapay zeka sistemlerinin güvenlik testi


ABD hükümetine paralel olarak Defcon 31’deki “AI Village” organizatörleri de bir açıklama yaptı. İçinde şöyle açıklıyorlar: “Bu yeni teknolojiyi geniş ölçekte otomatikleştirmenin doğasında var olan ve ortaya çıkan riskleri daha yeni anlamaya başlıyoruz. yüz “.

“AI Village”ın kurucusu Sven Cattell, geleneksel olarak şirketlerin sorunu, özellikle özel sektördeki uzman kırmızı ekipleri kullanarak çözeceğini açıklıyor. “Bu modellerle ilgili çeşitli sorunlar, yalnızca insanlar bunları Red Teams’te nasıl inceleyeceklerini ve değerlendireceklerini öğrendikten sonra çözülebilir. Hata ödülleri, canlı saldırı etkinlikleri ve diğer standart güvenlik topluluğu taahhütleri, makine öğrenimine dayalı sistemler için kullanılabilir. modeller uyarlanabilir”. Bir taşla iki kuş vuran: bir yandan potansiyel riskleri ele alarak, diğer yandan nasıl yardım edeceğini bilen bir araştırma topluluğu oluşturarak.

Seçilen kurumlardan ve topluluklardan yüzlerce öğrenci, Büyük Dil Modellerini (LLM) zorlar. “Dizüstü bilgisayarlar ve satıcılardan çeşitli LLM’lere zaman sınırlı erişim sağlayacağız. Ayrıca, çok çeşitli saldırıların test edilmesini teşvik etmek için Bayrağı Yakala (CTF) tarzı bir puanlama sistemi sunacağız. Kırmızı Takım Üyelerinden” bilgisayar korsanlarının Hipokrat yeminine uyun. AI Village yetkilileri, en yüksek puana sahip kişi, yüksek kaliteli bir Nvidia GPU kazanıyor.

Defcon 31, özellikle “AI Köyü”nde olmak üzere, AI sistemlerinin güvenliğiyle yoğun bir şekilde ilgilenen ilk büyük bilgisayar korsanlığı olayı olabilir. Araştırılmaya değer birkaç güvenlik açığı türü vardır. Genel bir bakış için “Yapay Zeka Sohbet Robotlarının Bir Güvenlik Felaketi Olması İçin Üç Neden” başlıklı Teknoloji İncelemesi makalesine bakın.


(dmk)



Haberin Sonu
 
Üst