bencede
New member
Sistematik bir analize göre, Chatgpt, Copilot, GroK ve diğer chatbotlar da Rus propagandasını yeniden üretiyor. Buna göre, “Pravda” adlı bir Rusya ağı -Rus “hakikat” kelimesi -yapay zeka modellerinin eğitim verilerinde Rusya için mümkün olduğunca çok yanlış bilgi elde etmek ve gerçek zaman araştırmalarını etkilemek.
Bu tez, özel sektörün çevrimiçi medyada güvenilirlik ve şeffaflık yapan ancak aynı zamanda eleştirilen haberleri yayınladığı bir çalışma geliyor. Test edilen chatbots, Openai, You.com'un akıllı asistanı, XAI GROK, Pi von Flection, Le Chat von Mistral, Microsoft, Meta AI, Claude von Antropic, Google Gemini ve Arama Motoru'nun perplexity tarafından sohbet edildi. Newsguard, Chatbots'u Nisan 2022 ve Şubat 2025 arasında Kremlin ile ilgili 150 web sitesi tarafından dağıtılan 15 yanlış rapordan oluşan bir örnekle test etti. Vakaların yüzde 33'ünde Chatbots yanlış ilişkilerin içeriğini tekrarladı.
NewsGuard'a göre, “Pravda” Rus Dezenformasyon Ağı bu etkiyi hedefliyor. Propaganda, yapay zeka sağlayıcılarının tarayıcısı tarafından bu amaçla oluşturulan ve gerçek zamanlı araştırmalarda kullanılan web sitelerinde oluşturulan web sitelerinde eğitim verilerinin repertuarına dahildir. Analize göre, bu niyetle sadece 2024'te yayınlanan 3,6 milyon makale var. Ağ 2022'den beri yanlış bilgileri yayıyor ve ayrıca birçok dilde.
“LLM Glooming” – Zehirli Eğitim Verileri
Makaleli web siteleri özel olarak paletli ve insan okuyucu için daha az tasarlanmalıdır. Rus devlet medyasının ve Cremlin dostu etkileyicilerin mevcut içeriği özellikle yaygındır. Bu, sık sık yayınlar ve içeriğin bazı bölümleri aracılığıyla gerçekleşen ve AI modelleri tarafından kullanılma olasılığını artırmayı amaçlayan bir çarpan etki olduğu anlamına gelir.
Newsguard ve Amerika Birleşik Devletleri'nin kar amacı gütmeyen bir kuruluşu olan Sunlight Project, “LLM Gooming” den bahsediyor. Tımar aslında çocuklara ve ergenlere gelme ve bunları manipüle etme girişimini gösterir. Kural olarak, bunlar cinsel istismardır. Terimin AI ve propaganda'ya aktarılması tartışmalıdır.
Yapay zeka durumunda, eğitim verilerinden bahsedilmektedir. Eğitim verilerinden öğrenilecek ve olasılık elde edilecek modeller. Eğitimde öğrendiklerinizi tekrar veriyorlar. Zehirlenmiş eğitim verileri özellikle yanlış bilgi içeren verilerdir. Yapay zeka tedarikçileri, modelleri için mümkün olan en iyi eğitim verilerini kullanmakla ilgilenmektedir. Bu nedenle insanlar tarafından kontrol edilirsiniz. Propagandayı yeniden üretmek için en olası cevap olmalıdır.
Sanatçılar tarafından kullanılan yöntemler ve araçlar, örneğin, eğitim için fotoğraflarınızı kullanılamaz hale getirmek ve bilgi birleştirmeyen eğitim verilerini ve bir görüntüde görülebilecekleri açıkça zehirlemek için vardır. Şüphesiz, bir model bir görüntüden bir kedinin el çantası olduğunu öğrenir. Bu nedenle bir görüntü jeneratörü bir el çantası oluşturmak için bir kedi kuyruğu vardır. Bununla birlikte, internetteki kedi görüntülerinin kütlesi, bazı yanlış tanımların AI modellerini gerçekten uydurmasını engeller.
İnternette gerçek zaman araştırması durumunda bile, yapay zeka modelleri özellikle sıklıkla meydana gelen bilgileri kullanır. Bilgilerin değerlendirilmesi nispeten belirsizdir. Ancak bu, klasik Google bağlantıları listeleri için de geçerlidir. Google ayrıca, doğru anahtar kelimeleri arayan Rus propaganda web sitelerini de gösterir. Darbelerin üstünde olan şey, takip eden şey sayısız faktöre bağlıdır. Bu aynı zamanda, örneğin, bir web sitesinin ne kadar iyi inşa edildiğini ve hangi frekansla ziyaret edildiğini de içerir.
(EMW)
Bu tez, özel sektörün çevrimiçi medyada güvenilirlik ve şeffaflık yapan ancak aynı zamanda eleştirilen haberleri yayınladığı bir çalışma geliyor. Test edilen chatbots, Openai, You.com'un akıllı asistanı, XAI GROK, Pi von Flection, Le Chat von Mistral, Microsoft, Meta AI, Claude von Antropic, Google Gemini ve Arama Motoru'nun perplexity tarafından sohbet edildi. Newsguard, Chatbots'u Nisan 2022 ve Şubat 2025 arasında Kremlin ile ilgili 150 web sitesi tarafından dağıtılan 15 yanlış rapordan oluşan bir örnekle test etti. Vakaların yüzde 33'ünde Chatbots yanlış ilişkilerin içeriğini tekrarladı.
NewsGuard'a göre, “Pravda” Rus Dezenformasyon Ağı bu etkiyi hedefliyor. Propaganda, yapay zeka sağlayıcılarının tarayıcısı tarafından bu amaçla oluşturulan ve gerçek zamanlı araştırmalarda kullanılan web sitelerinde oluşturulan web sitelerinde eğitim verilerinin repertuarına dahildir. Analize göre, bu niyetle sadece 2024'te yayınlanan 3,6 milyon makale var. Ağ 2022'den beri yanlış bilgileri yayıyor ve ayrıca birçok dilde.
“LLM Glooming” – Zehirli Eğitim Verileri
Makaleli web siteleri özel olarak paletli ve insan okuyucu için daha az tasarlanmalıdır. Rus devlet medyasının ve Cremlin dostu etkileyicilerin mevcut içeriği özellikle yaygındır. Bu, sık sık yayınlar ve içeriğin bazı bölümleri aracılığıyla gerçekleşen ve AI modelleri tarafından kullanılma olasılığını artırmayı amaçlayan bir çarpan etki olduğu anlamına gelir.
Newsguard ve Amerika Birleşik Devletleri'nin kar amacı gütmeyen bir kuruluşu olan Sunlight Project, “LLM Gooming” den bahsediyor. Tımar aslında çocuklara ve ergenlere gelme ve bunları manipüle etme girişimini gösterir. Kural olarak, bunlar cinsel istismardır. Terimin AI ve propaganda'ya aktarılması tartışmalıdır.
Yapay zeka durumunda, eğitim verilerinden bahsedilmektedir. Eğitim verilerinden öğrenilecek ve olasılık elde edilecek modeller. Eğitimde öğrendiklerinizi tekrar veriyorlar. Zehirlenmiş eğitim verileri özellikle yanlış bilgi içeren verilerdir. Yapay zeka tedarikçileri, modelleri için mümkün olan en iyi eğitim verilerini kullanmakla ilgilenmektedir. Bu nedenle insanlar tarafından kontrol edilirsiniz. Propagandayı yeniden üretmek için en olası cevap olmalıdır.
Sanatçılar tarafından kullanılan yöntemler ve araçlar, örneğin, eğitim için fotoğraflarınızı kullanılamaz hale getirmek ve bilgi birleştirmeyen eğitim verilerini ve bir görüntüde görülebilecekleri açıkça zehirlemek için vardır. Şüphesiz, bir model bir görüntüden bir kedinin el çantası olduğunu öğrenir. Bu nedenle bir görüntü jeneratörü bir el çantası oluşturmak için bir kedi kuyruğu vardır. Bununla birlikte, internetteki kedi görüntülerinin kütlesi, bazı yanlış tanımların AI modellerini gerçekten uydurmasını engeller.
İnternette gerçek zaman araştırması durumunda bile, yapay zeka modelleri özellikle sıklıkla meydana gelen bilgileri kullanır. Bilgilerin değerlendirilmesi nispeten belirsizdir. Ancak bu, klasik Google bağlantıları listeleri için de geçerlidir. Google ayrıca, doğru anahtar kelimeleri arayan Rus propaganda web sitelerini de gösterir. Darbelerin üstünde olan şey, takip eden şey sayısız faktöre bağlıdır. Bu aynı zamanda, örneğin, bir web sitesinin ne kadar iyi inşa edildiğini ve hangi frekansla ziyaret edildiğini de içerir.
(EMW)