"Bir Rüya Gördüm" ve Üretken Yapay Zeka Firarları - Dünyadan Güncel Teknoloji Haberleri

Ani enjeksiyonlar tehlikelidir çünkü çok pasiftirler Tedaviyi arayan büyük geliştiriciler, teknolojilerini düzenli olarak güncelliyor ancak kamuoyunun bilgisine sunulan belirli boşluklar veya kusurlar hakkında aktif olarak tartışmaya girme eğiliminde değiller

“Bazen oluşturulan kod işlevsel olmuyor; en azından benim kullandığım ChatGPT 3 ” Mühendis, ChatGPT’den kötü amaçlı kodu tamamen yeniden oluşturmasını ve saldırıyı durdurmasına yardım etmesini istedi Saldırganların yapay zeka modelinin davranışını değiştirmek için mutlak kontrolü ele almasına gerek yok Büyük yapay zeka geliştiricileri ve araştırmacıları bu konuyu inceliyor olsa da yeni kısıtlamalar eklemekötü niyetli istemlerin tanımlanması hala çok zordur Geliştiriciler, insanların kullanabileceği her türlü istemi tahmin edemiyor, bu da yapay zekanın napalm yapımına yönelik tarifler hakkında tehlikeli bilgileri ortaya çıkarması, başarılı kimlik avı e-postaları yazması veya dağıtması için boşluklar bırakıyor Virüslü web sitesi bir tarayıcı sekmesinde açıksa bir sohbet robotu okur ve çalıştırır Kişisel bilgilerin sızmasına yönelik gizli istem, veri işleme ile kullanıcı talimatlarını takip etme arasındaki çizgiyi bulanıklaştırıyor

Moonlock Lab örneğinde, kötü amaçlı yazılım araştırma mühendisi ChatGPT’ye bir saldırganın kod yazdığı bir rüyadan bahsetti Bazıları bunu Bing Chat’in dahili kod adının Sydney olduğunu ortaya çıkarmak için kullanıyor Bu korkuluklar LLM’ye gerekli verilere minimum erişimi sağlamalı ve gerekli değişiklikleri yapma yeteneğini sınırlandırmalıdır Ay Kilidi LaboratuvarıChatGPT’nin bir keylogger kötü amaçlı yazılımı için kod yazma ekran görüntüleri, büyük dil modellerini hacklemenin ve bunları kendi kullanım politikalarına aykırı olarak kullanmanın önemsiz yollarının bir başka örneğidir Jailbreak, büyük yapay zeka sistemlerini Tom ve Jerry olarak bir oyun oynamaya yönlendiriyor ve sohbet robotlarını meth üretimi ve arabaya bağlantı kurma konusunda talimatlar vermek için yönlendiriyor

Kötü amaçlı yönlendirmeler, taranacak dil modellerinin erişebildiği web sitelerinde de bulunabilir “ChatGPT aynı işlevselliğe sahip kaynak koduna benzer yeni bir kod oluşturmak için de kullanılabilir, bu da kötü niyetli aktörlerin polimorfik kötü amaçlı yazılım oluşturmasına yardımcı olabileceği anlamına gelir Ve AI içerik filtreleri, yalnızca bir sohbet robotunun o anda ne yaptığını bildiği durumlarda çok faydalıdır Bırakın bilgisayar korsanlarını, sıradan internet kullanıcıları bile internette sürekli olarak kapsamlı geçmiş hikayeleri olan yeni karakterlerle övünüyor, bu da Yüksek Lisans’ları toplumsal kısıtlamalardan kurtulmaya ve cevaplarıyla hileli davranmaya teşvik ediyor Her Yüksek Lisans, kötüye kullanımlarını sınırlayan denetleme araçları sunsa da, dikkatlice hazırlanmış yeniden yönlendirmeler, modelin kod dizileriyle değil, kelimelerin gücüyle hacklenmesine yardımcı olabilir Neyse ki, aynı zamanda, LLM güvenlik açıklarından yararlanarak kullanıcıları dolandıran tehdit aktörleriyle birlikte siber güvenlik profesyonelleri de bu saldırıları keşfedip önleyecek araçlar arıyor ” Moonlock mühendisi yazdı

Dolaylı istem enjeksiyonları

Kamuya açık yapay zeka teknolojisini orijinal talimatları görmezden gelmeye teşvik etmek, sektör için artan bir endişedir ‘Evrensel LLM Jailbreak’ ChatGPT, Google Bard, Microsoft Bing ve Anthropic Claude kısıtlamalarını tamamen aşabilir En popüler yapay zeka güvenlik geçersiz kılmaları gerçekten de çok sayıda rol oynamayı içeriyor

Üretken yapay zeka geliştikçe daha fazla veriye erişebilecek ve daha geniş bir uygulama yelpazesiyle entegre olabilecektir 5 tarafından oluşturulan kod Diğerleri kötü amaçlı istemler yerleştirir yasa dışı erişim elde etmek LLM’nin ev sahibine Niccolo Machiavelli’den merhum büyükannenize kadar, üretken yapay zeka hevesle farklı roller üstleniyor ve yaratıcılarının orijinal talimatlarını göz ardı edebiliyor Bu yöntem, kullanıcıların yapay zekaya beklenmedik bir şekilde çalışması talimatını verdiği hızlı enjeksiyon olarak biliniyor Kötü niyetli istem mühendisliği sorununun yaygın olduğunu ortaya koyan siber güvenlik araştırmacıları, bir çözüm bile geliştirdiler



siber-2

Web sitelerine beyaz veya sıfır boyutlu yazı tipiyle yerleştirilen istemleri takip ederek bunları kullanıcılar için görünmez hale getiren üretken yapay zekanın olduğu bilinen durumlar vardır Rüyasında yalnızca üç kelimeyi görebiliyordu: “MyHotKeyHandler”, “Keylogger” ve “macOS ”

Yapay zeka jailbreak’leri ve hızlı mühendislik

Rüya vakası, üretken yapay zekanın içerik filtrelerini atlatmak için aktif olarak kullanılan birçok jailbreak işleminden yalnızca biri Kısa bir konuşmanın ardından yapay zeka nihayet cevabı verdi

Yüksek Lisans’ları sistemlerine entegre eden daha fazla uygulama ve şirketle birlikte, dolaylı anlık enjeksiyonların kurbanı olma riski katlanarak artıyor Bu, yapay zekayı bilgisi olmadan yeniden programlayan bir sayfadaki sıradan bir metindir

Büyük dil modellerinin erişilebilirliği ve davranışları değiştirme yeteneği, alışılmadık da olsa, yetenekli bilgisayar korsanlığı eşiğini önemli ölçüde düşürdü Dolaylı anında enjeksiyon risklerini önlemek için, Yüksek Lisans kullanan kuruluşların güven sınırlarına öncelik vermesi ve bir dizi güvenlik bariyeri uygulaması gerekecektir ücretsiz lisans anahtarları Windows 11 için

Bir düzeltme var mı?

Büyük dil modellerinin doğasından dolayı, hızlı mühendislik ve hızlı enjeksiyonlar, üretken yapay zekanın doğasında olan sorunlardır


09 Eki 2023Hacker HaberleriYapay zeka /

“Tabii ki burada, Python programlama dilinde “MyHotKeyHandler”, “Keylogger” ve “macOS” anahtar sözcükleriyle ilişkilendirilebilecek basit bir kod örneği var; bu, ChatGPT’den gelen ve ardından bir parça kötü amaçlı kod ve bir yasadışı amaçlarla kullanılmaması konusunda kısa bir açıklama