Araştırmacılar, AI Modellerinin Jailbreak'i İçin 'Aldatıcı Zevk' Yöntemini Açıkladı

Araştırmacılar, AI Modellerinin Jailbreak'i İçin 'Aldatıcı Zevk' Yöntemini Açıkladı:

yapay zeka-jailbreak.png

Siber güvenlik araştırmacıları, etkileşimli bir konuşma sırasında istenmeyen bir talimatı iyi huylu olanlar arasına gizlice sokarak büyük dil modellerini (LLM'ler) jailbreak yapmak için kullanılabilecek yeni bir düşmanca tekniğe ışık tuttu. Palo Alto Networks Unit 42 tarafından Deceptive Delight kod adı verilen bu yaklaşım, hem basit hem de etkili olarak tanımlandı ve ortalama bir
Ek parçalar: