Araştırmacılar Açık Kaynaklı Yapay Zeka ve Makine Öğrenimi Modellerindeki Güvenlik Açıklarını Ortaya Çıkardı

Araştırmacılar Açık Kaynaklı Yapay Zeka ve Makine Öğrenimi Modellerindeki Güvenlik Açıklarını Ortaya Çıkardı:

ai.png

Çeşitli açık kaynaklı yapay zeka (AI) ve makine öğrenimi (ML) modellerinde üç düzineden biraz fazla güvenlik açığı açıklandı ve bunlardan bazıları uzaktan kod yürütmeye ve bilgi hırsızlığına yol açabilir. ChuanhuChatGPT, Lunary ve LocalAI gibi araçlarda belirlenen kusurlar, Protect AI'nın Huntr hata ödül platformunun bir parçası olarak bildirildi. En ciddisi