roportaj

Makine Öğrenim sistemlerini Düşmanca Saldırılardan Korumak İçin Yeni Çerçeve Yayınlandı

Microsoft, MITRE, IBM, NVIDIA ve Bosch ile işbirliği içinde, güvenlik analistlerinin makine öğrenimi (ML) sistemlerine yönelik düşmanca saldırıları algılamasına, yanıt lamasını ve düzeltilemelerine yardımcı olmayı amaçlayan yeni bir açık çerçeve yayımladı.

Adversarial ML Threat Matrix olarak adlandırılan, girişim ML sistemleri yıkmak kötü niyetli düşmanları tarafından kullanılan farklı teknikler düzenlemek için bir girişimdir.

Yapay zeka (AI) ve ML'nin çok çeşitli yeni uygulamalarda konuşlandırıldığı gibi, tehdit aktörleri sadece kötü amaçlı yazılımlarına güç vermek için teknolojiyi kötüye kullanmakla kalmıyor, aynı zamanda makine öğrenimi modellerini zehirli veri setleri ile kandırmak için de kullanabilirler, bu da yararlı sistemlerin yanlış kararlar almalarına ve Yapay Zeka uygulamalarının istikrar ve güvenliğine tehdit oluşturmasına neden olabilir.

Nitekim, ESET araştırmacılar geçen yıl Emotet bulundu - birkaç botnet odaklı spam kampanyaları ve ransomware saldırıları arkasında kötü üne sahip bir e-posta tabanlı kötü amaçlı yazılım - ml kullanarak hedefleme geliştirmek için.

Daha sonra bu ayın başlarında, Microsoft, henüz kötü amaçlı yazılım entegre edilmiş olsa da, herhangi bir bozulma olmadan mobil cihazın ekranında ransom note görüntü sığdırmak için kullanılabilecek bir makine öğrenme modeli dahil yeni bir Android ransomware zorlanma hakkında uyardı.

Dahası, araştırmacılar model-inversiyon saldırıları olarak adlandırılan ne inceledik , burada bir modele erişim eğitim verileri hakkında bilgi çıkarmak için kötüye.

Microsoft tarafından aktarılan gartner raporuna göre, 2022 yılına kadar tüm Yapay A siber saldırıların0 makine öğrenme destekli sistemlere saldırmak için eğitim-veri zehirlenmesi, model hırsızlığı veya düşmanca örnekler kaldıraç bekleniyor.

"ML sistemleri güvenli bu zorlayıcı nedenlerle rağmen, Microsoft'un anket 28 işletmeler kapsayan en sanayi uygulayıcıları henüz düşmanca makine öğrenme ile uzlaşmaya varmak zorunda bulundu," Windows üreticisi dedi. "28 işletmeden 25'i ML sistemlerini güvence altına almak için doğru araçlara sahip olmadıklarını belirtti."

Adversarial ML Threat Matrix, Microsoft ve MITRE'nin ML sistemlerine karşı etkili olması için incelenmiş bir dizi güvenlik açığı ve düşmanca davranışla verilerin silahlandırılmasına yönelik tehditleri ele almamayı umuyor.

Fikir şirketlerin çevreye ilk erişim elde etmek için taktik listesi kullanarak gerçekçi saldırı senaryoları simüle ederek kendi AI modellerinin dayanıklılığını test etmek için Adversarial ML Threat Matrix kullanabilirsiniz, güvensiz ML modelleri yürütmek, eğitim verileri kirletmek, ve model çalma saldırıları ile hassas bilgileri çıkarmak.

Microsoft, "Adversarial ML Threat Matrix'in amacı, ML sistemlerine yönelik saldırıları güvenlik analistlerinin kendilerini bu yeni ve yaklaşan tehditlere yönlendirebileceği bir çerçevede konumlandırmaktır." dedi.

"Matris ATT & CK çerçevesi gibi yapılandırılmıştır , güvenlik analisti toplum arasında geniş benimsenmesi nedeniyle - bu şekilde, güvenlik analistleri ML sistemlerine yönelik tehditler hakkında bilgi edinmek için yeni veya farklı bir çerçeve öğrenmek zorunda değildir."

Bu gelişme, AI'yi veri zehirlenmesi ve model kaçırma saldırılarından korumak için yapılan bir dizi hamlenin sonuncusu. John Hopkins Üniversitesi'nden araştırmacıların truva atlarını önlemek için tasarlanmış TrojAI adlı bir çerçeve geliştirdiklerini ve bunun da yanlış bir yanıt çıkarmasını sağlayan giriş tetikleyicilerine yanıt verecek şekilde bir modelin modifiye edildiğini belirtmekte fayda var.




Yorumlar Toplam Yorum

https://thecybermagazin.com/assets/img/3.gif

vasp.exe 13

Çok Güzel Bir Makale

Beğen

Yorum Yap


Scroll to Top