Follow

Nel campo in rapida evoluzione dei sistemi cyber-fisici (CPS), l’integrazione del machine learning (ML) è fondamentale per aumentare l’efficienza e ridurre i costi del lavoro. Tuttavia, questa integrazione espone CPS a vari attacchi ML avversari, in particolare attacchi di evasione, che stanno diventando una delle principali preoccupazioni nel settore. Questi attacchi sono allarmanti perché manipolano sottilmente gli input dei modelli ML per produrre decisioni errate pur rimanendo inosservati. Ciò comporta rischi significativi, soprattutto in settori critici come quello sanitario o delle infrastrutture, dove anche errori minori possono portare a risultati disastrosi, come diagnosi mediche errate o guasti alla rete elettrica. La natura furtiva di questi attacchi, unita al loro potenziale di minare la fiducia del pubblico nei sistemi automatizzati, rappresenta una sfida per la futura sicurezza dei CPS. Garantire l’integrità e l’affidabilità dei modelli ML in questi sistemi contro minacce così sofisticate sta diventando un compito sempre più critico nella salvaguardia del nostro mondo digitale e fisico.
In questo contesto, l'articolo "Evasion Attack and Defense on Machine Learning Models in Cyber-Physical Systems: A Survey" di Shunyao Wang, Ryan KL Ko, Guangdong Bai, Naipeng Dong, Taejun Choi e Yanjun Zhang, fornisce una esplorazione completa. Il documento inizia discutendo i fondamenti del CPS e degli attacchi avversari, quindi esplora le complessità delle strategie di attacco di evasione, aiutato da una tassonomia che illustra come vengono condotti questi attacchi e le vulnerabilità che sfruttano all'interno dei modelli ML in CPS. Il documento passa quindi a una panoramica delle strategie di difesa, approfondendo il modo in cui ciascuna tecnica rafforza il sistema contro tali attacchi, utilizzando una tassonomia di difesa per maggiore chiarezza. Questi meccanismi di difesa vengono esaminati da varie prospettive, che vanno dagli input del modello ML ai suoi output. Infine, lo studio evidenzia le questioni aperte, le sfide e le potenziali direzioni per la ricerca futura.

arxiv.org/abs/2303.06302

Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A Contemporary Survey

Adversarial attacks and defenses in machine learning and deep neural network have been gaining significant attention due to the rapidly growing applications of deep learning in the Internet and relevant scenarios. This survey provides a comprehensive overview of the recent advancements in the field of adversarial attack and defense techniques, with a focus on deep neural network-based classification models. Specifically, we conduct a comprehensive classification of recent adversarial attack methods and state-of-the-art adversarial defense techniques based on attack principles, and present them in visually appealing tables and tree diagrams. This is based on a rigorous evaluation of the existing works, including an analysis of their strengths and limitations. We also categorize the methods into counter-attack detection and robustness enhancement, with a specific focus on regularization-based methods for enhancing robustness. New avenues of attack are also explored, including search-based, decision-based, drop-based, and physical-world attacks, and a hierarchical classification of the latest defense methods is provided, highlighting the challenges of balancing training costs with performance, maintaining clean accuracy, overcoming the effect of gradient masking, and ensuring method transferability. At last, the lessons learned and open challenges are summarized with future research opportunities recommended.

arxiv.org
Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.