Nel campo in rapida evoluzione dei sistemi cyber-fisici (CPS), l’integrazione del machine learning (ML) è fondamentale per aumentare l’efficienza e ridurre i costi del lavoro. Tuttavia, questa integrazione espone CPS a vari attacchi ML avversari, in particolare attacchi di evasione, che stanno diventando una delle principali preoccupazioni nel settore. Questi attacchi sono allarmanti perché manipolano sottilmente gli input dei modelli ML per produrre decisioni errate pur rimanendo inosservati. Ciò comporta rischi significativi, soprattutto in settori critici come quello sanitario o delle infrastrutture, dove anche errori minori possono portare a risultati disastrosi, come diagnosi mediche errate o guasti alla rete elettrica. La natura furtiva di questi attacchi, unita al loro potenziale di minare la fiducia del pubblico nei sistemi automatizzati, rappresenta una sfida per la futura sicurezza dei CPS. Garantire l’integrità e l’affidabilità dei modelli ML in questi sistemi contro minacce così sofisticate sta diventando un compito sempre più critico nella salvaguardia del nostro mondo digitale e fisico.
In questo contesto, l'articolo "Evasion Attack and Defense on Machine Learning Models in Cyber-Physical Systems: A Survey" di Shunyao Wang, Ryan KL Ko, Guangdong Bai, Naipeng Dong, Taejun Choi e Yanjun Zhang, fornisce una esplorazione completa. Il documento inizia discutendo i fondamenti del CPS e degli attacchi avversari, quindi esplora le complessità delle strategie di attacco di evasione, aiutato da una tassonomia che illustra come vengono condotti questi attacchi e le vulnerabilità che sfruttano all'interno dei modelli ML in CPS. Il documento passa quindi a una panoramica delle strategie di difesa, approfondendo il modo in cui ciascuna tecnica rafforza il sistema contro tali attacchi, utilizzando una tassonomia di difesa per maggiore chiarezza. Questi meccanismi di difesa vengono esaminati da varie prospettive, che vanno dagli input del modello ML ai suoi output. Infine, lo studio evidenzia le questioni aperte, le sfide e le potenziali direzioni per la ricerca futura.
#ai #machinelearning #cybersecurity
https://arxiv.org/abs/2303.06302