Intelligenza artificiale e cybersecurity

Original article was published by Raffaella Aghemo on Artificial Intelligence on Medium


Intelligenza artificiale e cybersecurity

by Raffaella Aghemo su Avvocloud.net

L’ Intelligenza Artificiale, secondo il recente ed interessante approfondimento “Artificial Intelligence for Cybersecurity”, realizzato da Matteo E. Bonfanti e Kevin Kohler, è destinata a giocare un ruolo molto rilevante per la cybersecurity, introducendo nuove minacce ma anche nuovi strumenti e strategie di difesa. Come illustrato nel report, i cambiamenti apportati dalla intelligenza artificiale alla cybersecurity richiederanno nuove competenze ma anche una governance dedicata.

Cos’è l’intelligenza artificiale?

L’ intelligenza artificiale è una branca della scienza informatica che si propone di permettere alle macchine lo svolgimento di compiti che normalmente richiedono facoltà umane, quali ad esempio la capacità di vedere ed orientarsi nel tempo e nello spazio, prendere decisioni e, che soprendente che possa sembrare, imparare e migliorare autonomamente così le proprie prestazioni.

Le modalità e tecniche attraverso le quali si persegue tale ambizioso obiettivo sono varie: molti dei recenti avanzamenti in fatto di intelligenza artificiale sono dovute ad un set di conoscenze noto come machine learning. Esemplificando, al machine learning appartengono meccanismi che per mezzo di algoritmi, potenza di calcolo e dati, consentono ad una macchina di migliorare autonomamente le proprie performance relative alla esecuzione di un dato compito.

Le applicazioni pratiche possono essere molteplici; in questo articolo ci dedichiamo agli aspetti della intelligenza artificiale inerenti alla cybersecurity.

I rischi di una crescente diffusione

Come notano gli autori dello studio, la comunità di sviluppo dell’intelligenza artificiale ha sempre avuto un approccio aperto, incline alla condivisione non solo dei risultati degli studi effettuati, ma anche di codici sorgenti, tutorial e set di dati.

La crescente disponibilità di potenza di calcolo a buon mercato, ad esempio ad opera di fornitori on demand di cloud computing, ha fatto il resto, consentendo la rapida diffusione della ricerca e sviluppo di soluzioni basate sulla intelligenza artificiale; si parla a tal proposito di democratizzazione della intelligenza artificiale.

Tale diffusione ha però generato nuove minacce per la sicurezza informatica ad opera di soggetti competenti nella nuova tecnologia e determinati a farne un uso malevolo.

A tale evoluzione è corrisposta una contrazione della condivisione di set di dati e “modelli addestrati”, ossia degli strumenti facilmente utilizzabili anche per finalità malevole; è stato questo il caso delle applicazioni della intelligenza artificiale in ambiti particolarmente sensibili, come i set di dati sulla genomica e i dati biometrici della popolazione.

Intelligenza artificiale e cyber minacce

Nel report si legge:

“L’intelligenza artificiale manca ancora di robustezza e spesso fallisce in modi decisamente non umani. Per esempio, potrebbe classificare erroneamente le immagini sulla base di correlazioni accidentali dello sfondo, nel set di dati di formazione, angoli di visualizzazione inusuali, o a causa di manipolazioni di caratteristiche di livello molto basso, che gli esseri umani non percepiscono attivamente.”

Questi errori si traducono in vulnerabilità che possono essere sfruttate attraverso tecniche di data poisoning” o “avvelenamento di dati”: il volontario inserimento (iniezione) di dati che sfruttano le vulnerabilità e portano ad “errori di valutazione” dell’algoritmo.

Si parla invece di “adversarial examples” per quegli input di dati progettati con il preciso intento di indurre in errore un modello o applicazione di machine learning.

Il report prosegue individuando tre possibili tipi di impatto della intelligenza artificiale sulla cybersecurity:

“L’intelligenza artificiale può: espandere le cyber minacce (quantità); modificare il carattere tipico di queste minacce (qualità); e introdurre minacce nuove e sconosciute (quantità e qualità). L’intelligenza artificiale potrebbe ampliare il set di attori che sono in grado di svolgere attività informatiche dannose, la velocità con cui questi attori possono svolgere le attività e la serie di obiettivi plausibili.”

In sostanza, le caratteristiche di scalabilità, adattabilità ed efficacia propri della intelligenza artificiale e delle soluzioni che su di essa si basano, unitamente alla accessibilità della ricerca e sviluppo in materia, amplia il numero di potenziali malintenzionati e consente loro di essere particolarmente efficaci nei lori intenti.

La adattabilità della intelligenza artificiale la rende particolarmente efficace tanto in fase di offesa, quanto in fase di difesa: è dunque lecito aspettarsi nei prossimi anni lo sviluppo e l’adozione di strumenti di sicurezza informatica basati sulla intelligenza artificiale a tutela di asset quali reti, informazioni e anche persone.

Secondo il report un aspetto della cybersecurity che beneficerebbe del ricorso alla intelligenza artificiale è quello della cyber intelligence, ossia la raccolta di dati funzionali a strategie tanto di offesa quanto di difesa. In tale ambito l’intelligenza artificiale risulterebbe particolarmente utile per la raccolta e selezione di dati così come per rintracciare connessioni nascoste tra questi, rendendo l’intero processo automatico e decisamente più efficace.

Possibili target

Il report menziona due ambiti in cui l’applicazione della intelligenza artificiale alla cybersecurity risulterebbe decisiva, sia per finalità di attacco che di difesa.

  1. Reti: l’opera di cyber intelligence svolta dalla intelligenza artificiale porterebbe ad una efficace lavorazione dei dati ricavati dai software che monitorano la sicurezza delle reti, rendendo possibile l’individuazione di nuove minacce e l’elaborazione di strategie di difesa: è il caso degliIntrusion Detection System (IDS). Sempre in ambito di difesa delle reti, appare promettente il ricorso alla intelligenza artificiale per test automatizzati di vulnerabilità, noti comefuzzing.
  2. Informazione: un impiego malevolo della intelligenza artificiale ha a che fare con la produzione di contenuti digitali che riproducono una “realtà sintetica”, difficilmente smascherabile dall’occhio umano, allo scopo di diffondere informazioni false e generare influenze. È il caso degli ormai notideep fake o syntethic media.

Il ruolo dei Governi

L’intelligenza artificiale influenzerà la cybersecurity negli anni a venire, creando nuove minacce per la sicurezza informatica ma anche fornendo efficaci strumenti di difesa. Quale degli usi sarà a prevalere dipenderà dal grado di competenza che gli operatori di cybersecurity riusciranno a sviluppare, così da contrastare gli attacchi e le nuove minacce.

Il report si conclude evidenziando il ruolo che i Governi potranno avere nel processo di trasformazione che la cybersecurity subirà ad opera della intelligenza artificiale. Già oggi alcuni Stati mirano ad acquisire competenze e risorse, in applicazione di ben strutturate strategie nazionali, che individuano nella cybersecurity un prossimo decisivo ambito di applicazione della intelligenza artificiale.

Finora i Governi hanno adottate politiche volte a sostenere l’innovazione nel settore in argomento attraverso investimenti in infrastrutture, formazione e ricerca, così come tramite la adozione di linee guida in settori quali la privacy e i diritti fondamentali.

Gli aspetti regolamentari potranno poi essere affrontati anche al livello internazionale con l’introduzione di norme comuni, in particolare in tema di ricerca e sviluppo: un aspetto a cui prestare attenzione in ragione dei rischi derivanti da uno sviluppo incontrollato di una tecnologia tanto potente.