Perché non possiamo più ignorare la sicurezza di Intelligenza Artificiale (AI) e Machine Learning (ML)

È arrivato il momento di mettersi al lavoro per migliorare la sicurezza informatica in ottica di un avvento rapido di Intelligenza Artificiale (AI) e Machine Learning (ML).

In uno dei panel della RSA Conference si è discusso della necessità di adottare subito misure preventive contro gli attacchi avversari di intelligenza artificiale (AI) e Machine Learning (ML), prima che questi attacchi diventino più complessi.

intelligenza artificiale sicurezza privacy
Adobe Stock

L’IA e l’apprendimento automatico sono oggi temi di tendenza nel settore tecnologico, soprattutto perché ChatGPT di OpenAI e altre forme di IA generativa continuano a dominare i titoli dei giornali. Non deve quindi sorprendere che l’IA e l’ML abbiano ricevuto molta attenzione alla RSA Conference 2023.

Durante una delle sessioni intitolate “Hardening AI/ML Systems — The Next Frontier of Cybersecurity”, si è tenuta una tavola rotonda che ha affrontato la questione del perché sia necessario affrontare il problema della salvaguardia dell’IA e del ML da attori malintenzionati in questo momento.

Le preoccupazioni degli esperti sulla sicurezza di Intelligenza Artificiale (AI)  e Machine Learning (ML)

Il moderatore dell’evento, Bryan Vorndran, che è anche vicedirettore della divisione informatica dell’FBI, ha osservato che quando le aziende incorporano l’IA e l’ML nelle attività aziendali fondamentali, aumentano il numero di vulnerabilità a potenziali attacchi.

“Gli attacchi possono verificarsi in ogni fase dei cicli di sviluppo e implementazione di IA e ML. I cicli di sviluppo e implementazione dell’intelligenza artificiale (AI) e del Machine Learning (ML). I modelli, i dati di formazione e le API possono essere tutti potenzialmente presi di mira”.

Secondo l’esperto, uno dei problemi è che i team di sviluppo non pensano molto a come proteggere l’IA e il ML dagli attacchi.

Secondo Bob Lawton, capo delle capacità di missione presso l’Office of the Director of National Intelligence:

“È molto importante che tutti coloro che pensano di sviluppare, acquistare o adottare internamente sistemi di IA lo facciano con un ulteriore livello di mitigazione o gestione del rischio”.

Inoltre, il settore della sicurezza sta ancora lavorando per determinare i metodi più efficaci per proteggere l’IA e il ML.

Cosa si intende esattamente per machine learning (ML)

Il campo dell’intelligenza artificiale (AI) e dell’informatica noto come apprendimento automatico si concentra sull’uso di dati e algoritmi per simulare il metodo di apprendimento delle persone, con l’obiettivo di migliorare continuamente la precisione della simulazione.

L’apprendimento automatico ha una storia lunga e illustre in IBM. A seguito dello studio di Arthur Samuel che ruotava intorno al gioco della dama, l’espressione “machine learning” è spesso considerata come la prima utilizzata da un membro del personale IBM. Robert Nealey, che si credeva il miglior giocatore di dama del mondo, sfidò un computer IBM 7094 in una partita nel 1962 e fu sconfitto dalla macchina. Questo risultato può sembrare insignificante se paragonato a ciò che è possibile fare oggi, eppure è considerato un punto di svolta significativo nello sviluppo dell’intelligenza artificiale (AI).

Negli ultimi decenni, i progressi tecnici nella capacità di memorizzazione e di elaborazione hanno reso possibile la disponibilità di una serie di prodotti innovativi basati sull’apprendimento automatico. Alcuni esempi di questi prodotti sono il motore di raccomandazione utilizzato da Netflix e i veicoli autonomi.

La disciplina in rapido sviluppo della scienza dei dati ha un sottocampo essenziale noto come apprendimento automatico. Le iniziative di data mining prevedono l’addestramento di algoritmi per creare classificazioni o previsioni, nonché la scoperta di intuizioni significative, attraverso l’uso di metodologie statistiche. Le decisioni successive prese all’interno delle applicazioni e delle aziende sono influenzate da queste intuizioni, che idealmente dovrebbero avere un effetto sui principali indicatori di crescita. Si prevede una maggiore necessità di data scientist nel settore, dato che i big data continuano a svilupparsi e a prosperare. Questi dovranno contribuire a determinare le domande aziendali più pertinenti e i dati necessari per rispondere a tali domande.

Per lo sviluppo di algoritmi di apprendimento automatico si utilizzano solitamente framework che accelerano la costruzione di soluzioni. Alcuni esempi di tali framework sono TensorFlow e PyTorch.

Il processo di machine learning (ML) in azione

Il sistema di apprendimento di un algoritmo di apprendimento automatico è suddiviso in tre componenti principali, come descritto dall’UC Berkeley (il link è esterno a IBM).

Per creare una previsione o una classificazione, gli algoritmi di machine learning (ML) sono tipicamente utilizzati come parte del processo decisionale. L’algoritmo fornirà una stima di uno schema nei dati sulla base di alcuni dati di input, che possono essere o meno etichettati. Questa stima può essere basata su dati etichettati o non etichettati.

  • Una funzione di errore.
    Lo scopo di una funzione di errore è quello di valutare l’accuratezza della previsione del modello. Una funzione di errore può fare un confronto con esempi noti per determinare quanto sia accurato il modello se esistono esempi noti.
  • Un processo di ottimizzazione del modello.
    Se il modello può adattarsi meglio ai punti dati del set di addestramento, i pesi vengono modificati per ridurre il divario tra l’esempio noto e la stima del modello.

Ciò avviene confrontando la stima del modello con l’esempio noto. Questa procedura di “valutazione e ottimizzazione” verrà ripetuta dall’algoritmo, che aggiornerà automaticamente i pesi fino al raggiungimento di un certo livello di accuratezza.

Il livello di complessità degli attacchi informatici con AI e ML attuali è piuttosto basso.

Il gruppo è giunto alla conclusione che gli assalti avversari dell’IA attualmente utilizzati non sono particolarmente complicati. Secondo Christina Liaghati, responsabile dell’esecuzione della strategia e delle operazioni di AI presso Mitre, e Neil Serebryany, amministratore delegato di CalypsoAI, la maggior parte degli assalti che si verificano oggi non sono molto più che dei malintenzionati che pungolano i sistemi di AI e ML finché non falliscono.

Ad esempio, l’Amministrazione fiscale dello Stato cinese è stata vittima di un assalto in cui i criminali hanno rubato circa 77 milioni di dollari sfruttando i modelli di riconoscimento facciale e utilizzandoli a proprio vantaggio. Per ingannare il software di riconoscimento facciale, gli aggressori hanno creato filmati con l’intelligenza artificiale e fotografie ad alta definizione di volti ottenuti sul dark web. I video davano l’impressione che i volti nelle foto lampeggiassero e si muovessero.

Liaghati ha messo in guardia sul fatto che gli assalti all’intelligenza artificiale potrebbero svilupparsi nel tempo. Tuttavia, data la continua efficacia degli attacchi di basso livello, gli aggressori non hanno al momento grandi motivazioni per progredire nei loro metodi. La situazione, tuttavia, cambierà se il settore della cybersecurity inizierà a incorporare adeguate pratiche di sicurezza e assicurazione dell’IA.

Come proteggersi dagli attacchi informatici che utilizzano l’intelligenza artificiale (AI) e il ML

Anche se non sarà mai possibile eliminare completamente gli attacchi ostili dell’intelligenza artificiale, è possibile ridurne i danni. Serebryany consiglia di iniziare a utilizzare modelli più semplici. Ad esempio, se ne avete la possibilità, utilizzate un modello di regressione lineare invece di una rete neurale. “Più il modello è compatto, minore è la superficie da aggredire. “Meno superficie c’è da attaccare, più è semplice difendersi”, ha spiegato.

Secondo Serebryany, questo è il momento in cui le aziende dovrebbero stabilire il lignaggio dei dati e comprendere i dati utilizzati per addestrare i modelli di intelligenza artificiale e di ML. Un altro passo importante è quello di investire in strumenti e tecnologie in grado di testare e monitorare i modelli di intelligenza artificiale e di ML mentre vengono implementati in produzione.

Secondo Liaghati, gli approcci di mitigazione e di hardening non devono essere necessariamente complessi, né devono essere eseguiti in modo diverso dalle pratiche standard di cybersecurity. Liaghati ha esortato le aziende a considerare quante informazioni rendono pubbliche sui modelli e sui dati di intelligenza artificiale e di ML che utilizzano nelle loro operazioni. Ha dichiarato che mantenere segrete le proprie azioni rende più difficile per gli attori ostili capire come attaccare i modelli di intelligenza artificiale e di apprendimento automatico in primo luogo.

È ancora presto per gli attacchi che utilizzano a pieno l’intelligenza artificiale e il ML.

Il panel ha sottolineato che gli attacchi avversari all’intelligenza artificiale sono appena decollati. “Siamo consapevoli dell’esistenza di una minaccia e ne stiamo osservando le fasi iniziali. Tuttavia, il pericolo non ha ancora raggiunto il livello massimo”, ha dichiarato Serebryany. “Abbiamo l’opportunità unica di concentrarci sulla costruzione di mitigazioni e di una cultura della comprensione per la prossima generazione di rischi di machine learning (ML)”, scrive l’autore nell’introduzione.

Mentre i criminali informatici imparano a sfruttare l’intelligenza artificiale e l’apprendimento automatico, le aziende valutano i vantaggi e gli svantaggi dell’integrazione di queste tecnologie nelle loro attività quotidiane e determinano il modo migliore per proteggerle. Il gruppo ha suggerito alle aziende di investire tempo e risorse per informarsi e conoscere le possibili sfide di cybersecurity che possono sorgere a causa delle particolari modalità di utilizzo della tecnologia, per poi procedere a definire la propria postura e i potenziali rimedi a tali problemi.

La community della sicurezza informatica deve anche adottare misure preventive, una delle quali consiste nel coltivare partnership. Lawton ha parlato di come la comunità dei servizi segreti e il governo federale stiano collaborando per migliorare la sicurezza informatica dell’intelligenza artificiale e dell’apprendimento automatico.

Piuttosto che ritardare lo sviluppo delle capacità di sicurezza dell’intelligenza artificiale (AI) e del machine learning (ML), l’obiettivo è costruire una rete di sviluppatori e professionisti il prima possibile. Ha dichiarato Liaghati:

“Dobbiamo condividere la nostra verità di base sui dati, su ciò che sta effettivamente accadendo e sugli strumenti e le tecniche che possiamo condividere all’interno della comunità per fare effettivamente qualcosa al riguardo. Dobbiamo condividere la nostra verità di base sui dati, su ciò che sta effettivamente accadendo”.

Impostazioni privacy