Intelligenza artificiale e cyber security alla luce del GDPR


Il GDPR pone una particolare attenzione al trattamento automatizzato dei dati personali. L’art.22 ribadisce il diritto di una persona di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione

L'intelligenza artificiale (IA) è definibile come l'abilità di un computer a svolgere funzioni e ragionamenti tipici della mente umana.

Tuttavia spiegare cosa sia esattamente l’intelligenza artificiale è un compito arduo. Potrebbe affermarsi che si tratta di una disciplina appartenente all'informatica, che comprende l’insieme di studi e tecniche che tendono alla realizzazione di macchine, specialmente calcolatori elettronici, in grado di risolvere problemi e di riprodurre attività proprie dell’intelligenza umana.

La rapida evoluzione delle tecnologie ha avuto un profondo impatto sulla nostra società e sulle nostre vite.

La presenza di reti wireless a cui si può accedere praticamente ovunque ha incoraggiato la diffusione capillare di dispositivi in grado di connettersi alla rete: dai tablet ai cellulari fino ai più recenti wearable devices, oggetti tradizionali come l'orologio o gli occhiali che possono connettersi al web.

Ma collegarsi alla rete, oltre a permettere l'accesso a una mole enorme di informazioni e possibilità rende anche i nostri dispositivi potenzialmente vulnerabili, con tutto quello che contengono e questo accade sia per i singoli che per le aziende.

In altre parole l'accesso a internet ci apre al mondo, ma rende le persone, le aziende e le istituzioni potenzialmente esposte a rischi di truffa, furto di informazioni o sabotaggio. Il pericolo non va sottovalutato.

Cyber security ed intelligenza artificiale

GDPR, cyber security ed intelligenza artificiale

La conseguenza di questa digitalizzazione, dell’esplosione dei dispositivi connessi, dell’Internet of Things, è quella di dare agli esperti di cyber security un bel daffare. Più dispositivi connessi significa più traffico, più vettori di attacco, più tentativi di violazione della sicurezza, e molti più dati che devono essere analizzati.

L’intelligenza artificiale e il machine learning vengono applicati sempre più ampiamente in diversi settori e applicazioni, e anche in ambito cyber security.

Quando parliamo di Intelligenza Artificiale, pertanto, ci riferiamo a un ampio concetto di macchine che sono in grado di imitare funzioni cognitive e compiere azioni come classificazione, rilevazione di anomalie, o raggruppamento di campioni per risolvere un problema in modo efficace in modo molto simile a come farebbe un essere umano.

Il machine learning, dall’altra parte, potrebbe essere considerato come un’applicazione o materializzazione dell’IA, basata sull’idea che possiamo dare accesso ai dati alle macchine e usare algoritmi che permettano alle macchine di auto-apprendere la risoluzione di problemi dai dati.

Tuttavia l’IA non è un tecnologia universale, ma è composta da elementi tecnologici, che individualmente o in combinazione, hanno raggiunto un livello tale da suggerire applicazioni che possono portare a trasformazioni aziendali o operative significative.

Attualmente i professionisti della sicurezza possono fare ricorso all’IA per compiere tutta una serie di attività, tra cui:

  • Prevedere le minacce ed adattarsi ad esse.
  • Identificare ed eliminare le vulnerabilità esistenti.
  • Rilevare ed arrestare cyber attacchi con una velocità ed efficienza che non è sempre possibile ottenere con l’analisi umana.

LEGGI ANCHE: Intelligenza Artificiale: le novità nel 2018

Deep learning e ricerca cognitiva

Proprio la velocità di analisi diventa fondamentale per memorizzare ed analizzare tutti i dati di log relativi alle attività di attacco, operazione che mai nessuna mente umana potrebbe realizzare; adeguarsi costantemente a minacce e modelli d'attacco in evoluzione; limitare l'impatto del cliente e degli affari in merito a cyber attacchi e violazioni.

Certamente, allo stato attuale, non esiste una soluzione di IA definitiva in grado di rilevare, pensare ed agire, ma tanti, ormai, sono i settori dove sono stati fatti molti progressi: dalla biometria, all’elaborazione del linguaggio naturale, fino all’apprendimento automatico.

Proprio l’apprendimento automatico, è composto da strumenti, tecniche e algoritmi in grado di analizzare dati e gli scienziati lo utilizzano per creare modelli predittivi o identificare modelli nei dati.

La tecnologia di ricerca cognitiva utilizza l'apprendimento automatico per identificare modelli ricorrenti nei risultati della ricerca che possano assumere sempre più una maggiore rilevanza con il passare del tempo.

L'apprendimento profondo (Deep learning), è un ramo dell’ apprendimento automatico che si concentra in modo specifico su algoritmi che costruiscono reti neurali artificiali. Oggi tutti i giganti della rete lo utilizzano per analizzare e prevedere comportamenti online, migliorare la ricerca, ecc.

Vuoi sapere di più sul deep learning? Leggi qui.

Nella cybersecurity, i ricercatori usano profonde tecniche di apprendimento per automatizzare l'estrazione di set di dati connessi alle minacce.

L’automazione e orchestrazione di sicurezza (SAO), invece, impiegano blocchi di IA per rendere più agevole l’indagine della minaccia ed il conseguente processo di risposta.

L’analisi della sicurezza, infine, utilizzano l’apprendimento automatico per rilevare comportamenti dannosi, per ridurre falsi positivi e per rilevare l'attività persa dalle regole esistenti, o ancora per la rilevazione delle minacce e la caccia alle stesse, filtrando attraverso grandi quantità di dati.

L’utilizzo di questi strumenti deve sempre fare i conti con le prescrizioni del regolamento europeo n. 2016/679 che, sebbene non direttamente, dedica non poche disposizioni alle soluzioni di IA.

GDPR ed intelligenza artificiale

GDPR ed intelligenza artificiale

Il 2018, infatti, è l’anno in cui i temi di cyber security e di intelligenza artificiale, diventano fondamentali per i privati e per le imprese, non potendo più essere relegati a discussione di interesse per pochi specialisti.

Proteggere i propri dati diventerà indispensabile per tutti i cittadini.

Il nuovo Regolamento Europeo sulla Protezione dei Dati Personali (GDPR: General Data Protection Regulation), che sarà efficace dal 25 maggio 2018, costituisce l’esempio più recente e ad alto impatto di come una nuova normativa incida sul modo in cui le organizzazioni devono gestire e usare i dati, e in specifico i dati dei consumatori.

Entro questo termine, tutte le aziende dovranno porre in essere una serie di adempimenti e, se non si adegueranno a quanto previsto dalla normativa, rischieranno sanzioni pari fino al 4% del loro fatturato globale.

Il GDPR pone una particolare attenzione al trattamento automatizzato dei dati personali che possa sfociare in decisioni che sono proprie della macchina e non dell’uomo.

L’art. 22, quindi, ribadisce come principio generale che l'interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida allo stesso modo significativamente sulla sua persona.

Tale disposizione incontra delle eccezioni quando la decisione è necessaria per la conclusione o l'esecuzione di un contratto tra l'interessato e un titolare del trattamento. Oppure quando sia autorizzata dal diritto dell'Unione o degli Stati membri cui è soggetto il titolare del trattamento.

Precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell'interessato, o ancora qualora si basi sul consenso esplicito dell'interessato.

Le soluzioni di IA devono sempre tener conto anche di quanto prescritto dall’art. 24 del GDPR il quale prevede che tenuto conto della natura, del campo di applicazione, del contesto e delle finalità del trattamento, nonché dei rischi di varia probabilità e gravità per i diritti e le libertà delle persone fisiche, il titolare del trattamento mette in atto misure tecniche e organizzative adeguate per garantire, ed essere in grado di dimostrare, che il trattamento dei dati personali è effettuato conformemente al Regolamento.

Dette misure sono riesaminate e aggiornate qualora necessario. Inoltre, se ciò è proporzionato rispetto alle attività di trattamento, le predette misure includono l'attuazione di politiche adeguate in materia di protezione dei dati da parte del titolare del trattamento.

Si tratta del c.d. principio di accountability che si connota di due accezioni fondamentali:

  • In primo luogo, il dar conto all’esterno e in particolare al complesso degli stakeholder, in modo esaustivo e comprensibile, del corretto utilizzo delle risorse e della produzione di risultati in linea con gli scopi istituzionali.
  • In secondo luogo, l’esigenza di introdurre logiche e meccanismi di maggiore responsabilizzazione interna alle aziende e alle reti di aziende relativamente all’impiego di tali risorse e alla produzione dei correlati risultati.

L’accountability investe tutte le operazioni dell’azienda, anche se è nata specificamente con riferimento alle informazioni economico-finanziarie e patrimoniali consuntive.

LEGGI ANCHE: Il GDPR, solamente un costo per le aziende o vera utilità?

Conclusioni

Sarebbe opportuno proporre soluzioni di IA nel settore della cyber security che consentano un approccio immediato a tali tecniche al fine di predisporre un piano ben strutturato per l’utilizzo mirato ed efficiente di strumenti di IA.

Definire e mappare i processi intervenendo laddove esiste una maggiore carenza di risorse umane e minori rischi di violazione nel trattamento dei dati personali.

Identificare e definire l’origine e la tipologia dei dati al fine di consentire un migliore utilizzo delle soluzioni di IA; essere già in grado di conoscere cosa attendersi da soluzioni di IA.

Investire sull’intelligenza artificiale, tuttavia, non significa tagliare fuori del tutto gli esseri umani. L’elemento umano è essenziale allo sviluppo di soluzioni di AI valide nella cyber security.

La capacità di analisi e la conoscenza degli umani è fondamentale per determinare la profondità di una minaccia identificata e per stabilire come reagire a uno specifico scenario, e per essere in grado di fornire un’immagine a più alto livello e lavorare insieme all’IA per trovare la soluzione ottimale.

Matteo Migliore - Fondatore di LEGALDESK

Mettiti in contatto su LinkedIn