Intelligenza artificiale e GDPR: l’AI è uno strumento sempre più adottato in tutte le aziende, anche PMI. Ecco una guida pratica per adottare l’AI nella tua azienda in conformità al GDPR.
Intelligenza artificiale e aziende: tutti i vantaggi
L’intelligenza artificiale (IA) è una tecnologia in rapida evoluzione che sta rivoluzionando il modo in cui le aziende operano. È una tecnologia che consente alle macchine di apprendere e di prendere decisioni in modo autonomo, senza la necessità di essere programmate esplicitamente. L’IA può essere utilizzata in una vasta gamma di applicazioni, dalle chatbot ai sistemi di raccomandazione, dai sistemi di sicurezza ai sistemi di gestione dei dati.
Tra gli strumenti AI che le aziende adottano più spesso ci sono:
- chatbot e assistenti virtuali;
- sistemi di raccomandazione;
- sistemi di gestione dei dati e analisi dei dati;
- sistemi di sicurezza e protezione dei dati;
- algoritmi di machine learning e deep learning…
Per quali motivi? Molteplici:
- automatizzare processi ripetitivi;
- migliorare la gestione dei dati e l’analisi dei dati;
- migliorare la customer experience;
- sviluppare nuovi prodotti e servizi;
- migliorare la sicurezza e la protezione dei dati.
A fronte di grandi vantaggi, ci sono dei contro. L’utilizzo dell’IA solleva, infatti, anche questioni relative alla protezione dei dati personali e al rispetto del Regolamento Generale sulla Protezione dei Dati (GDPR).
Potrebbe interessarti > Intelligenza artificiale generativa. Nuove sfide per la protezione dei dati
L’ AI Act affianca il GDPR: i limiti per l’Intelligenza Artificiale
L’AI Act è il primo regolamento europeo, approvato nel Maggio 224, che stabilisce regole armoniche su tutto il territorio dell’UE riguardanti l’intelligenza artificiale. L’esigenza di una normativa tale era sentita da tempo, dato i rischi e l’impatto sociale che queste tecnologie possono comportare.
L’AI ha un approccio basato sul rischio: più l’uso dell’AI è pericoloso, più il divieto è stringente. Sono vietate le attività il cui rischio è “inaccettabile” come il condizionamento psicologico o l’esposizione dei bambini a messaggi pubblicitari ecc…
Attività con rischio elevato o limitato sono permesse, ma entro precisi criteri e limiti. L’impiego dell’intelligenza artificiale per selezione del personale, operazioni di polizia, gestione di infrastrutture critiche, social scoring (affidabilità creditizia ecc…) richiedono una precisa valutazione di conformità, prima dell’impiego.
Indipendentemente dal livello di rischio, trasparenza e informazione restano i due cardini sul quale deve basarsi il rapporto tra utente ed azienda che implementa l’Intelligenza artificiale.
Per saperne di più > La portata dell’ AI Act
AI e GDPR: consigli pratici
Dalla lettura combinata di GDPR e AI Act possiamo ricavare indicazioni pratiche per le PMI che scelgono di adottare strumenti di intelligenza artificiale. Ad esempio, nel caso dell’impiego di sistema AI ad alto rischio, le aziende devono svolgere una DPIA tenendo di conto:
- le istruzioni comunicate dal fornitore;
- l’uso corretto e le finalità previste per l’impiego dell’AI.
In questo caso l’Ai Act introduce anche la cosiddetta FRIA (Fundamental Rights Impact Assessment – la valutazione d’impatto sui diritti fondamentali). Lo scopo della FRIA è quello di valutare gli effetti che un sistema AI ad alto rischio può avere sui diritti fondamentali dei cittadini. All’atto pratico, queste due valutazioni possono essere svolte in contemporanea ma, ricordiamo, sono necessarie solo in caso di impiego di AI ad altro rischio.
Le aziende dovranno comunque analizzare attentamente quali dati “dare in pasto” all’intelligenza artificiale e qui ci dovrà essere sicuramente compatibilità con le finalità per le quali l’utente ci ha prestato il consenso (o quantomeno coerenza).
In breve, consigliamo di:
- definire chiaramente le finalità del trattamento dati, così da essere poi estremamente chiari nei confronti degli utenti;
- eseguire le valutazioni DPIA e FRIA;
- informare chiaramente gli utenti sull’uso dell’intelligenza artificiale, sul come e perché sono usati i dati. Il GDPR impone, nei fatti, che gli utenti siano messi in condizione di comprendere i processi automatizzati che coinvolgeranno i loro dati (e per i quali serve esplicito consenso);
- implementare adeguate misure di sicurezza per la protezione dei dati personali (esempi? Pseudonimizzazione, criptazione, accesso controllato ai dati ecc…);
- formare i dipendenti!! Anche i sistemi di intelligenza artificiale devono essere gestiti. Anche perché sul punto il legislatore è molto chiaro: deve comunque esserci la garanzia di supervisione umana. Chi dovrà gestire questi sistemi, validare i dati di cui i sistemi AI necessitano dovrà formarsi.
Per cominciare: valuta (senza impegno) il livello di conformità della tua azienda alla normativa privacy e al GDPR
Vuoi implementare un sistema che utilizza l’Intelligenza Artificiale nella tua azienda?
Cerchi un esperto privacy a cui affidarti?