E’ passata tanta acqua sotto i ponti e olio negli ingranaggi dalla nascita della parola “Robot”, derivato dal ceco robota (lavoro pesante) e ancor prima dall’antico slavo ecclesiastico rabota (servitù).
E’ cambiato completamente lo scenario, l’innovazione tecnologica ha fatto passi da gigante nella costante rincorsa all’uomo e l’evoluzione dei cosiddetti robot è stata inarrestabile, tant’è che l’opinione pubblica è divisa nel giudicare i robot dei validi aiutanti o una terribile minaccia.
La tesi di entrambe le fazioni assume potere con l’introduzione dell’Intelligenza Artificiale: in questa evoluzione anche la parola “robot” risulta anacronistica e come spesso accade, i confini si assottigliano e i dubbi aumentano.
Negli usi, costumi e abitudini di una società in continuo fermento è fondamentale che la giurisprudenza mantenga il passo dell’innovazione tecnologica.
Il nuovo regolamento europeo per l’Intelligenza Artificiale
Ad aprile 2021 la Commissione Europea ha proposto un Regolamento sull’intelligenza artificiale per garantire la sicurezza e i diritti fondamentali di persone e imprese.
Un colpo al cerchio e uno alla botte: la Commissione ponendo limiti, promette allo stesso tempo di rafforzare l’adozione dell’intelligenza artificiale attraverso ingenti investimenti.
L’obiettivo di questo aggiornamento è accrescere la fiducia degli utenti in questa rivoluzionaria innovazione.
Per ottenere questo risultato occorre che l’intelligenza artificiale sia antropocentrica, sicura, sostenibile, inclusiva e affidabile.
L’approccio sul rischio è la base del nuovo regolamento
Nella creazione del nuovo regolamento la commissione ha deciso di partire da un approccio basato sul rischio, identificando 4 tipologie di rischio:
- Rischio inaccettabile
Il rischio più alto è definito “inaccettabile”: in questo scenario l’intelligenza artificiale rappresenta una chiara minaccia per la sicurezza.
Nel rischio inaccettabile l’intelligenza artificiale manipola il comportamento umano per aggirare il libero arbitrio degli utenti.
Il regolamento in questa situazione di rischio vieta i mezzi di sussistenza e i diritti delle persone.
- Rischio alto
Viene giudicato rischio alto lo scenario in cui l’intelligenza artificiale viene utilizzata in:
- Infrastrutture e situazioni critiche in cui potrebbe essere a rischio la vita o la salute dei cittadini;
- Istruzione e formazione professionale in cui può determinare l’accesso o il percorso di una persona;
- Servizi pubblici e privati essenziali;
- Tutti gli scenari che possono interferire con i diritti fondamentali delle persone;
- Ambito giuridico, nella sfera della giustizia e nei processi democratici;
- Tutti i sistemi di identificazione biometrica remota.
- Rischio limitato
Viene giudicato di rischio limitato lo scenario in cui la trasparenza dei sistemi di intelligenza artificiale potrebbe venire meno.
Rappresentano un esempio emblematico i chatbot: gli utenti devono sempre essere consapevoli che l’interlocutore in realtà è una macchina e decidere di conseguenza se continuare l’interazione o meno.
- Rischio minimo
La gran parte dei sistemi di intelligenza artificiale rientra nella categoria ritenuta di rischio minimo in cui il regolamento non interviene.
In questo scenario la proposta legislativa non impone limiti all’utilizzo di applicazioni basati sull’IA.
Solamente in caso di violazione il rischio viene analizzato e valutato in maniera dettagliata.
Come si valuta la violazione
La violazione deve tenere conto del tipo, della natura e del volume dei dati, della facilità di identificazione delle persone fisiche, della gravità delle conseguenze, delle caratteristiche particolari dell’interessato e/o del titolare del trattamento oltre al numero di persone fisiche interessate.
Possiamo distinguere due tipologie di valutazione di valutazione:
- Valutazione di violazione ipotetica: esaminando in termini generali le possibilità che si verifichi una violazione ai danni dell’interessato.
- Valutazione di violazione effettiva: analizzando il rischio derivante dall’impatto della violazione sulle persone fisiche.