Difficile capire se il rischio che stiamo correndo con l’Intelligenza artificiale sia simile a quello imposto in antichità agli ingegneri romani, che in quanto garanti di buon lavoro, il giorno dell’inaugurazione stavano sotto i ponti progettati.
Sicuramente non può mettere di buon umore la recente pubblicazione di Nature Machine Intelligence che ha rivelato come l’AI possa sviluppare in appena sei ore 40.000 molecole potenzialmente letali per gli esseri umani.
AI e privacy: un rapporto delicato per 5 motivi
L’intelligenza artificiale è la simulazione dei processi di intelligenza umana da parte delle macchine, in particolare dei sistemi informatici.
L’AI permette alle macchine di apprendere dall’esperienza acquisita, di adattarsi alle nuove informazioni che ricevono e di compiere operazioni simili a quelle che l’essere umano svolge.
Per questo motivo il protagonista involontario di questa tecnologia è la privacy: affidando ai dispositivi tecnologici i nostri dati personali, questi possono utilizzarli nella maniera che ritengono più utile.
Sono 5 i principali temi irrisolti che complicano il rapporto tra GDPR e intelligenza artificiale:
La chiarezza dei ruoli nella privacy
In un trattamento i soggetti coinvolti sono 3: il proprietario, chi riceve il consenso e le terze parti interessate ai dati.
L’intelligenza artificiale in questo caso è il quarto incomodo non previsto dal regolamento, l’unico soggetto in cui diritti e doveri non sono esplicitati.
Il GDPR prevede che il titolare o responsabili garantisca il rispetto del regolamento. Nel caso di uso di AI chi ricopre questo ruolo?
Un quesito che ha diviso l’opinione pubblica: chi vorrebbe rendere l’AI una persona giuridica e quindi responsabile e chi invece sostiene che il responsabile diventi automaticamente l’interessato in quanto proprietario dei dati.
Le finalità del trattamento dei dati
Nell’evoluzione, nella crescita e nell’adattamento dell’Intelligenza artificiale, le finalità del trattamento definite in maniera limitata e predeterminata potrebbero venire meno.
Modificando il proprio comportamento in base al contesto l’AI potrebbe trattare i dati raccolti per scopi differenti da quelli stabiliti a priori, venendo meno a un principio fondamentale del GDPR che impone la comunicazione ai soggetti coinvolti
Il controllo del processo automatizzato
Il soggetto interessato non può subire decisioni basate unicamente sul trattamento automatizzato: lo sostiene l’articolo 22 del GDPR.
Eppure lo studio The impact of the General Data Protection Regulation (GDPR) on artificial intelligence la maggior parte delle decisioni prese dai sistemi di intelligenza artificiale sono basate solamente sul trattamento automatizzato.
Il controllo così come l’intervento diventano molto complicati per l’assenza di informazioni da parte dei soggetti coinvolti, garantendo eccessivo potere, imprevedibilità e pericolosità nel trattamento dei dati sensibili.
La comunicazione tra i soggetti
Anche in questo caso uno dei principali vantaggi dell’intelligenza artificiale (la deduzione) diventa un limite se rapportato al GDPR.
L’articolo 13 del Nuovo Regolamento prevede la comunicazione del titolare al soggetto interessato che decide quali dati personali condividere e in che modo.
L’AI è in grado di dedurre molte più informazioni di quelle volontariamente e direttamente condivise dai soggetti coinvolti, non sempre utili al trattamento.
La necessarietà del dato raccolto
Il gancio perfetto per un altro possibile ostacolo che porta il numero 6 dell’articolo GDPR e recita: “oltre alle finalità definite nell’informativa, il trattamento dei dati può avvenire nel caso in cui sia strettamente necessario”.
Difficile (e irreale) delegare tale valutazione al giudizio dei dispositivi dotati di intelligenza artificiale.
Secondo le persone GDPR e AI possono convivere?
I consumatori temono gli usi che possono essere fatti delle loro informazioni grazie all'intelligenza artificiale e gli abusi hanno eroso la loro fiducia: questo è quanto emerge dal Cisco 2021 Consumer Privacy Survey.
Le risposte di 2600 adulti di 12 Paesi diversi hanno evidenziato il desiderio di conoscere le informazioni raccolte, le finalità e le modalità di elaborazione.
L’Intelligenza artificiale non è l’ancora di salvezza, anzi, probabilmente viene interpretata come la zavorra in grado di far affondare anche gli ultimi spiragli di fiducia: il 56% degli intervistati ha espresso preoccupazione sull’utilizzo delle informazioni personali che vengono raccolte e gestite da sistemi basati sull’intelligenza artificiale.
“L’IA è uno strumento che, dato un input, restituisce un output - fa notare Negroni, country leader della cybersecurity per Cisco Italia a Italian Tech - una tecnologia che permette di analizzare informazioni in modo più veloce di quanto farebbe l’uomo e che per il consumatore potrebbe risultare invasiva”.