Il sistema normativo e giudiziario non riesce ad accompagnare l’evoluzione incessante dei sistemi di intelligenza artificiale.
La questione è semplice da sollevare e comprendere, ma di difficile risoluzione: il danno causato da una macchina diventata indipendente e autonoma grazie al deep learning (capacità di prendere decisioni fondata su esperienza e autoapprendimento) a chi va attribuito?
Innanzitutto va fatta chiarezza sulle responsabilità tirate in ballo dalla questione:
- La responsabilità civile che include la normativa civilistica generale e la normativa sulla responsabilità del produttore;
- La responsabilità penale che include la normativa penalistica generale;
- La tutela della proprietà intellettuale ed industriale che comprende la legge sul diritto d’autore e il codice della proprietà industriale;
- La tutela della privacy, ossia il GDPR ed eventuali provvedimenti settoriali.
Esistono solo tre direttive presenti all’interno del quadro giuridico comunitario che possono essere applicate ai sistemi di AI, con molta fantasia e poca efficacia:
- Direttiva Macchine: disciplina i requisiti di salute e sicurezza imposti in sede di progettazione e costruzione delle macchine;
- 01/95/CE: riguarda la sicurezza generale dei prodotti;
- 94/44/CE: disciplina la vendita e le garanzie dei beni di consumo.
Chi risponde per condotte imprevedibili e/o inevitabili?
L’indipendenza e l’autonomia della macchina costituiscono circostanze idonee a interrompere il nesso causa (condotta del programmatore) - conseguenza (danni provocati dalle macchine).
Quindi chi si assume le responsabilità? Sono 4 i soggetti coinvolti:
- L’autore del software o dell’algoritmo;
- Il produttore della macchina che incorpora sistemi di AI;
- Chi incorpora il sistema AI nella macchina;
- L’utilizzatore della macchina con AI.
I modelli di attribuzione della responsabilità in Italia
Il parlamento italiano nel 2017 ha prospettato due possibili modelli di attribuzione delle responsabilità:
- Responsabilità oggettiva del produttore (Strict liability): occorre una prova del danno causato e l’individuazione del nesso tra causa (funzionamento lesivo della macchina) ed effetto (danno subito);
- Gestione dei rischi: l’attenzione si sposta dalla persona che ha agito con negligenza, alla persona che ha minimizzato i rischi ed è incapace di affrontare l’impatto negativo.
I suggerimenti del parlamento europeo
Secondo il parlamento europeo, sarebbe necessario valutare l’attuazione di alcuni provvedimenti:
- L’istituzione di un regime assicurativo obbligatorio relativo a categorie particolari come i robot self-learning;
- La costituzione di un apposito fondo per garantire al soggetto leso il risarcimento del danno;
- L’immatricolazione individuale dei robot.