(ricopio temporaneamente questo articolo di WIRED 21.01.2020 a titolo di promemoria poichè appena possibile vorrò scrivere sull’argomento, per me molto importante)

 

Adattare le norme attuali sui prodotti difettosi non sarà semplice, perché lo sviluppo dell’Ai si basa sull’apprendimento, ma è il momento di affrontare il tema

I sistemi di intelligenza artificiale sono sempre più diffusi, anche nella nostra quotidianità: dagli assistenti vocali, ai chatbot; dalla domotica, alle auto a guida autonoma; dalla gestione di attività più ludiche e legate al tempo libero, alla prevenzione delle malattie, alla diagnostica e al supporto negli interventi chirurgici.

La chiave del funzionamento dei sistemi di intelligenza artificiale è l’apprendimento; la chiave dell’apprendimento, sono gli errori: chi non fa, non sbaglia e si sa, sbagliando si impara. Ma cosa succede se un sistema di intelligenza artificiale sbaglia? Chi ne risponde, di chi è la responsabilità dell’errore commesso da un sistema di intelligenza artificiale, con o senza il coinvolgimento dell’uomo?

Come spesso, purtroppo, accade, il diritto non procede di pari passo allo sviluppo tecnologico: manca infatti, a tutt’oggi, una normativa specificamente dedicata ai sistemi di intelligenza artificiale e mancano delle regole che forniscano dei criteri chiari di attribuzione della responsabilità per i danni causati dai sistemi intelligenti.

Il libro bianco sull’intelligenza artificiale

Una delle prime, importanti, spinte all’adozione di regole dedicate all’intelligenza artificiale è stata data dalla Commissione europea lo scorso febbraio, con la pubblicazione del Libro bianco sull’intelligenza artificiale (“Libro bianco”), che si inserisce nella più ampia iniziativa A European Strategy for Data.

La Commissione ha evidenziato, in particolare, la necessità di costruire un ecosistema di eccellenza che possa sostenere, in Europa, lo sviluppo e l’adozione dell’intelligenza artificiale non solo aumentando le sinergie e il coinvolgimento di tutti gli Stati Membri, ma proponendo anche la creazione di veri e propri hub nazionali con l’obiettivo di coordinare l’attività di ricerca e di evitare la frammentazione del mercato interno.

Sempre nel Libro bianco, la Commissione ha sottolineato come un quadro normativo dedicato all’intelligenza artificiale, oltre a cercare di non eccedere nelle prescrizioni ed evitando, quindi, di risultare sproporzionato, non potrà prescindere da: l’intervento e la sorveglianza dell’uomo; la robustezza tecnica e la sicurezza; regole per la riservatezza e la governance dei dati; la trasparenza; la diversità, la non discriminazione e l’equità.

Il nuovo impianto normativo dovrà, in ogni caso, mettere l’uomo al centro e tenere in debita considerazione non solo il c.d. benessere sociale e ambientale, ma anche l’accountability, ovvero la “responsabilizzazione” dei soggetti coinvolti e la loro responsabilità.

L’applicabilità ai sistemi di intelligenza artificiale della normativa sulla responsabilità da prodotto

La problematica della responsabilità è stata esaminata in modo approfondito a livello europeo in più occasioni (tra le più recenti, si può ricordare lo studio Artificial Intelligence and Civil Liability pubblicato a luglio 2020 su richiesta della Commissione giuridica del Parlamento europeo), con l’obiettivo specifico di valutare la concreta applicabilità del quadro normativo già esistente anche ai sistemi di intelligenza artificiale e, in particolare, delle regole sulla sicurezza dei prodotti (Direttiva 2001/95/CE) e sulla responsabilità per danno da prodotti difettosi (Direttiva 85/374/CEE; entrambe le direttive citate sono state recepite, nel nostro ordinamento, con il D.Lgs. 206/2005 – c.d. Codice del Consumo).

La conclusione raggiunta nelle occasioni di studio è stata che la mancanza di soggettività e di capacità giuridica dei sistemi di intelligenza artificiale non preclude l’attribuzione della responsabilità per i danni imputabili ai sistemi intelligenti: infatti, è sempre possibile ricondurla a una persona fisica o a una persona giuridica. La difficoltà è, semmai, come individuare questa persona fisica o giuridica: da un lato, i soggetti coinvolti nel funzionamento dei sistemi di intelligenza artificiale sono molti; dall’altro lato, occorre definire i criteri per attribuire, o assegnare, la responsabilità.

A tal fine, è stata confermata la possibilità di applicare la normativa attualmente in vigore (e, in particolare, la normativa sulla responsabilità da prodotto difettoso), di derivazione comunitaria, anche ai sistemi intelligenti, in quanto tale normativa si pone specificamente come tecnologicamente neutrale e, quindi, deve essere adattabile anche all’intelligenza artificiale.

A queste premesse ha fatto, però, seguito un’analisi dell’adattabilità della normativa sulla responsabilità da prodotto difettoso ai sistemi intelligenti, che ne ha messo in luce le concrete difficoltà applicative, evidenti già dalla definizione di “prodotto difettoso”.

Il difetto, perché dia origine a responsabilità, deve essere pre-esistente alla messa in circolazione del prodotto. Ma i sistemi di intelligenza artificiale sono aperti, sono in continuo sviluppo (anche in via autonoma, prescindendo cioè dall’intervento umano): raccolgono dati, li elaborano e si evolvono e possono, quindi, cambiare anche radicalmente dopo il momento della loro commercializzazione, anche soltanto a seguito degli aggiornamenti che possono essere rilasciati, con l’ovvia conseguenza che un difetto può manifestarsi anche in un momento successivo alla messa in circolazione.

FONTE