Se l’algoritmo sbaglia, chi paga

323
google-tecnologia-algoritmi
Tempo di lettura: 3 minuti

Auto che si guidano da sole, smartphone che ci misurano alcuni parametri del corpo, motori di ricerca sempre più intelligenti, sistemi di produzione totalmente automatizzati, tutto questo è reso possibile grazie all’avanzata delle intelligenze artificiali, degli algoritmi.

Ma se qualcosa va storto, chi paga?

A cercare di far chiarezza è la Prof.ssa Mariachiara Tallacchini, ordinario di filosofia del diritto presso l’Università Cattolica di Piacenza che sta per pubblicare con l’editore Springer il lavoro From Privacy to Algorithms’ Fairness, in IFIP AICT 526 proceedings2017, “Privacy and Identity”. Spiega la Tallacchini “Le ICT ci costringono, da una parte a identificare e costruire nuove forme di responsabilità, a chi e a quali componenti possano essere ascritte le conseguenze di che cosa; dall’altra a ritenere accresciuta la nostra responsabilità nell’uso delle tecnologie”.

Come spesso accade, i benefici che introducono le innovazioni si portano dietro anche molte fasi di “assestamento”, con conseguenti preoccupazioni e dubbi, che tuttavia possono essere affrontati e superati.

“Il digitale sta introducendo una serie di possibilità.  Si tratta, per esempio, della capacità di realizzare forme di conoscenza collettiva come la Citizen science; networks di self-help tra malati, come il caso di pazienti diabetici a rischio di crisi ipoglicemiche che si alleano e aiutano reciprocamente. Ci sono inoltre tecnologie che consentono forme organizzate di solidarietà, di crowdfunding e di filantropia digitale. I possibili risvolti positivi sono numerosissimi e, proprio per la trasversalità del digitale, che si intesse con ogni aspetto della vita, bisogna andare a vedere caso per caso che cosa sta cambiando. Bisogna rivoltare come un calzino il mondo e capire, in contesti e circostanze diversi, quali siano le risorse e i rischi.” chiarisce la prof.ssa Tallacchini.

Nuovi modi di costruire la responsabilità

Un aspetto interessante che sta emergendo nella giurisprudenza a livello nazionale ed europeo riguarda proprio i nuovi modi di costruire le responsabilità, come racconta Tallacchini.

“Un caso interessante è quello della sentenza della Corte di Giustizia dell‘Unione Europea che ha opposto Google all’Autorità per la privacy della Spagna nel 2014. Un imprenditore spagnolo, del cui fallimento aveva scritto un quotidiano locale, ha fatto causa a Google perché a distanza di tempo la notizia  circolava ancora su Internet, anche se nel frattempo l’interessato aveva risanato la propria posizione. La corte europea ha dato ragione all’imprenditore spagnolo, attribuendo la responsabilità, non al giornale locale che inizialmente aveva dato risalto alla notizia, ma a Google che aveva continuato a diffonderla anche dopo che essa aveva perso di interesse.

Un altro caso, deciso nel 2013 dalla Suprema corte civile tedesca (Bundesgerichtshof) ha riguardato la moglie del presidente tedesco Christian Wulff. La signora Wulff  aveva accusato di diffamazione Google per l’algoritmo Autocomplete che, sulla base delle più frequenti parole utilizzate dagli utenti nelle loro ricerche, suggerisce il completamento automatico delle frasi. Nel caso della signora Wulff  l’associazione automatica veniva fatta tra il suo nome e la parola “Whore”(prostituta). Google si è difeso affermando che il funzionamento dell’algoritmo dipendeva interamente dalle parole utilizzate dagli utenti, suggerendo su base stocastica la parola con la probabilità più alta di associazione tra due parole. Ma la corte tedesca ha affermato un diverso concetto di responsabilità, precisando che tutto ciò che entra in Google, anche se generato dagli utenti, diventa una responsabilità di Google, che ne ha il controllo.”

Responsabilità parcellizzata

In alcuni settori, inoltre, il quadro che si sta configurando è quello di una responsabilità parcellizzata, ossia ripartita tra i molti soggetti industriali e commerciali che concorrono alla realizzazione di un sistema autonomo di intelligenza artificiale.

Qui l’esempio chiaro è quello che viene dalle auto a guida autonoma, meglio note come “self-driving cars”.

“La tendenza delle linee-guida che sono state pubblicate, per esempio, ma non solo, dal Dipartimento dei Trasporti statunitense, è di correlare la responsabilità al grado di autonomia del veicolo: ad ogni diverso grado di automazione corrispondono norme di sicurezza, test e responsabilità differenti. I sistemi che interagiscono in una self-driving car sono numerosi e complessi. Hardware e software che governano le componenti e funzioni del veicolo e le fasi di guida corrispondono a diversi attori del mercato, con una precisa ripartizione di responsabilità. Ma poiché questi sistemi sono sempre più integrati, intelligenti e autoapprendenti (algoritmi di machine learning) diventa sempre più pressante capire come e se si possano scorporare i diversi sistemi (e relative responsabilità), e anche come decidere in situazioni problematiche. In caso di incidente, ad esempio, si deve privilegiare la salute del passeggero interno alla macchina o quella del pedone esterno? Per ora si costruiscono diversi livelli di responsabilità in base ai gradi di automazione. Ma i dilemmi etici sono solo all’inizio.”

Ecco come sono numerosi ed in continua evoluzione tutti questi aspetti legali inerenti all’introduzione delle intelligenze artificiali nelle nostre vite.

Abbiamo cominciato a muoverci in un mondo di interazioni ibride tra nuovi soggetti e nuovi oggetti. Dobbiamo soprattutto cercare di mantenere aperta la nostra capacità di porre domande, interrogarci su come, attraverso le nuove realtà che costruiamo, stiamo anche ricostruendo noi stessi e le norme con le quali viviamo in società.

Fonte:
The following two tabs change content below.

Mariachiara Tallacchini

Mariachiara Tallacchini professoressa di Filosofia del Diritto presso la Facoltà di Diritto ed Economia dell’Università Cattolica di Piacenza, è stata dal 2013 al 2015 senior scientist presso JRC-Ispra (European Commission Joint Research Centre) ed è membro del Consiglio Scientifico dell’Istitut des Etudes Avancees di Parigi (IEA) oltre che membro dei comitati etici e scientifici dell’Università degli Studi di Milano e del WWF.

Ultimi post di Mariachiara Tallacchini (vedi tutti)