Questi mesi di emergenza COVID-19 e lockdown hanno messo in evidenza tutti i limiti dell’intelligenza artificiale. Gli algoritmi non hanno più capito i nostri comportamenti e sono entrati in crisi, del resto non poteva andare altrimenti.
Parlando di tecnologie (in particolare di intelligenza artificiale) ed esseri umani, il discorso finisce spesso col polarizzare l’attenzione verso l’azione delle prime sui secondi: il modo in cui le tecnologie cambiano il mondo, la loro influenza sul modo di vivere delle persone, sui modi di lavorare, di relazionarsi e così via. Tutte considerazioni giuste ed interessanti, che tuttavia adombrano un fatto importante. Le tecnologie non sono indipendenti, ovvero non si costituiscono come enti separati rispetto al mondo che le circonda, ma vivono con questo in simbiosi, formando un sistema. (Ellul 2009; Hui 2016). Se all’interno di questo sistema, algoritmi di machine learning e software di intelligenza artificiale in genere performano piuttosto bene, eventi imprevisti e inediti, come l’attuale crisi pandemica, ci mettono di fronte alla fragilità di questi strumenti. In queste righe viene proposta una lettura del modo in cui il comportamento online delle persone durante la pandemia ha messo in seria difficoltà agli algoritmi e del perché ciò dovrebbe far riflettere sulla generale attitudine verso queste tecnologie.
Come la pandemia di coronavirus ha mandato in confusione gli algoritmi di intelligenza artificiale
Come diversi siti di tecnologia e attualità hanno riportato nelle scorse settimane, l’attuale pandemia ha condizionato l’attività online degli utenti, generando comportamenti insoliti. Ci sono state fluttuazioni importanti negli acquisti, riguardo a tipologia dei beni scelti e alle quantità selezionate, il tutto in una finestra di tempo piuttosto breve. Dopo i primi giorni di lock down, nella maggior parte degli stati europei ed americani i best seller di Amazon erano: carta igienica, disinfettanti per le mani, guanti e mascherine. La cosa non sorprende, chiusi in casa e mediaticamente bombardati da notizie di ricoveri e da servizi sull’urgenza e la necessità dei dispositivi di protezione individuale, gli utenti hanno agito in modo piuttosto lineare. A questo punto però, accade qualcosa di imprevisto, gli algoritmi relativi alle compravendite online reagiscono male alle fluttuazioni, incamerando le nuove informazioni ed agendo di conseguenza. Gli esiti sono fra i più disparati, software antifrode che compulsivamente segnalano attività insolite nei profili degli utenti (come ordinare centinaia di mascherine), algoritmi per gestire rifornimenti di merci che inviano ordini enormi di dispositivi di protezione individuale quando ormai l’interesse si era ormai spostato su altro (per esempio sui prodotti per fare dolci), per non parlare di algoritmi di trading ad alta frequenza, o di consulenza finanziaria, andati in tilt a causa delle notizie apocalittiche riportate sui social.
L’Intelligenza Artificiale non sa gestire gli imprevisti
Molte compagnie hanno dovuto intervenire manualmente, reimpostando i propri algoritmi e gestendo di persona alcuni processi. Semplicemente, le macchine non riuscivano a venire a capo della situazione.
Il motivo è piuttosto semplice, questi programmi sono pensati per gestire autonomamente situazioni inedite, analizzando i dati del momento e facendo ricorso a modelli, basati sullo storico di transazioni tramite il quale sono stati addestrati. Tuttavia rimangono degli strumenti basati sulla regolarità. Lo storico, per quanto vasto, può prevedere solo un certo numero di eventualità e per quanto l’algoritmo sia elastico, non sarà mai in grado di prevedere una situazione del genere.
Rimane tuttavia il problema della scarsità di adattamento, una volta incamerati i nuovi dati gli algoritmi hanno continuato ad operare in modo incoerente. Da un sito che riporta la notizia leggiamo:
si stanno sforzando di interpretare il nostro nuovo stile di vita (traduzione nostra – https://futurism.com/the-byte/pandemic-confused-machine-learning-systems). Ma questo è proprio ciò che gli algoritmi non fanno.
Un algoritmo agisce sui dati a sua disposizione in modo statistico. Abbiamo a che fare con quello che in Intelligenza Artificiale è chiamato problema del frame (Dreyfus 2007). Un software non è in grado, di selezionare le informazioni pertinenti relative ad una certa situazione in autonomia, non è in grado di comprendere che degli acquisti anomali di disinfettante sono collegati ad una situazione particolare, dunque gestisce gli incrementi di vendite conformemente al modello, incrementando gli ordini, come se si trattasse della vendita del nuovo IPhone. Gli algoritmi di machine learning non possono fare niente di simile all’interpretare uno stile di vita. Possono solo aggiornare i propri modelli in base ai nuovi dati ed operare di conseguenza. Per questi sistemi, il mondo è un insieme di informazioni equivalenti e le scelte vengono dunque operate su base formale. Motori di ricerca, pubblicità mirata, calcolo del traffico sul percorso casa-lavoro, viene tutto regolato in questo modo, l’intelligenza artificiale a nostra disposizione funziona così.
Qual è il perimetro entro cui ha senso usare l’Intelligenza Artificiale?
Se da un lato ciò toglie gran parte del fascino che siamo soliti attribuire a queste tecnologie, immaginandole come strumenti all-purpose, dall’altro ci mette di fronte al loro più grande limite. Nelle parole di James Bridle (2019): la computazione proietta un mondo identico al passato.
In questo senso, tutte le transazioni online, le interazioni, gli eventi, vengono ridotti a grandezze numeriche, quantificati e analizzati secondo i metodi delle scienze esatte, ma si tratta ovviamente di approssimazioni. Sebbene i fenomeni sociali, a parità di circostanze, possano manifestare delle regolarità, non è possibile formulare per essi leggi generali come in fisica.
Questi algoritmi sono autonomi, nel loro ambito di competenza, finché le circostanze in cui sono stati implementati non subiscono variazioni sostanziali, ma si rivelano molto fragili in situazioni impreviste o drammatiche. Ciò ci fa comprendere che questi strumenti non dovrebbero sostituire l’essere umano, ma affiancarlo, liberandolo dal lavoro più gravoso, senza però sostituirlo.
È un errore pensare di poter installare un sistema di AI ed andarsene […] molti dei problemi con i modelli si manifestano a causa di compagnie che comprano sistemi di machine-learning senza avere in casa il know-how necessario per mantenerli efficienti. (Rajeev Sharma, global vice president at Pactera Edge – per MIT Technology Review, traduzione nostra. https://www.technologyreview.com/2020/05/11/1001563/covid-pandemic-broken-ai-machine-learning-amazon-retail-fraud-humans-in-the-loop/?utm_source=nextdraft&utm_medium=email)
Liberarci da una visione ingenua dell’intelligenza artificiale come soggetto autonomo è necessario per disporre di questi strumenti in modo più efficace e consapevole, affidando alle tecnologie ciò che possono gestire e mantenendo un controllo responsabile su quello che non dev’essere (e non può essere) automatizzato.
Riferimenti:
Bridle J., 2019. Nuova Era Oscura. Roma, Nero.
Dreyfus H.L. 2007. Why Heideggerian AI failed and how fixing it would require making it more Heideggerian. Artificial Intelligence 171: 1137–1160.
Ellul, J. 2009. Il sistema tecnico. La gabbia delle società contemporanee. Milano, Jaca Book.
Heaven W.D. 2020. Our weird behavior during the pandemic is messing with AI models. https://www.technologyreview.com/2020/05/11/1001563/covid-pandemic-broken-ai-machine-learning-amazon-retail-fraud-humans-in-the-loop/?utm_source=nextdraft&utm_medium=email
Hui, Y. 2016. On the existence of digital objects. Minneapolis, University of Minnesota Press.
Robitzski D., 2020. The pandemic has seriously confused machine learning systems. https://futurism.com/the-byte/pandemic-confused-machine-learning-systems