L’intelligenza artificiale può semplificare la vita di tutti i giorni, ma anche controllarla e in qualche modo influenzarla, per citare solo due casi da ‘rovescio della medaglia’. Studiosi di diverse discipline si interrogano sulle implicazioni etiche del pervasivo impiego di tecniche di intelligenza artificiale. Tra gli esempi più noti c’è l’utilizzo di algoritmi nel mondo dei social media.
Ma gli impieghi del machine learning, cioè di software in grado di ‘apprendere’ analizzando grandi quantità di dati, va molto oltre, come ci spiega Teresa Scantamburlo, post-doc al Dipartimento di Scienze Ambientali, Informatica e Statistica e co-organizzatrice con il professor Marcello Pelillo di un workshop su queste attuali tematiche, sostenuto dalla più importante organizzazione mondiale di tecnologie informatiche e ingegneristiche, la IEEE, che si terrà allo European Centre for Living Technology (anche in streaming) il 16 dicembre, con la partecipazione di ricercatori provenienti da prestigiose università, centri di ricerca e startup europei ed americani.
«L’intelligenza artificiale, e in particolare il machine learning, sta giocando un ruolo decisivo nei social media e più in generale nel fenomeno “big data” – spiega Teresa Scantamburlo - Il machine learning viene oggi utilizzato in moltissimi ambiti: diagnostica, economia, mondo del lavoro, scienze sociali, educazione, politica, giustizia e così via. Il machine learning è così attraente poiché automatizza un’attività basilare: quella di apprendere dall'esperienza per fare previsioni e supportare i processi decisionali, e quanto più la disponibilità dei dati aumenta tanto più la capacità di apprendere in automatico diventa indispensabile».
Facebook e in generale i social media stanno infatti dimostrando a tutti, quotidianamente, da un lato quali siano le potenzialità dell’intelligenza artificiale, dall'altro il peso delle questioni etiche sulle quali vi interrogate come studiosi…
«Non è un caso che proprio nei social media il machine learning sia così ampiamente usato, data la mole di dati che lì si concentra. Ad esempio, viene utilizzato per suggerire le amicizie e contatti, 'capire' lo stato d’animo o le opinioni degli utenti, indirizzare le notizie e le pubblicità agli utenti più 'adatti', eccetera. Il punto è: come valutare questi modelli e le previsioni che da questi derivano? Possiamo accettare queste previsioni acriticamente in un processo decisionale? Come regolamentare l’utilizzo dei dati personali pubblicati liberamente o posseduti dalle grandi aziende del mercato digitale come Google, Facebook o Yahoo?».
Quali le implicazioni nel mondo della conoscenza?
«I big data e le moderne tecniche di analisi automatica, prodotte da machine learning, data mining, computer vision, stanno cambiando radicalmente il modo di generare cultura e fare scienza, il legame tra le discipline e il rapporto tra l’approccio quantitativo e qualitativo allo studio dei fenomeni. Basti pensare all'impatto sul giornalismo e allo sviluppo della computational social science. Da qui sorgono altre domande. Come affrontare questa svolta epistemologica? Quali nuove competenze sarà necessario sviluppare per raccogliere le opportunità della rivoluzione digitale evitando pericolosi riduzionismi e nuove forme ideologiche?».
Può farci degli esempi di questioni etiche che possono emergere nello sviluppo di sistemi di machine learning?
«Oltre alle evidenti questioni di privacy, l’utilizzo pervasivo del machine learning sta iniziando a sollevare questioni etiche e sociali di grande rilievo, come la diffusione della discriminazione sociale. Se un algoritmo di machine learning è affetto da 'bias' (un pregiudizio legato agli assunti di partenza del progettista) o apprende determinate associazioni dai dati generati direttamente dagli utenti (attraverso ricerche in internet, post, moduli compilati online, eccetera) può produrre decisioni più o meno vantaggiose per alcune categorie di popolazione: ad esempio favorire studenti di una certa estrazione sociale nei processi di selezione all'università o indirizzare la ricerca di comportamenti a rischio verso persone appartenenti a particolari gruppi etnici.
Spesso, ad ostacolare l’identificazione di questi rischi vi è l’idea che, a differenza delle decisioni umane, gli algoritmi siano sempre neutri ed obiettivi perché fondati su principi matematici e statistici che niente hanno a che vedere, per esempio, con il colore della pelle o la differenza di genere. In realtà, studi recenti hanno dimostrato che anche gli algoritmi possono essere affetti da fattori umani come pregiudizi, luoghi comuni, errori di valutazione. E questo risultato in fondo non dovrebbe stupire se si considera il fatto che gli algoritmi sono progettati, continuamente 'alimentati' e validati da esseri umani».
Come s'inserisce in questo contesto la ricerca cafoscarina?
«Sta muovendo i suoi primi passi. Lo sforzo principale è quello di guardare ad un campo scientifico e tecnologico, come quello del machine learning, con occhi diversi, ad esempio utilizzando strumenti concettuali delle scienze sociali o della riflessione etica per sviluppare nuovi approcci e nuove linee guida di progettazione. L’organizzazione del workshop con ECLT e IEEE va proprio in questa direzione: raccogliere alcune delle riflessioni attualmente in corso, come il dibattito relativo alla trasparenza degli algoritmi, valorizzando il contributo di diversi campi disciplinari (come l’informatica, le scienze sociali, la filosofia e l’etica) per sostenere lo sviluppo di progetti e collaborazioni che coinvolgano attivamente anche Ca’ Foscari».
Enrico Costa