Algoritmi per un nuovo mondo
16 Settembre 2021[Roberto Paracchini]
Due sono gli elementi che stanno irrompendo fortemente nell’attuale contemporaneità: i big data e l’intelligenza artificiale.
Entrambi hanno a che fare con gli algoritmi, procedimenti matematici di calcolo, a volte semplici come le moltiplicazioni imparate alle scuole elementari, a volte raffinatissimi e che permettono di interpretare la mole immensa di dati di cui noi stessi siamo produttori continui (i big data, appunto) col nostro peregrinare incessante nel web; e di realizzare la costruzione di machine learning (ML), cioè di complessi strumenti matematici che, dopo un periodo di “addestramento”, diventano autonomamente in grado di evolversi imparando dall’esperienza in cui sono immersi.
Già oltre mezzo millennio fa, nel 1494, il matematico amico di Leonardo da Vinci, Luca Pacioli scriveva che “se non sei un bravo contabile vai avanti a tentoni (…) e rischi di subire gravi perdite”. Ritornando all’oggi si potrebbe dire che in questa pandemia, soprattutto all’inizio, i conti col Covid-19 sembravano fatti non certo da bravi contabili. In quel primo periodo spesso si estrapolavano dal discorso scientifico complessivo i risultati parziali (e quindi provvisori) prodotti dai ricercatori su singoli aspetti del virus che, con la complicità di parte dei mass media e dei social più diffusi, diventavano Verità che si contendevano la scena a gomitate con altre Verità. Tutte pseudo-verità ovviamente che han finito però col creare molta confusione e diventare alimento per i dubbiosi del vaccino e carburante per i no-vax “duri e puri” e i numerosi critici del procedere scientifico. La storia della scienza insegna, invece, che il progredire scientifico non ama le Verità scolpite nell’Assoluto ma preferisce di gran lunga i dubbi, fertilizzante indispensabile per i miglioramenti e terapia contro ogni dogma.
Di contro l’interpretazione complessiva dei dati (tra l’altro non adeguatamente raccolti) veniva fatta in modo approssimativo. Eppure il “fronte di propagazione” di una pandemia “sarebbe impossibile da tracciare se non avessimo, giorno dopo giorno, i numeri che la rappresentano e quantificano”, sottolinea Alfio Quarteroni, docente al Politecnico di Milano e al Polytechnique Federale di Losanna, nel suo libro Algoritmi per un nuovo mondo. Quarteroni, premiato dalla NASA per i suoi studi di aerodinamica e insignito della laurea Honoris Causa in Ingegneria navale a Trieste, mantiene anche un rapporto continuo con Cagliari, in particolare col CRS4, il centro di calcolo avanzato fondato dal Nobel Carlo Rubbia, di cui nel 1993 diresse la sezione di matematica applicata.
Sia chiaro, sembra dire il matematico, seguire una pandemia non è affatto facile perché la situazione è sempre dinamica, ma non impossibile. Già un quarto di millennio fa a Parigi Daniel Bernoulli, uno dei padri della moderna teoria delle probabilità, “per perorare la causa della vaccinazione contro il vaiolo, dimostrò che se tutti i francesi si fossero vaccinati, “la speranza di vita generale sarebbe aumentata di oltre tre anni”, cifra importante visto il basso livello di vita media in quel periodo. Diversi anni dopo, nel 1927, gli scozzesi William Kermack e Anderson McKendrick elaborarono un modello matematico che, nella sua struttura, è tutt’ora un punto di riferimento, anche per studiare la pandemia Covid-19. Vediamo.
Individuata la modalità di diffusione (quella aerea per il virus tipo SARS), si suddivide la popolazione, inizialmente, in due categorie: i suscettibili di (che possono quindi) prendere la malattia (S); e coloro che l’hanno già presa, gli infetti (I). Poi capiterà che qualcuno degli infetti si libererà dalla malattia passando così in una terza categoria, quella di chi ha rimosso (R) l’infezione. Termine, quest’ultimo, che individua chi non trasmette più il contagio: o perché completamente guarito, o “perché l’infezione si è rilevata letale”. Infine, lavorando su queste tre categorie (indicate con l’acronico SIR), i due scozzesi “introdussero un parametro fondamentale”, il numero di riproduzione di base, r0, che indica il numero di suscettibili che un infetto può contagiare.
Inizialmente il covid-19 aveva un r0 di 2,5 che può sembrare poco ma che indica una progressione esponenziale visto che ogni infetto può contagiare oltre due persone, ognuna delle quali può infettarne altrettante e così via. Da cui, vista anche la mancanza del tracciamento dei contatti dei singoli contagiati e soprattutto l’allora mancanza dei vaccini, la decisione del lockdown generalizzato.
Ma come mai i numeri diminuiscono e poi risalgono se appena si modifica qualcosa? Perché le pandemie non si muovono in una situazione statica o amorfa come capita ad esempio nella misurazione della deformazione di un’auto lanciata contro un muro. Le pandemie agiscono in un quadro dinamico non deterministico (da A non segue necessariamente B) in quanto condizionato sia dalle variabili esterne (in negativo le varianti del virus; in positivo l’efficacia dei vaccini), che dalle interconnessioni interne. Per i trasporti, ad esempio, occorre conoscere le relazioni di mobilità fra città diverse e fra i quartieri delle singole città, la quantità delle persone che si spostano, il numero e la capienza dei mezzi e le ore in cui ci si sposta, ecc. ecc. Tutti dati difficili da quantificare con esattezza. Quindi? Si prende atto della situazione di incertezza intrinseca, che non si può cioè eliminare del tutto per la dinamicità della situazione. Quadro che implica un processo continuo di calibrazione dei parametri in funzione dei dati, che vanno raccolti sempre con la massima attenzione. Il che significa, precisa Quarteroni, che “sarà saggio allora non aspettarsi previsioni accurate da simili modelli, quanto piuttosto indicazioni verosimili su diversi possibili scenari (dal caso peggiore a quello più ottimistico) all’interno di una banda di oscillazione entro cui si troverà la vera risposta quantitativa”. Scenari che forniscono all’authority “un’informazione utile a prendere decisioni”.
Ora torniamo ai big data iniziali, rilevato che anche nelle pandemie possono essere molto utili, aumentando esponenzialmente la conoscenza delle abitudini degli utenti attraverso l’incrocio della mole di dati prodotto dalla normale vita di ogni persona sempre più interconnessa col web (dalle telefonate agli acquisti, alla navigazione in internet per i motivi più svariati). Questioni che pongono almeno due problemi rilevanti. Il primo, su cui si sta giustamente sviluppando un dibattito, è di carattere etico. Chi immagazzina questi dati sono soprattutto le grandi corporation (da Google ad Amazon, da Microsoft a Facebook, alla Apple) che non solo si impadroniscono del privato di ognuno di noi ma utilizzano i nostri dati e le immense conoscenze che producono su di noi per specularvi commercialmente.
Che fare quindi? Eliminare la possibilità di raccolta di questi dati che potrebbero però esserci molto utili aiutandoci, ad esempio, nella scelta della professione più adatta e in tante altre piccole cose in grado di renderci più felici e più sani, come nel caso di una pandemia? Oppure “impedire che questi strumenti di conoscenza restino esclusivamente nelle mani di altri (e non nostre)”? Quarteroni propone quella che chiama la “trasparenza algoritmica” che potrebbe imporre che “le volontà e le decisioni nascoste in ciascun algoritmo” impiegato dalle corporation accennate, siano chiare ed esplicite”, da un lato e che “chi processa i nostri dati per creare conoscenza su noi stessi sia legalmente costretto a restituirci tale conoscenza”, dall’altro.
Conoscenza che, collegando il discorso al secondo problema sollevato dai big data, si allaccia anche alla machine learning (ML), uno degli aspetti centrali delle attuali ricerche sull’intelligenza artificiale. Assieme (big data e ML) pongono infatti una rilevante questione di carattere epistemologico. In generale e schematizzando si può dire che oggi è la teoria che muove l’analisi dei dati, ma nel quadro sopra accennato è anche la mole enorme dei dati ad essere in grado di modificare l’angolatura teorica con cui li si osserva proprio perché svela aspetti prima sconosciuti. Con in più il fatto che l’impianto teorico di ogni ML cresce e si modifica (pur partendo da un addestramento iniziale) autonomamente proprio grazie alle nuove esperienze, ovvero all’immissione di nuovi dati. Il che non significa affatto, sia chiaro, che i modelli che si basano sulle leggi teoriche classiche debbano essere messe nel cassetto, ma che vi sarà sempre più un proficuo scambio tra i modelli e i big data.
In meno di cento pagine, infine, il bel libro Algoritmi per un nuovo mondo non solo spiega chiaramente problemi complessi, ma apre riflessioni determinanti nel mondo della conoscenza.