Il Trapano dei Dati

fluid-img

Se ci immaginiamo Michelangelo mentre scolpisce il David, il quadro che con ogni probabilità ci si presenta è quello di un gigantesco parallelepipedo di marmo con il Buonarroti, minuscolo in confronto al pietrone, che dà i primi colpi di scalpello.

Si tratta di un’immagine propriamente sublime, nel senso kantiano del termine. La sua potenza evocativa sta nella smisuratezza del rapporto tra la grandiosità dell’opera e la faticosa misura umana del lavoro. Però, come capita spesso alle cose sublimi, ha un rapporto abbastanza tenue con la realtà.

Il modo in cui Michelangelo lavorava davvero era senz’altro meno sublime ma molto più razionale. Il procedimento era questo: si prendevano due blocchi di argilla, in scala con quello di marmo e dal primo si ricavava il bozzetto dell’opera. Sulla superficie del secondo si tracciava una griglia completa e, confrontando il blocco con il pozzetto, si calcolava quanto si dovesse togliere da ogni quadratino definito dalla griglia. A questo punto, si tornava al marmo, sul quale era stata riportata la griglia e ci si metteva al lavoro. Non con lo scalpello, ma con il trapano.

Stiamo parlando di un attrezzo elementare, a funzionamento manuale, ma che permetteva già due passaggi essenziali nel miglioramento dell’efficienza produttiva. Il primo è la formalizzazione dei passaggi necessari: in qualunque punto del blocco, il lavoro da fare era semplicemente descrivibile in termini di quanto marmo andava tolto. Il secondo è la semplificazione del lavoro: un trapano è uno strumento che può essere usato in un modo solo, per fare buchi e può essere affidato anche a maestranze poco qualificate. Una statua monumentale, quindi, non è l’opera titanica di un uomo solo, ma un progetto geniale e meticoloso, eseguito con il contributo di molti lavoranti.

Questa storia può dirci un paio di cose utili sull’uso di soluzioni basate sulle AI nel lavoro e nella gestione dei processi aziendali. In molti casi, infatti, la scarsa conoscenza dei processi di funzionamento ci restituisce un’immagine mirabolante e quasi titanica: un’entità michelangiolesca, che scolpisce dal blocco dei dati il capolavoro della soluzione perfetta, con sapienza e precisione.

Guardando le cose un po’ più da vicino, invece, si scopre che la situazione è abbastanza diversa, anche se non meno affascinante. Le soluzioni digitali esperte sono dei trapani: gestiscono masse enormi di dati e ne ricavano una forma corrispondente, nelle linee generali, a quello che si cerca. Ciò avviene grazie a un set di istruzioni molto complesso (i quadratini della griglia) ma sulla base di un principio abbastanza semplice (togliere il marmo che non serve). La differenza tra un sistema digitale classico, per esempio un software di gestione, e uno evoluto che usa l’AI riguarda proprio questo aspetto. Nel primo, infatti, il sistema ha bisogno di ricevere istruzioni dettagliate: gli deve essere detto quali blocchetti togliere. Il secondo conosce il procedimento, analizza il bozzetto e disegna i blocchetti da sé.

All’atto pratico, questa differenza ha due conseguenze importanti. La prima è, ovviamente, che un sistema esperto richiede un minor lavoro di progettazione, il che permette all’artista di concentrarsi soprattutto sul bozzetto e quindi di ottimizzare il suo ruolo. La seconda è ancora più importante: dato che si disegna i blocchi da solo, il sistema può elaborarli con la massima precisione, ottenendo un risultato finale molto più sofisticato, che quindi richiede anche un minor lavoro di scalpello. In questo senso, l’innovazione dei sistemi esperti va nella stessa direzione di tutte le precedenti innovazioni tecnologiche: riduce la quantità di lavoro umano necessaria a ottenere il risultato.

Anche il principio è relativamente classico: si tratta di semplificare la complessità. Pensiamo, per esempio, a un sistema che svolge una funzione abbastanza sofisticata, come analizzare una gran quantità di testi e determinare il loro orientamento, il cosiddetto sentiment rispetto a una questione definita. Per esempio, determinare l’opinione generale verso il governo dopo l’annuncio di un provvedimento importante.

In questo caso, la nostra AI prenderà una grande quantità di dati, per esempio tutti i tweet usciti dopo l’annuncio, e analizzerà il contenuto. La prima distinzione da fare è quella tra i messaggi pertinenti (quelli che parlano del provvedimento) e quelli non rilevanti (che parlano d’altro): si toglie il marmo in eccesso. A questo punto, si analizzano i contenuti che restano e li si confrontano con una serie di riferimenti, per esempio una scala di valore positivo o negativo associata ai termini ricorrenti. L’aspetto interessante è che tutto questo avviene in modo ricorsivo: il campione non viene controllato una volta sola ma diverse, ogni volta ritarando i riferimenti sulla base dei risultati, per avere una indicizzazione sempre più precisa. L’altro aspetto significativo è che si tratta di un’operazione complessiva, nel senso ogni iterazione riguarda tutta la massa di dati e che non ha senso valutare se, per esempio, il singolo tweet sia stato analizzato correttamente.

Questo secondo aspetto costituisce un fattore strutturale di riduzione della complessità, dato che i singoli elementi scompaiono nella massa. L’altro fattore, ancora più importante, è impostato a monte, nella funzionalità stessa del processo, o nella domanda a cui deve rispondere. Questa è una cosa che le AI fanno particolarmente bene: gestiscono una mole enorme di dati per restituire, attraverso criteri complessi e adattativi, un risultato immediatamente interpretabile. Per il resto, si passa allo scalpello e qui ci serve, di nuovo, il Buonarroti.

Ma non c’è da preoccuparsi, quello lo abbiamo.