Pagine

sabato 26 aprile 2025

A passeggio con l’informatica #29 – Come affrontare la trasformazione digitale

di Enrico Nardelli

Abbiamo discusso nel precedente post la necessità di un diverso punto di vista sulla trasformazione digitale, riflettendo sul fatto che l’automazione dell’informatica equivale a sostituire le persone con “macchine cognitive”, che però non hanno la flessibilità e adattabilità di quelle.

Ignorare questo aspetto ha portato e sta portando ai tanti fallimenti in cui vediamo periodicamente incappare i sistemi informatici. Ecco cosa invece dovremmo fare.

Il tradizionale flusso di acquisizione di servizi e prodotti informatici prevede una fase iniziale di definizione dei requisiti del servizio/prodotto necessario con la scrittura di specifiche di dettaglio, a fronte delle quali i potenziali fornitori propongono offerte. La migliore (con criteri basati sul costo e sulla valutazione tecnica, che sono molto rigidi nelle procedure di acquisto della Pubblica Amministrazione e più flessibili nelle aziende private) vince e il contraente inizia a realizzare quanto richiesto. Al termine, se il servizio/prodotto supera i test finali, si entra nella fase operativa.

Quali sono le conseguenze dell’attuale approccio? La triste realtà è che i programmi di sviluppo che prevedono la realizzazione di componenti software sono sempre quelli in maggior ritardo e con i maggiori sforamenti di costi. Periodicamente, le riviste del settore elencano i disastri più eclatanti che si sono verificati nello sviluppo di sistemi informatici: ecco un’analisi di quanto accaduto solo nel 2024. Nel 2018, il direttore della Divisione Acquisti del Ministero della Difesa USA (il Department of Defense), Will Roper, aveva dichiarato che il sistema di acquisizione tradizionale usato per decenni per comprare navi e aeroplani, non poteva funzionare per il software perché «un sistema software non è mai finito, è un processo continuo».

Le aziende informatiche più innovative al mondo hanno da tempo capito che questo metodo non funziona. Se gli utenti vedono il software solo alla fine, è altamente probabile che non solo i requisiti inizialmente definiti non saranno stati soddisfatti, ma anche che ciò di cui hanno bisogno è nel frattempo cambiato. Dalla collaborazione tra il mondo della ricerca e quello dell’industria è emerso, proprio all’inizio del XXI secolo, un approccio radicalmente diverso allo sviluppo del software, l’approccio cosiddetto “agile” (anche in inglese il termine è lo stesso, solo pronunciato diversamente), che è quello appunto usato dalle aziende informatiche all’avanguardia, perché consente loro di sviluppare servizi/prodotti di successo.

D’altro canto, se ci pensate bene, questo è quello che vediamo nelle App che tutti noi usiamo ogni giorno. A noi sembrano sempre le stesse, ma dietro la facciata c’è un lavorìo continuo di aggiornamento ed evoluzione. Come accade con le persone che, dietro la facciata di un’organizzazione, ci forniscono i suoi servizi. Si evolvono al cambiare delle condizioni di contesto o in funzione di un’eventuale cambiamento deciso dalla direzione. I sistemi informatici – in misura largamente maggiore rispetto ad ogni altro sistema costruito dall’uomo – sono sistemi in continuo adattamento, per il quale il ruolo dell’essere umano continua a essere essenziale. Ciò è vero nonostante gli impressionanti avanzamenti dell’intelligenza artificiale e fintanto che vogliamo che continui a esistere una società di persone e non di macchine. Come scrissi nel 2010, per la 6a edizione del convegno europeo di informatica (ECSS) a proposito dello sviluppo dei sistemi informatici: «la manutenzione è la vera implementazione».

Da un punto di vista procedurale, l’acquisizione di sistemi informatici non dovrà più, quindi, essere basata sulla definizione iniziale di tutti i requisiti, ma andrà individuato un ristretto insieme di obiettivi e casi d’u­so iniziali, sui quali un piccolo gruppo congiunto di sviluppatori e utenti inizierà a lavorare con il compito di produrre un primo nucleo funzionante nel giro di qualche settimana. Da lì in avanti si continua con questo approccio iterativo, che è appunto quello definito “agile”, imparando costantemente da successi ed errori sul campo e aggiustando il tiro in funzione dell’evolversi degli scenari.

È un cambiamento epocale se si considera l’acquisizione di un sistema software alla stregua di un qualunque altro prodotto. È la soluzione naturale, se la guardiamo nell’ottica dell’acquisizione di personale.

Mentre questo nuovo paradigma di acquisizione può più agevolmente essere adottato da enti privati, purché chi le guida abbia maturato questa visione culturale dell’automazione informatica, la sua introduzione nel contesto della Pubblica Amministrazione (PA) richiede una sintonia con il contesto legale di riferimento. Sarà quindi necessario cambiare l’intero apparato regolamentare che disciplina le procedure con le quali la PA acquisisce sistemi informatici. Qui è necessario uno sforzo fortemente interdisciplinare, perché vanno mobilitate tutte le competenze che entrano in gioco in questo processo: giuridiche, documentarie, informatiche, gestionali, psicologiche, sotto la guida – va da sé – di una politica che deve farsi carico in prima persona della gestione di tali problematiche.

E proprio al ruolo che deve svolgere la politica per governare l’uso dell’informatica nello sviluppo della società, ruolo necessario e insostituibile, che dedicheremo l’ultimo tratto di questa passeggiata.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 23 aprile 2025.

martedì 22 aprile 2025

Tutti i nodi (dell'IA) vengono al pettine

di Enrico Nardelli

Scrivevo a marzo del 2023, quando tutto il mondo stava cominciando a parlare delle impressionanti capacità di ChatGPT, il primo strumento di intelligenza artificiale generativa (IAG) noto al grande pubblico, e si diffondeva su tutti i mezzi di comunicazione la profezia che l’intelligenza artificiale (IA) avrebbe sostituito la gran parte dei lavoratori, questa frase: «In altre parole, se non sapete già la risposta corretta, ciò che vi dice tale sistema rischia di non essere di alcun aiuto». Due settimane dopo aggiungevo: «poiché ciò che fanno lo esprimono in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi».

Il motivo risiedeva, molto semplicemente, nel modo in cui questi sistemi (tecnicamente definiti Large Language Models, cioè modelli linguistici di grandi dimensioni – LLM) funzionano: usando un modello probabilistico del linguaggio, assai sofisticato e messo a punto attraverso una sterminata base di testi, che contiene statistiche sulle continuazioni più plausibili di sequenze di parole e di frasi. Questa caratteristica permette loro di esibire prestazioni linguistiche impressionanti, di quelle che quando sono esplicitate da esseri umani vengono considerate intelligenti, ma che in realtà non sono tali. Cioè, esibire competenza sulle parole che descrivono il mondo non equivale ad avere competenza sul mondo. Ma poiché il cervello degli esseri umani è configurato in modo tale da vedere un significato in configurazioni del tutto arbitrarie, proiettavamo su tali strumenti l’intelligenza che risiede in noi.

Dal momento che già allora gli interessi economici messi in gioco sull’IAG erano enormi (e da allora centinaia di miliardi di dollari hanno continuato ad essere investiti in questo settore), si è però continuato a raccontare la stessa storia, che a breve l’intelligenza artificiale sarebbe stata in grado di fornire prestazioni umane in tutti i settori. Come al solito, mentre la massa continuava a seguire il pifferaio magico, esperti ben più quotati di me invitavano alla cautela. Io ne ho scritto diverse volte, qui e qui a proposito di scuola, qui e qui a proposito delle relazioni sociali, e qui a proposito del termine in sé, ricordando che questi sistemi producono espressioni che per noi hanno un significato perché proiettiamo su di essi quella comprensione del significato che in realtà è dentro di noi. Di conseguenza non avremmo potuto farci affidamento per sostituire le persone. Pian piano questo sta emergendo – anche se in forma per ora cauta – dalle stesse parole dei CEO e chief scientist delle aziende all’avanguardia in questo settore e degli investitori nel settore della tecnologica, e sembra proprio che il 2025 sarà l’anno in cui anche questa bolla si sgonfierà.

All’inizio di questo mese, Andriy Burkov (ricercatore esperto nell’apprendimento automatico e autore di volumi di successo sull’apprendimento automatico – la tecnica alla base degli LLM) ha commentato su X una serie di post che evidenziavano le terribili prestazioni degli LLM nel ragionamento matematico con queste parole «Solo se tu già conosci la risposta corretta o ne sai abbastanza per riconoscerne una scorretta (cioè, sei un esperto del settore) li puoi usare per qualcosa». Sostanzialmente, le stesse parole che avevo usato io nel post ricordato in apertura.

Pochi giorni dopo Brad Delong (professore di economia all’università della California a Berkeley) in un post sul suo blog ha scritto «Se il tuo LLM ti fa venire in mente che abbia un cervello, è solo perché stai facendo una proiezione non perché sta pensando». Anche in questo caso, sono sostanzialmente le stesse parole usate da me due anni fa.

Fa ovviamente piacere avere conferme delle proprie intuizioni, ma soprattutto è interessante vedere che, come ho detto con diverse parole nel titolo, la consapevolezza che questo nuovo imperatore non abbia poi dei vestiti così belli si sta pian piano diffondendo in tutto il mondo.

Attenzione, questo non vuol dire che gli strumenti di IAG siano inutili. Al contrario, essi sono utilissimi, se li usi come bruta forza lavoro in un settore che conosci bene, avendo contezza della loro incapacità di comprensione. Sono degli amplificatori delle nostre capacità cognitive, come le macchine industriali lo sono delle nostre capacità fisiche. Ma come in quel caso, se non le sai usare, rischi di fare dei disastri. Mettersi alla guida di un aeroplano senza preparazione non ti farà volare sopra i mari come un uccello ma, più probabilmente, ti porterà a una brutta fine. Usare l’IAG in un settore che non si conosce espone agli stessi rischi. Se padroneggi la materia, invece, puoi in molti casi – ma non tutti! – lavorare più veloce, purché continui a fare attenzione a ciò che essa ti propone.

Una recente indagine sul futuro della ricerca nell’IA, svolta dall’Associazione per l'Avanzamento dell’Intelligenza Artificale tra gli esperti del settore, ha rilevato che il 76% ritiene “improbabile” o “molto improbabile” che gli LLM condurranno a quella che si chiama “intelligenza artificiale generale”. Saranno certamente necessari metodi diversi, che non usano solo un approccio di tipo statistico, come accade con gli attuali LLM, ma che adottano anche un approccio di tipo “simbolico” (che è poi quello che veniva usato nel settore dell’intelligenza artificiale prima dell’esplosione delle tecniche di apprendimento automatico) integrando quindi diverse tecniche.

Insomma, il futuro di questa tecnologia è certamente interessante, purché manteniamo la consapevolezza che, adesso come millenni fa, è necessario perseguire un’aurea mediocritas, seguire la via di mezzo.

--
Versione originale pubblicata su "StartMAG" il 19 aprile 2025.

sabato 19 aprile 2025

A passeggio con l’informatica #28 – La trasformazione digitale ha bisogno di un altro punto di vista

di Enrico Nardelli

Negli ultimi post stiamo discutendo vari aspetti delle relazioni tra informatica e mondo del lavoro, riflettendo dapprima sulla necessità di una maturazione a livello culturale basata sull’insegnamento dell’informatica fin dalla scuola dell’obbligo, poi sul ruolo giocato dall’informatica nell’aumento di produttività e infine su come, per la gente comune, sia necessario sviluppare sistemi informatici trasparenti e facili da usare. Affrontiamo adesso il tema di una corretta visione di quella che chiamiamo “trasformazione digitale” e che non è niente altro che automazione informatica.

Tipicamente, infatti, un’organizzazione acquisisce un sistema informatico per rimpiazzare, mediante un sistema automatico, facoltà cognitive precedentemente esplicate da una o più persone. Si individuano le funzioni da automatizzare, che vengono sostituite da un sistema informatico, cioè una “macchina cognitiva”, che è la corrispondente, nella società digitale, alla macchina tradizionale della società industriale.

Questa sostituzione, come ogni automazione, avviene per migliorare la produttività, cioè aumentare l’output o diminuire i costi o entrambe le cose. Fin qui niente di male: l’automazione del lavoro è da secoli il fattore chiave che assicura un costante aumento di produttività. Aver acquisito un sistema informatico vuol dire quindi aver sostituito a una o più persone una o più “macchine cognitive”. Ma queste, senza capacità di adattamento, non sono in grado di evolversi per far fronte al mutare delle condizioni di contesto. Per questo l’acquisizione o lo sviluppo di un qualunque applicazione informatica deve seguire un percorso diverso.

È necessario cambiare prima di tutto il paradigma mentale con cui si affronta l’auto­mazione informatica. Ogni organizzazione sa bene, quando assume un economista, un ingegnere, un legale o un contabile, che ciò che sa fare quella persona all’inizio non rimarrà immutato nel tempo, ma si evolverà, perché la persona imparerà sul campo tutta una serie di dettagli rilevanti per l’organizzazione stessa e adatterà il proprio comportamento man mano che il suo scenario operativo si evolve. All’inizio sotto la guida del suo responsabile, e poi sempre con maggiore grado di autonomia. Se una parte di questo lavoro cognitivo viene trasferito a sistemi informatici, vengono meno questa flessibilità e capacità di evoluzione, che sono specifiche e caratterizzanti gli esseri umani. Non capire questo punto di vista vuol dire continuare a sprecare soldi con lo sviluppo di sistemi informatici.

Prima di informatizzare un processo lavorativo bisogna averlo analizzato in profondità e aver compreso come la sua automazione impatti sull’or­ganizzazione del lavoro, sui rapporti di potere interni e su quelli esterni. Quando si pensa di poter esternalizzare i servizi informatici, risparmiando sul personale, si finisce sempre per scoprire che si è speso di più per adattare questi servizi portati fuori dall’organizzazione ad ogni minimo cambiamento della realtà circostante, modifiche che un informatico impiegato all’interno avrebbe saputo gestire in una frazione del tempo.

Purtroppo non riusciamo ancora a costruire sistemi per la trasformazione di informazione e conoscenza con un livello di affidabilità, prevedibilità e sicurezza comparabile con quello che offrono i tradizionali manufatti ingegneristici. Stiamo ancora al livello della costruzione delle cattedrali medievali, con la differenza che se crollava una cattedrale c'erano meno conseguenze sulla società del crollo di un sistema informatico, data la quasi totale dipendenza che abbiamo dal loro buon funzionamento. Non sappiamo ancora costruire sistemi che abbiano una comprensione semantica della realtà e dei suoi cambiamenti al livello di un bambino della scuola elementare, nonostante quanto ci appaia dall’interazione con i sistemi di intelligenza artificiale generativa (IAG). Sempre più frequentemente, gli strumenti digitali che usiamo quotidianamente si trasformano in meccanismi per controllare e registrare ciò che diciamo e facciamo, per poi trasformare questi dati in occasioni di enorme profitto per pochi, lasciandoci briciole di utilità personale. Insomma l’informatica che potrebbe e dovrebbe essere usata per farci stare meglio, diventa strumento di oppressione e di stress.

L’ap­proccio quindi da usare è considerare un processo di trasformazione digitale come l’acquisizione di una certa quantità di persone con certe competenze di base. Nessun selezionatore del personale si aspetta di trovare sempre “il candidato perfetto”, perché questa non è affatto la norma. Si cerca di trovare una persona col profilo sufficientemente buono per poter “scendere in campo” con efficacia e poi, da lì, evolversi.

Con i sistemi informatici da realizzare per la trasformazione digitale bisogna adottare lo stesso approccio. Il che non vuol dire prendere il primo sistema che capita, ma far diventare parte del processo di acquisizione lo sviluppo incrementale e co-costru­ito (da utenti e sviluppatori, da committenti e fornitori) del sistema stesso. Esattamente come accade con i dipendenti. Tutti coloro che si occupano di queste problematiche sanno quanto sia complicato l’inserimento di una squadra di 10 dipendenti in un gruppo di 100, tanto più quanto maggiore è la componente cognitiva e non fisica delle attività svolte nell’organizzazione. Quando si digitalizza un processo aziendale si sta facendo sostanzialmente la stessa cosa. Perché dovremmo procedere in modo diverso? Se lo facciamo è perché non abbiamo capito che quella informatica è un’automazione radicalmente diversa da ogni altra e che richiede un altro approccio.

Lo approfondiremo nel prossimo articolo.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 16 aprile 2025.

sabato 12 aprile 2025

A passeggio con l’informatica #27 – Nessuna digitalizzazione senza rappresentazione

di Enrico Nardelli

Abbiamo discusso nel precedente articolo come l’informatica sia stata una componente essenziale per ottenere l’aumento di produttività che abbiamo visto negli ultimi 30-40 anni ma come gran parte di questo beneficio non sia ricaduto sui lavoratori. In questo post affronto cosa è accaduto nel nostro quotidiano.

Nel corso dei secoli passati abbiamo assistito a un parallelo avanzamento di cambiamenti sociali e automazione, che hanno reso certi aspetti della nostra esistenza più comodi e hanno consentito a molti di migliorare le loro condizioni di vita.

Consideriamo anche soltanto la vita domestica (ma ragionamenti analoghi si possono fare per quella lavorativa). Fino a metà del XX secolo nella famiglia di un membro della classe professionale media c'erano comunque un certo numero di domestici, addetti a tutta una serie di attività che vanno comunque espletate in una famiglia. Fino alla diffusione del telefono (che inizia a cavallo tra l'Ottocento e il Novecento) anche comunicare qualcosa a un parente poco distante richiedeva una visita o l'invio di un messaggero. Il numero dei servitori variava ovviamente in funzione del reddito del capofamiglia (quasi sempre l'uomo) e tutti rispondevano a sua moglie, a tutti gli effetti un vero e proprio manager aziendale. (Sarà per questo che le start-up guidate da donne sono più redditizie di quando a guidarle sono gli uomini?)

Il Novecento è il secolo in cui l'automazione cresce in maniera sempre più esplosiva, con gli elettro-domestici che soppiantano quelli in carne e ossa e consentono l'affrancamento della donna dalla cura della casa. Non tutto va bene fin da subito, dal momento che una lavatrice è solo un pezzo di ferro infinitamente più stupido di un domestico in grado di lavare i panni secondo le direttive della padrona di casa applicate in modo flessibile dalla sua intelligenza. Però, da un lato lo sforzo delle aziende nel produrre apparecchi comprensibili e facili da usare, dall'altro l'adattamento delle persone nell'usare tali dispositivi per quello che sono in grado di realizzare, fanno sì che effettivamente molte "diavolerie tecnologiche" rendono oggi più comode tante attività e hanno dato la possibilità, a persone che un tempo sarebbero state servitori a vita, di costruire per loro e per le loro famiglie un’esistenza più gratificante.

Con l'avvento dell'automazione elettronica, che diventa ben presto automazione digitale, la tendenza si inverte. Il problema è che le macchine iniziano a operare in un contesto caratterizzato dalla percezione del mondo esterno e dalla decisione basata sulla sua interpretazione, situazione difficilmente governabile se non si ha l'intelligenza umana, a meno di operare in settori molto ristretti. L'automazione industriale, infatti, dagli anni ‘80 in avanti fa progressi da gigante: pensate soltanto a come molti processi produttivi siano ormai completamente robotizzati. Noi, invece, ricordiamo bene che in quel periodo nelle nostre case lottiamo contro un video registratore che non ne vuol sapere di registrare il nostro programma preferito.

Poi arriva l'informatica personale, pian piano inserita in tutti i dispositivi, dagli elettrodomestici ai cellulari, e in tutti i servizi, dalle banche agli sportelli della Pubblica Amministrazione.

E qui si celebra il grande tradimento.

Le persone sono lasciate in balìa di meccanismi mostruosamente complicati, che non mostrano alcun segno del loro stato interno e non offrono alcuna possibilità di capire cosa stia succedendo. Sono costrette a seguire come burattini liste di azioni incomprensibili, che attuano religiosamente sperando di non sbagliare, mentre i più superstiziosi le accompagnano con gesti apotropaici ("non si sa mai!"). Come risultato ci troviamo trasformati, noi che dovremmo essere i signori e padroni delle macchine, in schiavi senza via di fuga.

Non si è capito che, a fronte di una rivoluzione di portata ben più drammatica, dal punto di vista sociale, di quelle causate dalla televisione o dall’automobile, andava fatto partire un serio programma di alfabetizzazione informatica degli italiani. Si sono riempiti convegni su convegni sul tema “Non è mai troppo tardi 2.0”, dicendo che si sarebbero diffuse le competenze digitali in tutta la società, ma senza investire risorse reali su questa istruzione, ritenendo che tanto tutte le informazioni necessarie fossero disponibili sulla Rete. E si è proseguito come se niente fosse sulla strada di questa automazione.

Ritengo invece che un requisito necessario per il successo di ogni trasformazione digitale sia: “no digitalization without end-user representation”. L’ho scritto in inglese per richiamare in modo esplicito uno dei motti del Settecento che sono stati alla base della rivoluzione delle colonie inglesi contro la madrepatria: “no taxation without representation”. Nel nostro caso vuol dire che se non si coinvolge l’utente finale, che sul web è chiunque, dal letterato all’operaio, entrambi accomunati dall’essere stati investiti da una rivoluzione tecnologica avvenuta troppo in fretta perché potessero assimilarla, il sistema funziona male. Son sicuro che ognuno di noi ha il suo esempio favorito di sito web che richiede un enorme dose di pazienza e autocontrollo per riuscire a portare a termine operazioni che, parlando con un addetto allo sportello, si sarebbero completate in metà del tempo e stress nullo.

Si è poi proseguito elaborando bellissimi piani per la “cosa” digitale, dove “cosa” poteva essere “scuola” o “sanità” o “giustizia” (o qualunque nome di interesse per il governo di turno) senza riflettere che un cambiamento epocale di questo tipo non si attua in poco tempo, perché richiede un’approfondita formazione delle persone. Solo nei film di “Matrix” ci si innesta l’apposita cartuccia e si diventa subito esperti: gli esseri umani hanno invece bisogno di tempo per apprendere, soprattutto se contemporaneamente stanno continuando a fare il loro lavoro e vivere la loro vita.

Adesso, come ricordavo nel precedente articolo, dovremmo riuscire a inserire l’informatica fra le materie insegnate nell’istruzione obbligatoria. In ogni caso, il principio fondamentale che l’automazione informatica deve essere prima di tutto al servizio degli utenti finali dovrebbe essere affermato in modo ben chiaro nelle premesse di ogni documento istituzionale che si occupa della cosiddetta trasformazione digitale: «NESSUNA DIGITALIZZAZIONE SENZA RAPPRESENTAZIONE».

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 9 aprile 2025.

sabato 5 aprile 2025

A passeggio con l’informatica #26 – L'informatica fa crescere?

di Enrico Nardelli

Abbiamo discusso nel precedente articolo come l’automazione portata dall’informatica nel mondo del lavoro abbia bisogno, per sviluppare appieno il suo potenziale, di un’adeguata preparazione delle persone. Questo è vero soprattutto per un Paese come l’Italia, che ha tantissime nicchie produttive di eccellenza, alle quali l’informatica può consentire un incremento di produttività mantenendo elevati livelli di flessibilità e adattabilità.

Come discusso nei quattro articoli a partire da questo, il problema è prima di tutto culturale, perché la tecnologia informatica è diversa da tutte le altre che l’hanno preceduta. Essa realizza “macchine cognitive”, cioè amplificatori delle capacità cognitive razionali delle persone e quindi radicalmente differenti da tutte le macchine precedentemente realizzate dall’uomo, che ne potenziano solo le capacità fisiche. Dopo secoli di progresso tecnologico, questa rivoluzione è dilagata nella società nel breve intervallo di un ventennio, quindi troppo velocemente perché la classe dirigente riuscisse a comprenderne la portata.

È però necessario capire che le capacità e le opportunità dell’informatica diventano davvero un fattore utile per costruire un vantaggio competitivo non quando le soluzioni vengono comprate chiavi in mano e calate dall’alto, ma quando vengono sviluppate e fatte crescere all’interno dell’organizzazione, in modo adattivo alle esigenze dell’organizzazione stessa. Solo sistemi informatici introdotti in modo sinergico con la realtà organizzativa e i suoi processi decisionali sono la chiave per realizzare un’organizzazione efficiente ed efficace. È infine indispensabile capire come questo abbia costi ricorrenti e non trascurabili, e come sia strettamente interallacciato con la struttura e il governo di ogni organizzazione, richiedendo pertanto la reale consapevolezza e il pieno coinvolgimento dei lavoratori interessati.

Si tratta di una sfida educativa epocale, che può essere vinta solo con il contributo e il dialogo di tutti gli attori interessati e che permetterebbe inoltre di creare in Italia concrete opportunità di crescita economica. Non solo perché il settore informatico, chiamato computing negli USA, in quella nazione è già dal 2016 il primo per numero di nuovi occupati (vedi grafico sottostante, realizzato dall’Autore a partire da questi dati) e dal 2017, nell’area manifatturiera, ha superato le richieste di lavoratori del settore della produzione.

Ma anche perché l’uso “sapiente” dell’informatica, che non sia cioè l’acquisto di soluzioni chiavi in mano (che spesso funzionano male e richiedono continui adattamenti) o l’affidarsi a fornitori esterni (generalmente in ritardo e che sforano i preventivi), ma sia basato su uno sviluppo gestito (e, nel migliore dei casi, addirittura realizzato) dall’interno dell’organizzazione, può dare al nostro sistema produttivo una marcia in più.

La produzione italiana è nella maggior parte dei settori caratterizzata da una combinazione unica di qualità e flessibilità. In molti campi siamo i migliori perché riusciamo a seguire da vicino il mutare delle esigenze del mercato mantenendo uno standard qualitativo sempre molto elevato. Per continuare a eccellere in tal modo è ormai necessario introdurre questo uso, che ho chiamato sapiente, dell’informatica nei processi produttivi. Ciò è possibile solo se il nostro sistema formativo produrrà un numero sufficiente di tecnici e laureati di entrambi i sessi, riducendo così anche la differenza di genere che in questo settore è elevata.

Tutto questo non sarà possibile senza un’adeguata conoscenza, sviluppata sin dai banchi della prima elementare, di cosa sia l’informatica e della sua “grande bellezza”.

Ma attenzione, alle volte accade che i benefici derivanti dal miglioramento di produttività ascrivibile all’automazione dell’informatica non vengono equamente distribuiti. Questa situazione è illustrata dal grafico nella figura qui sotto, un’elaborazione dell’Autore su dati dell’OCSE (Organizzazione per la Cooperazione Sociale ed Economica). Sia per la produttività che per il salario sono stati usati valori indice, prendendo il valore del 1 luglio 1995 come base = 100. Osserviamo che il salario medio è cresciuto meno della produttività, il che significa che, in media, il lavoratore non è stato compensato in modo corrispondente alla sua maggiore produttività.

Si noti in particolare la linea più in basso, dal momento che – rappresentando il valore mediano – essa implica che, nell’insieme dei 24 paesi aderenti all’OCSE considerati in questa indagine, la situazione è andata ancora peggio per più della metà dei lavoratori, che hanno ricevuto una quota ancora inferiore dell’incremento di produttività cui hanno contribuito col loro lavoro.

Negli Stati Uniti la divergenza tra produttività e salario è ancora maggiore, come si vede dal grafico sottostante, sempre un’elaborazione dell’Autore su dati relativi allo stesso intervallo temporale dello The Economic Policy Institute (EPI), un istituto no-profit che studia le necessità dei lavoratori USA a basso e medio reddito. Negli stessi anni, dal 1995 al 2013, la produttività è cresciuta di più rispetto alla media OCSE (134,3 contro 130,3), mentre il salario medio di meno (114,0 contro 122,8).

Eppure, quando nella seconda metà del secolo scorso i “cervelli elettronici” (così venivano chiamati per impressionare una società che, pur industrializzata, era ancora agli albori dell’automazione) avevano cominciato a dimostrare le loro incredibili possibilità di automatizzare molti comportamenti tipici degli esseri umani, le speranze che questo potesse portare notevoli vantaggi a tutti si erano diffuse velocemente.

Invece, non solo – come i due grafici qua sopra evidenziano – la maggioranza non ha avuto un grande guadagno da questo aumento di produttività, ma la qualità della vita quando ci troviamo ad interagire con servizi digitali è – in generale – peggiorata (quante volte perdiamo diverse decine di minuti, se non ore intere, cercando di fare qualcosa online attraverso un servizio automatico quando una comunicazione tra persone avrebbe risolto il problema in 5 minuti?) e stiamo perdendo porzioni sempre più ampie dello spazio di riservatezza personale di cui godevamo fino a qualche decennio fa. Molti non se ne rendono conto e considerano normale il vivere in una “casa di vetro”, tanto “non hanno nulla da nascondere”, senza rendersi conto che senza privacy non c’è libertà e senza libertà non c’è democrazia.

Continueremo a discutere nel prossimo post questo tema della distanza tra ciò che ci aspettavamo dall’automazione digitale e ciò che abbiamo avuto.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 2 aprile 2025.