Pagine

sabato 24 maggio 2025

A passeggio con l'informatica #33 – Governare la trasformazione digitale nell’interesse nazionale (seconda parte)

precedente #32 –––         

di Enrico Nardelli

Abbiamo iniziato a riflettere nel precedente post sulla necessità di una seria azione politica per governare la trasformazione digitale, analizzando il settore delle infrastrutture, il problema della gestione dei dati e il caso della formazione. La riprendiamo e concludiamo con questo post, che è anche l’ultimo della serie: invito chi volesse approfondire i temi trattati in questa “passeggiata” alla lettura del mio volume La rivoluzione informatica.

Nella Pubblica Amministrazione (PA) si continua a sostenere l'importanza della trasformazione digitale, senza però comprendere che generali senza adeguati eserciti non possono nulla. In assenza di un significativo numero di assunzioni di diplomati e laureati in informatica, efficienza ed efficacia della PA non riusciranno a migliorare. E mentre sono sicuro che i “soldati digitali” escono ben formati dalle nostre scuole e università, che preparano diplomati e laureati in informatica che si fanno onore dovunque nel mondo, ho qualche dubbio che la pubblica dirigenza sia generalmente in grado di capire l'importanza e le implicazioni di usare l'informatica nelle organizzazioni. In molti, troppi, ministeri ed enti pubblici si è rimasti fermi a una visione dell’informatica come meccanizzazione “a silos” di singole funzioni di elaborazione dati, slegate da una visione globale e di processo delle relazioni tra l’organizzazione in sé, le sue interfacce nella rete della PA e i cittadini. Il tutto complicato da una visione tradizionale dell’automazione, secondo la quale una volta che l’esecuzione di una funzione sia stata affidata a una macchina, il problema si possa considerare risolto. Nel caso dell’informatica non è così, la vera informatizzazione dei servizi è sempre in fase di manutenzione (si veda il post Come affrontare la trasformazione digitale), perché è la realtà a essere in continua evoluzione. Ma se non si hanno “in casa” le persone in grado di realizzare questa manutenzione, se si deve ricorrere continuamente al fornitore esterno, costi e tempi lievitano in modo intollerabile.

Nel settore privato abbiamo ancora una carenza culturale, discussa nel post Informatica e mondo del lavoro, che ha sinora frenato il sistema produttivo. Ma c’è anche un’altra importante considerazione. Il nostro tessuto industriale è costituito in maggioranza da micro e mini imprese, che hanno fatto di creatività, flessibilità e velocità la chiave per arrivare, da paese sconfitto e distrutto dopo la seconda guerra mondiale a settima potenza industriale al mondo. Queste non usano tecnologie digitali o le usano poco non perché – come dice qualcuno – sono pervase dal “familismo amorale” o non ne hanno capito il potenziale di vantaggio competitivo, ma perché sistemi informatici troppo rigidi costituirebbero la melassa che li ucciderebbe rapidamente.

Il tipico industriale italiano – per niente stupido e che della flessibilità e velocità di cambiamento ha fatto la sua arma strategica – l'ha intuito e ne è stato alla larga: primum vivere! Ha capito che l'unica informatica buona è quella “personalizzata” che accompagna l'azienda in modo flessibile, come se fosse una persona, ma che è in grado di lavorare senza stancarsi e senza sbagliare, come purtroppo accade alle persone. E questo non si può ottenere semplicemente comprando soluzioni “chiavi in mano”, come è avvenuto per le precedenti innovazioni tecnologiche, ma si ottiene soltanto se si hanno a disposizione i tecnici in grado di sviluppare tali personalizzazioni man mano che si presenta la necessità. Mentre gli imprenditori sono sempre stati agili nel modernizzare le linee produttive ogni qualvolta hanno intravisto un’opportunità di mercato, nel caso dell’automazione digitale sono prudentemente rimasti alla finestra, capendo il pericolo della sua rigidità che rischiava di far loro sprecare risorse economiche.

Il problema quindi non è solo della cultura delle imprese, ma anche della visione della politica. Erogare finanziamenti pubblici per la trasformazione digitale delle imprese può essere una misura positiva, ma se poi si concretizza nel comprare soprattutto macchinari e soluzioni estere, è difficile che possa contribuire al rilancio del Paese.

Accanto alla definizione di un modello di sviluppo pensato nell’interesse della crescita dell’intero Paese, andrebbe attuato un massiccio programma di supporto alla formazione dei lavoratori attivi, che non può limitarsi alle pur necessarie competenze digitali dell’utente finale ma che dia loro gli strumenti concettuali e culturali necessari affinché il Sistema Italia sia competitivo in quest’ambito.

Tutto questo non dovrebbe essere così difficile da capire, per chi fa politica. E io so benissimo che i politici – contrariamente alla vulgata che li vuole mangiapane a ufo – sono super-impegnati a tutti i livelli, da quello locale a quello nazionale. Temo però che si stia trascurando un po’ troppo un settore che è strategico per il futuro del Paese. Il che non vuol dire lasciar fare ai tecnici. Al contrario, in ogni epoca e paese, chi ha voluto portare i tecnici al governo, presentandoli come sacerdoti dell’imparzialità, ha sempre in realtà voluto sottrarre al popolo (al demos) il potere (il cratos) di controllare l’operato del governo. Si è mosso quindi in modo anti-democratico. La tecnica del digitale non fa eccezione a questo. I sistemi informatici non sono intrinsecamente asettici. La trasformazione digitale non è garanzia assoluta di efficienza ed efficacia. La tecnica deve essere, come sempre, al servizio della politica per implementare questa o quella decisione.

La politica deve decidere come governare questa trasformazione digitale, ben sapendo che cambiamenti epocali di questa portata non si realizzano nei pochi anni di una legislatura e con piani irrealistici. Per questo è necessario un accordo trasversale su un disegno di sviluppo del Paese alla luce della rivoluzione informatica in atto che trovi tutti concordi, per lo meno su alcune linee guida fondamentali. Servono dunque politici che abbiano a cuore la democrazia e il futuro del nostro Paese, che siano in grado di ascoltare cosa la tecnica ha da offrire, di capire quale siano i possibili impatti sociali, e di comporre una sintesi delle esigenze delle diverse classi sociali nell’interesse di tutti.

Serve un'azione strategica di lungo periodo dello Stato, analoga quella svolta nel dopoguerra con l'IRI per ricostruire un tessuto industriale che sostenesse lo sviluppo del paese: è necessario un piano strategico per la “ricostruzione digitale”. Ricordo che l'IRI, con il suo modello di partenariato pubblico-privato, è stato ammirato in Europa come “terza via” per la crescita, tra mercato e nazionalizzazione.

Io sono convinto che, in tutti i partiti, ci siano persone di buona volontà e grande capacità politica. Insieme, possiamo farcela.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 21 maggio 2025.

sabato 17 maggio 2025

A passeggio con l'informatica #32 – Governare la trasformazione digitale nell’interesse nazionale (prima parte)

di Enrico Nardelli

Come abbiamo discusso nel post “Si fa presto a dire digitale”, la dimensione digitale è ormai strettamente intrecciata con tutte le dimensioni della nostra esistenza e definisce uno spazio sociale che può essere costruito secondo diverse visioni. Ricordavamo per esempio nel precedente post come, da una visione della società in cui i modelli di riferimento per i giovani erano persone con attività lavorative che potevano essere svolte con buona soddisfazione economica dalla maggioranza delle persone, si sia passati a una visione in cui questi modelli sono le persone di grande talento (e grande fortuna, perché purtroppo tante volte il primo da solo non basta) con guadagni molto elevati, che però costituiscono una piccola minoranza della società.

Ecco, il punto è decidere quale visione della società scegliamo. Compito, questo, tipicamente politico, visto che l’attività politica (nel senso che gli dava Aristotele come una componente naturale dell’essere umano) è proprio il modo di decidere quali siano gli obiettivi da perseguire e i modi per farlo, nell’ambito delle comunità in cui abitualmente gli uomini si raccolgono, per venire incontro alle esigenze di tutti.

Nello stesso post “Si fa presto a dire digitale” ho riportato una citazione di Evgenj Morozov che nel suo libro “I signori del silicio” ha scritto «per un partito di massa odierno, non curarsi della propria responsabilità sul digitale equivale a non curarsi della propria responsabilità sul futuro stesso della democrazia». Negli ultimi dieci anni questa frase è diventata ancora più vera mentre, per lo meno in Italia, la politica – fin da quando negli anni ‘90 si cominciò a parlare di “società dell’informazione” – ha in gran parte inseguito i termini alla moda, baloccandosi con aspetti operativi, concedendo finanziamenti e prestiti per l’acquisizione di sistemi digitali “chiavi in mano”, che dopo sei mesi o un anno richiedono spese non trascurabili di aggiornamento. Servirebbe invece investire in modo intensivo sulla formazione di personale interno, che sia in grado di contribuire allo sviluppo di soluzioni digitali e farle evolvere in armonia con l’evoluzione degli scenari commerciali. Si tratta di un elemento essenziale per rilanciare lo sviluppo economico del Paese, tanto più rilevante, quanto più nell’economia cresce il peso dei servizi. Per non parlare poi del fatto che in alcuni settori strategici consegnare “le chiavi di casa” a uno sconosciuto non è proprio la soluzione più intelligente! Mentre nell’industria il costo degli impianti produttivi è una voce percentualmente significativa e direttamente proporzionale al volume della produzione per unità di tempo, nell’erogazione di servizi digitali i “mezzi di produzione” necessari sono costituiti essenzialmente dal cervello delle persone che sviluppano e aggiornano il software per la loro gestione, e sono sostanzialmente indipendenti dal numero degli utenti. Piattaforme tipo Uber and AirBnb ne sono la prova più eclatante.

Ma i servizi realizzati mediante sistemi digitali permettono di ottenere flessibilità e velocità di adattamento a costi contenuti solo a condizione che si sia in grado di farli evolvere “in casa” o quasi. Solo così si riescono a ottenere sistemi informatici che possono assicurare l’aumento di produttività delle aziende man mano che si evolvono. Per il nostro sistema produttivo, la sfida è su questo terreno, che non è un campo riservato solo ai “grandi”, visto che l’informatica – quando la si sa usare bene – permette di sfruttare vantaggiosamente anche nicchie di mercato molto piccole.

È inutile pensare di poter tornare indietro. La società diventerà sempre più digitale: in questo mondo le infrastrutture digitali costituiscono quello che è un sistema nervoso o scheletrico per i mammiferi. Il loro controllo deve essere in nostre mani affinché il nostro Paese non diventi una colonia. Serve capire che lo spazio digitale, come le soluzioni ad esso connesse, vanno curati nell'interesse della Nazione e dei suoi cittadini. Abbiamo bisogno di una politica che ritorni a esercitare per conto del popolo quella sovranità che l'ar­ticolo 1 della nostra Costituzione gli assegna, senza delegarla alle Big Tech che hanno riserve pressoché illimitate di risorse per perseguire i propri interessi.

Dobbiamo mantenere il controllo sui dati digitali dei cittadini, che nel mondo digitale sono l’equivalente dei cittadini stessi. È il controllo di questi dati ciò che fornisce potere nella società digitale. Dobbiamo evitare di lasciare questo controllo nelle mani di privati che perseguono obiettivi di business, perfettamente legittimi, ma che non possono prevaricare il bene comune. Dobbiamo sviluppare le capacità del Paese di realizzare servizi e sistemi informatici. Voglia di lavorare e cre­atività non ci sono mai mancate, e lo sviluppo del software non richiede forti investimenti di capitali. Richiede però un investimento in formazione, che deve cominciare da lontano, fin dalla scuola. Avremmo dovuto iniziare l’altro ieri, ma – in questo caso è proprio vero – non è mai troppo tardi. Come pensiamo di gestire la transizione digitale in Italia se non forniamo a tutti gli studenti un’istruzione di base in informatica? Ogni cittadino, nel vedere un qualunque macchinario non pensa più si tratti di una “diavoleria” perché ha studiato a scuola quei princìpi scientifici di base che gli permettono di capire che non ci sono “miracoli” nella tecnologia. Cosa aspettiamo a fare lo stesso per le macchine cognitive del digitale? Fortunatamente, sembra che almeno nella scuola con la revisione delle Indicazioni Nazionali per il primo ciclo dell’istruzione cominceremo a fare qualcosa di concreto. Sono passati 11 anni da quando, in collaborazione con il Ministero dell’Istruzione, abbiamo iniziato con il progetto Programma il Futuro a diffondere nelle scuole una formazione sui concetti di base dell’informatica, ma è proprio il caso di dire “meglio tardi che mai!”.

Termineremo la nostra analisi nel prossimo post.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 14 maggio 2025.

sabato 10 maggio 2025

A passeggio con l’informatica #31 – Opportunità per tutti o per pochi?

di Enrico Nardelli

Ricordavamo, alla fine del precedente post, come le grandi multinazionali della tecnologia sono solite raccontare, per convincerci ad adottare le ultime soluzioni digitali, unicamente i loro aspetti positivi, ignorando o trascurando quelli negativi.

Uno dei primi casi in cui questo è accaduto è stato proprio agli inizi del secolo con la diffusione di Internet su larga scala. Si parlava allora della teoria della “Coda Lunga”, che a suo tempo conobbe una larga diffusione, forse anche perché si stava tentando di ridare un senso agli investimenti sulle tecnologie dell’informazione dopo lo scoppio della bolla delle dot com avvenuta tra il 2000 e il 2001. In base a questa teoria, la capacità della rete di diffondere velocemente consigli sugli acquisti a persone con gusti e preferenze simili, accoppiata al superamento dei limiti fisici alle scorte di magazzino e al numero di utenti fisicamente raggiungibili, avrebbe aperto a molti prodotti del settore dell’intrattenimento (dai libri ai dischi ai film) possibilità di sfruttamento irraggiungibili con modelli tradizionali. Si sarebbe passati da una situazione di scarsità, in cui solo pochi autori o produttori di best seller raggiungevano fama e ricchezza, a una di abbondanza in cui a molti creatori di contenuti sarebbe stato assicurato un livello di guadagno più che soddisfacente. Il motivo, veniva spiegato, è che le persone vogliono distinguersi e non soltanto seguire le mode, e quindi sono comunque interessate a prodotti editoriali di nicchia. La rete avrebbe permesso, indipendentemente da quanto era piccola questa nicchia, di trovarne gli abitanti e vendergli i prodotti. Ciò non era possibile, per i vincoli fisici sopra illustrati, con il modello di distribuzione precedente. Questa visione si è rivelata vera solo a metà.

Gli intermediari della distribuzione di tali prodotti editoriali, ognuno dei quali è diventato, nel suo settore, un monopolista, hanno trovato modo di guadagnare dalla vendita anche di pochissime copie (soprattutto se, come nel caso della musica e dei video, i prodotti sono diventati del tutto immateriali, quindi con costi risibili di gestione e pressoché nulli di conservazione). Questo si spiega con il fatto che – in aggregato – poche copie per migliaia o decine di migliaia di prodotti generano comunque valori economici significativi per i distributori. D’altro canto, invece, per la maggior parte dei creatori di contenuti gli incassi relativi a queste poche copie vendute non fanno alcuna differenza significativa. La frase «I soldi maggiori sono nelle vendite più piccole » è diventata vera, ma solo per gli attori maggiori di questo settore commerciale. La prosperità promessa dalla teoria della Coda Lunga è diventata realtà solo per pochi.

Rispetto a quanto accadeva nell’era pre-Internet la popolarità è diventata ancora più squilibrata. Su Spotify, il servizio di streaming musicale con la maggior quota di mercato (il 32% nel 2021 ), il 90% degli incassi degli autori va a solo l’1,4% di tutti quelli presenti nel servizio, con un guadagno medio pro capite di 22.395 US$ per trimestre. Il restante 98,6% degli autori (circa 3 milioni) guadagna mediamente 36 UD$ a testa nello stesso periodo temporale.

Non ritengo che ci sia qualcosa di intrinsecamente sbagliato in questo meccanismo. Il talento estremo è molto raro e penso sia corretto che venga adeguatamente remunerato, soprattutto perché, alla fin fine, sono gli spettatori che scelgono volontariamente di pagare di tasca propria. Ciò che invece ritengo vada fatto da un punto di vista sociale sia di informare correttamente i giovani – che devono decidere quale strada scegliere per il loro futuro – dell’estremo squilibrio che caratterizza questo tipo di settori. Viceversa, spesso le sollecitazioni che vengono dal mondo dei media sono mirate a convincere che il successo e la fama (e i guadagni) siano lì a portata di mano di tutti quelli che si vogliono impegnare. Certamente, senza impegno costante e profondo, è improbabile arrivare a posizioni lavorative ben retribuite (a meno di essere favoriti dalla classe sociale cui si appartiene), ma nel settore dei contenuti creativi l’impegno, pur necessario, è un fattore molto meno determinante.

Come ha sottolineato bene Nassim Taleb nel suo famoso libro “Il cigno nero”, il successo ottenuto in questo tipo di attività è dipendente in modo elevato dal caso, anche quando si possegga un buon talento innato. Ne parlo in questo contesto perché il settore dell’intrattenimento è diventato economicamente sempre più rilevante, grazie anche al suo prestarsi molto bene a essere diffuso attraverso la tecnologia digitale. Il che aumenta ancora di più lo squilibrio nella distribuzione dei guadagni. Per tanto è opportuno che una società nel suo complesso, orienti le scelte dei giovani verso professioni “normali”, in cui si viene sostanzialmente pagati in modo proporzionale alla quantità di lavoro svolto.

Svolgendo un lavoro di questo genere, che è in pratica la sola tipologia che veniva presa in considerazione dalla stragrande maggioranza dei giovani fino a circa un secolo fa, è improbabile diventare ricchi, ma lo è anche diventare poveri. In questo senso si tratta di una situazione socialmente desiderabile perché minimizza il caso pessimo a cui le persone possono andare incontro.

Se 100 giovani vogliono fare gli scrittori e dedicano la loro vita a questo, è assai plausibile che a metà della loro vita al più una decina siano molto ricchi mentre i restanti 90 si arrabatteranno con lavoretti di sopravvivenza. Viceversa, se 100 giovani vogliono fare gli impiegati, il risultato più plausibile è che solo una decina di loro a metà della loro vita sia ancora in cerca di una sistemazione soddisfacente, mentre i restanti 90 avranno un lavoro fisso e avranno avviato una famiglia.

È evidente che sul piano sociale la seconda situazione, in cui le disuguaglianze del reddito sono molto meno accentuate, è assai più desiderabile della prima. Questo è accertato anche dall’OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economica). Negli anni 80 il 10% più ricco della popolazione mondiale aveva un reddito solo 7,1 volte superiore a quello del 10% più povero. Nel 2015 era diventato 9,6 volte superiore (e sono convinto che gli ultimi dieci anni hanno aumentato ancora questo squilibrio). Come documentato sempre dall’OCSE, tra il 1990 e il 2010 si sono persi a causa di ciò nei paesi OCSE complessivamente 4,7 punti percentuali di crescita totale. Si considera spesso la California come lo stato degli USA al quale guardare, per la sua capacità di combinare tolleranza sociale e innovazione tecnologica che lo ha portato a essere, in modo paradigmatico, l’incarnazione del “sogno americano” e quindi, più in generale, dell’universale speranza in un futuro migliore. Ma il livello di disuguaglianza sociale in quello stato è maggiore di quello del Messico, alla pari con Guatemala e Honduras. Normalizzato rispetto al costo della vita, il tasso di povertà è il più alto di tutti gli USA. Nella zona che comprende San Francisco e i suoi dintorni, una delle più dinamiche e più sviluppate di tutti gli Stati Uniti, vivono 76.000 tra milionari e miliardari ma, allo stesso tempo, il 30% dei residenti riceve assistenza economica da enti pubblici o privati.

È questa situazione che ha portato diversi autori a parlare dell’epoca contemporanea come di un neo-feudalesimo o tecno-feudalesimo, basato invece che sul possesso della terra, sulla quantità di dati digitali. Descrivo più in dettaglio questo fenomeno nel mio volume La rivoluzione informatica, che rischia non solo di portare indietro di secoli il benessere delle persone, ma di arretrare l’impostazione della società da quel “governo delle leggi” che è stato essenziale per la nascita delle moderne società democratiche a un “governo degli individui” che ha caratterizzato i lunghi secoli nei quali gli individui erano asserviti, generazione dopo generazione, ai voleri e capricci del loro signore.

Esploreremo nel prossimo post, che concluderà questa passeggiata, come sia necessaria per contrastare questa deriva una nuova visione politica della società digitale.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 7 maggio 2025.

sabato 3 maggio 2025

A passeggio con l’informatica #30 – L'impatto sociale della trasformazione digitale

di Enrico Nardelli

Abbiamo chiuso il precedente post ricordando che alla politica spetta un ruolo decisivo per governare l’uso dell’informatica nello sviluppo della società. In effetti, tutta la seconda parte di questa “passeggiata” è stata dedicata alla riflessione sui vari modi con cui le tecnologie informatiche hanno cambiato e stanno cambiando il nostro mondo. Ho già discusso l’intreccio tra la dimensione digitale e le altre dimensioni sociali ricordando che la vera sfida della trasformazione digitale è prima di tutto di natura sociale e politica e ho osservato – proprio nel primo dei post della seconda parte – che i cambiamenti causati dalla rivoluzione informatica hanno una natura radicalmente diversa da quelli di di ogni altra precedente rivoluzione.

In questo articolo sviluppo alcune considerazioni su questi cambiamenti sociali, partendo da una legge che ho formulato a questo proposito, la Legge sull’impatto sociale della tecnologia digitale:

L'impatto sociale della tecnologia digitale è imprevedibile,
anche tenendo conto della
Legge sull'impatto sociale della tecnologia digitale
.

Chi ha familiarità con Hofstadter, l'indimenticabile autore di "Gödel, Escher, Bach" (un saggio divulgativo sui fondamenti culturali dell’informatica che consiglio vivamente), riconosce che si tratta di una variazione della Legge di Hofstadter sulla pianificazione delle attività («Per fare una cosa ci vuole sempre più tempo di quanto si pensi, anche tenendo conto della Legge di Hofstadter »). Ritengo che la mia variazione sia una legge perfettamente giustificabile, considerato che la gran parte dell’umanità convive con strumenti digitali da neanche un quarto di secolo, nel quale molto poco è stato fatto dai governi per insegnare qualche concetto fondamentale.

Se osserviamo con un minimo di distacco lo sviluppo dell’umanità negli ultimi cinquemila anni — cioè da quando sono emerse società più complesse di una semplice comunità tribale — notiamo che le innovazioni tecnologiche, per quanto incisive, venivano assimilate lentamente. Le trasformazioni si distribuivano su molte generazioni, dando modo alle strutture sociali di adeguarsi gradualmente ai cambiamenti in corso.

Con la diffusione della tecnologia digitale, tuttavia, si è assistito a una repentina trasformazione che ha scardinato in un lasso di tempo brevissimo un paio di principi fondamentali che, nel bene e nel male, hanno sempre governato la nostra esistenza.

Il più significativo di questi principi è quello che ci ricorda l'ineluttabilità della fine. Ogni essere vivente è destinato a morire, e con la sua scomparsa spesso le sue azioni e le sue relazioni cadono nell'oblio. Nella nostra dimensione digitale questo non accade: con la crescente sofisticazione delle rappresentazioni digitali, tale sovvertimento entra sempre più in contrasto con il senso comune. È vero, anche secoli fa esistevano statue che tramandavano ai posteri le sembianze e le imprese di figure illustri, ma ora l'eternità (digitale) è accessibile a chiunque. Il secondo capovolgimento riguarda la dissoluzione dei limiti di spazio e tempo: qualsiasi contenuto digitale può essere copiato e distribuito istantaneamente, ovunque. Il nostro alter ego virtuale (sulla cui necessità di tutela costituzionale abbiamo già discusso) può essere moltiplicato all’infinito e diffuso senza alcun sforzo, una possibilità che un tempo era prerogativa delle divinità.

C’è poi un ulteriore effetto legato a questa nuova condizione: il concetto di fama ha subito un’espansione senza precedenti. Un tempo la popolarità si costruiva lentamente, trasmessa oralmente e limitata da confini geografici. L’invenzione della stampa prima, e poi i media audiovisivi come cinema e TV, hanno accelerato e ampliato la portata della notorietà, generando figure iconiche nel mondo dello spettacolo e dello sport. Oggi, grazie alla rete globale, ciò che conquista l’attenzione può farlo simultaneamente ovunque, mentre la stragrande maggioranza dei contenuti rimane invisibile. Basti pensare che, secondo dati di un paio d’anni fa, solo qualche decina di video su YouTube ha superato il miliardo di visualizzazioni, su un totale stimato di diecimila miliardi di video caricati.

Il superamento di queste due “colonne d’Ercole” ha avuto una conseguenza radicale: un’informazione, una volta resa pubblica in forma digitale, può sopravvivere per sempre e ovunque. Non stupisce, quindi, che il diritto naturale all’oblio abbia dovuto essere formalizzato in una norma specifica per ottenere riconoscimento nell’era digitale. E non è stato un passaggio immediato né indolore: prima che si arrivasse a una regolamentazione, molte vite sono state rovinate.

Il fatto che questi confini una volta considerati invalicabili siano stati abbattuti nell’arco di una singola generazione ci ha catapultati in una dimensione completamente nuova, dove rischiamo di ripetere il destino di Ulisse, così come raccontato nel suo folle viaggio oltre i limiti del mondo, nell’Inferno dantesco:

Tre volte il fé girar con tutte l’acque
a la quarta levar la poppa in suso
e la prora ire in giù, com’altrui piacque,
infin che ’l mar fu sovra noi richiuso.

Il nodo centrale è proprio nella legge che ho precedentemente menzionato: la nostra difficoltà nel comprendere l'impatto di questa tecnologia deriva sia dalla sua natura troppo aliena rispetto a noi, sia dal fatto che la combinazione a crescita esponenziale delle interazioni tra tecnologie e contesti rischia di superare la nostra capacità di intendimento.

Eppure, la nostra storia evolutiva – da semplici primati a (quasi) dominatori del pianeta – dovrebbe insegnarci che ogni risorsa disponibile sarà sfruttata in ogni modo immaginabile. In molti casi, prevederne le conseguenze si rivela estremamente arduo.

Per questo, di fronte a un universo digitale fatto di infinite interazioni e scenari imprevedibili, ci sarebbe bisogno di procedere con estrema cautela. E invece, a volte, sembra che ci stiamo lanciando a tutta velocità e a occhi chiusi verso l’orlo del baratro.

Serve allora un’attenzione costante, una vigilanza rigorosa ogni volta che mettiamo mano alla "bacchetta magica" della tecnologia digitale. Perché potremmo trovarci nei panni dell’apprendista stregone, ma senza nessuno capace di intervenire quando le cose sfuggono al nostro controllo. Ecco perché questa bacchetta non può essere lasciata nelle mani delle grandi aziende tecnologiche, che grazie al loro enorme potere economico influenzano in modo decisivo tutti i mezzi di comunicazione raccontandoci sempre e solo le “magnifiche sorti e progressive” che aspettano l’umanità occultando le conseguenze negative. Ne vedremo un esempio nella prossima puntata.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 30 aprile 2025.

sabato 26 aprile 2025

A passeggio con l’informatica #29 – Come affrontare la trasformazione digitale

di Enrico Nardelli

Abbiamo discusso nel precedente post la necessità di un diverso punto di vista sulla trasformazione digitale, riflettendo sul fatto che l’automazione dell’informatica equivale a sostituire le persone con “macchine cognitive”, che però non hanno la flessibilità e adattabilità di quelle.

Ignorare questo aspetto ha portato e sta portando ai tanti fallimenti in cui vediamo periodicamente incappare i sistemi informatici. Ecco cosa invece dovremmo fare.

Il tradizionale flusso di acquisizione di servizi e prodotti informatici prevede una fase iniziale di definizione dei requisiti del servizio/prodotto necessario con la scrittura di specifiche di dettaglio, a fronte delle quali i potenziali fornitori propongono offerte. La migliore (con criteri basati sul costo e sulla valutazione tecnica, che sono molto rigidi nelle procedure di acquisto della Pubblica Amministrazione e più flessibili nelle aziende private) vince e il contraente inizia a realizzare quanto richiesto. Al termine, se il servizio/prodotto supera i test finali, si entra nella fase operativa.

Quali sono le conseguenze dell’attuale approccio? La triste realtà è che i programmi di sviluppo che prevedono la realizzazione di componenti software sono sempre quelli in maggior ritardo e con i maggiori sforamenti di costi. Periodicamente, le riviste del settore elencano i disastri più eclatanti che si sono verificati nello sviluppo di sistemi informatici: ecco un’analisi di quanto accaduto solo nel 2024. Nel 2018, il direttore della Divisione Acquisti del Ministero della Difesa USA (il Department of Defense), Will Roper, aveva dichiarato che il sistema di acquisizione tradizionale usato per decenni per comprare navi e aeroplani, non poteva funzionare per il software perché «un sistema software non è mai finito, è un processo continuo».

Le aziende informatiche più innovative al mondo hanno da tempo capito che questo metodo non funziona. Se gli utenti vedono il software solo alla fine, è altamente probabile che non solo i requisiti inizialmente definiti non saranno stati soddisfatti, ma anche che ciò di cui hanno bisogno è nel frattempo cambiato. Dalla collaborazione tra il mondo della ricerca e quello dell’industria è emerso, proprio all’inizio del XXI secolo, un approccio radicalmente diverso allo sviluppo del software, l’approccio cosiddetto “agile” (anche in inglese il termine è lo stesso, solo pronunciato diversamente), che è quello appunto usato dalle aziende informatiche all’avanguardia, perché consente loro di sviluppare servizi/prodotti di successo.

D’altro canto, se ci pensate bene, questo è quello che vediamo nelle App che tutti noi usiamo ogni giorno. A noi sembrano sempre le stesse, ma dietro la facciata c’è un lavorìo continuo di aggiornamento ed evoluzione. Come accade con le persone che, dietro la facciata di un’organizzazione, ci forniscono i suoi servizi. Si evolvono al cambiare delle condizioni di contesto o in funzione di un’eventuale cambiamento deciso dalla direzione. I sistemi informatici – in misura largamente maggiore rispetto ad ogni altro sistema costruito dall’uomo – sono sistemi in continuo adattamento, per il quale il ruolo dell’essere umano continua a essere essenziale. Ciò è vero nonostante gli impressionanti avanzamenti dell’intelligenza artificiale e fintanto che vogliamo che continui a esistere una società di persone e non di macchine. Come scrissi nel 2010, per la 6a edizione del convegno europeo di informatica (ECSS) a proposito dello sviluppo dei sistemi informatici: «la manutenzione è la vera implementazione».

Da un punto di vista procedurale, l’acquisizione di sistemi informatici non dovrà più, quindi, essere basata sulla definizione iniziale di tutti i requisiti, ma andrà individuato un ristretto insieme di obiettivi e casi d’u­so iniziali, sui quali un piccolo gruppo congiunto di sviluppatori e utenti inizierà a lavorare con il compito di produrre un primo nucleo funzionante nel giro di qualche settimana. Da lì in avanti si continua con questo approccio iterativo, che è appunto quello definito “agile”, imparando costantemente da successi ed errori sul campo e aggiustando il tiro in funzione dell’evolversi degli scenari.

È un cambiamento epocale se si considera l’acquisizione di un sistema software alla stregua di un qualunque altro prodotto. È la soluzione naturale, se la guardiamo nell’ottica dell’acquisizione di personale.

Mentre questo nuovo paradigma di acquisizione può più agevolmente essere adottato da enti privati, purché chi le guida abbia maturato questa visione culturale dell’automazione informatica, la sua introduzione nel contesto della Pubblica Amministrazione (PA) richiede una sintonia con il contesto legale di riferimento. Sarà quindi necessario cambiare l’intero apparato regolamentare che disciplina le procedure con le quali la PA acquisisce sistemi informatici. Qui è necessario uno sforzo fortemente interdisciplinare, perché vanno mobilitate tutte le competenze che entrano in gioco in questo processo: giuridiche, documentarie, informatiche, gestionali, psicologiche, sotto la guida – va da sé – di una politica che deve farsi carico in prima persona della gestione di tali problematiche.

E proprio al ruolo che deve svolgere la politica per governare l’uso dell’informatica nello sviluppo della società, ruolo necessario e insostituibile, che dedicheremo l’ultimo tratto di questa passeggiata.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 23 aprile 2025.

martedì 22 aprile 2025

Tutti i nodi (dell'IA) vengono al pettine

di Enrico Nardelli

Scrivevo a marzo del 2023, quando tutto il mondo stava cominciando a parlare delle impressionanti capacità di ChatGPT, il primo strumento di intelligenza artificiale generativa (IAG) noto al grande pubblico, e si diffondeva su tutti i mezzi di comunicazione la profezia che l’intelligenza artificiale (IA) avrebbe sostituito la gran parte dei lavoratori, questa frase: «In altre parole, se non sapete già la risposta corretta, ciò che vi dice tale sistema rischia di non essere di alcun aiuto». Due settimane dopo aggiungevo: «poiché ciò che fanno lo esprimono in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi».

Il motivo risiedeva, molto semplicemente, nel modo in cui questi sistemi (tecnicamente definiti Large Language Models, cioè modelli linguistici di grandi dimensioni – LLM) funzionano: usando un modello probabilistico del linguaggio, assai sofisticato e messo a punto attraverso una sterminata base di testi, che contiene statistiche sulle continuazioni più plausibili di sequenze di parole e di frasi. Questa caratteristica permette loro di esibire prestazioni linguistiche impressionanti, di quelle che quando sono esplicitate da esseri umani vengono considerate intelligenti, ma che in realtà non sono tali. Cioè, esibire competenza sulle parole che descrivono il mondo non equivale ad avere competenza sul mondo. Ma poiché il cervello degli esseri umani è configurato in modo tale da vedere un significato in configurazioni del tutto arbitrarie, proiettavamo su tali strumenti l’intelligenza che risiede in noi.

Dal momento che già allora gli interessi economici messi in gioco sull’IAG erano enormi (e da allora centinaia di miliardi di dollari hanno continuato ad essere investiti in questo settore), si è però continuato a raccontare la stessa storia, che a breve l’intelligenza artificiale sarebbe stata in grado di fornire prestazioni umane in tutti i settori. Come al solito, mentre la massa continuava a seguire il pifferaio magico, esperti ben più quotati di me invitavano alla cautela. Io ne ho scritto diverse volte, qui e qui a proposito di scuola, qui e qui a proposito delle relazioni sociali, e qui a proposito del termine in sé, ricordando che questi sistemi producono espressioni che per noi hanno un significato perché proiettiamo su di essi quella comprensione del significato che in realtà è dentro di noi. Di conseguenza non avremmo potuto farci affidamento per sostituire le persone. Pian piano questo sta emergendo – anche se in forma per ora cauta – dalle stesse parole dei CEO e chief scientist delle aziende all’avanguardia in questo settore e degli investitori nel settore della tecnologica, e sembra proprio che il 2025 sarà l’anno in cui anche questa bolla si sgonfierà.

All’inizio di questo mese, Andriy Burkov (ricercatore esperto nell’apprendimento automatico e autore di volumi di successo sull’apprendimento automatico – la tecnica alla base degli LLM) ha commentato su X una serie di post che evidenziavano le terribili prestazioni degli LLM nel ragionamento matematico con queste parole «Solo se tu già conosci la risposta corretta o ne sai abbastanza per riconoscerne una scorretta (cioè, sei un esperto del settore) li puoi usare per qualcosa». Sostanzialmente, le stesse parole che avevo usato io nel post ricordato in apertura.

Pochi giorni dopo Brad Delong (professore di economia all’università della California a Berkeley) in un post sul suo blog ha scritto «Se il tuo LLM ti fa venire in mente che abbia un cervello, è solo perché stai facendo una proiezione non perché sta pensando». Anche in questo caso, sono sostanzialmente le stesse parole usate da me due anni fa.

Fa ovviamente piacere avere conferme delle proprie intuizioni, ma soprattutto è interessante vedere che, come ho detto con diverse parole nel titolo, la consapevolezza che questo nuovo imperatore non abbia poi dei vestiti così belli si sta pian piano diffondendo in tutto il mondo.

Attenzione, questo non vuol dire che gli strumenti di IAG siano inutili. Al contrario, essi sono utilissimi, se li usi come bruta forza lavoro in un settore che conosci bene, avendo contezza della loro incapacità di comprensione. Sono degli amplificatori delle nostre capacità cognitive, come le macchine industriali lo sono delle nostre capacità fisiche. Ma come in quel caso, se non le sai usare, rischi di fare dei disastri. Mettersi alla guida di un aeroplano senza preparazione non ti farà volare sopra i mari come un uccello ma, più probabilmente, ti porterà a una brutta fine. Usare l’IAG in un settore che non si conosce espone agli stessi rischi. Se padroneggi la materia, invece, puoi in molti casi – ma non tutti! – lavorare più veloce, purché continui a fare attenzione a ciò che essa ti propone.

Una recente indagine sul futuro della ricerca nell’IA, svolta dall’Associazione per l'Avanzamento dell’Intelligenza Artificale tra gli esperti del settore, ha rilevato che il 76% ritiene “improbabile” o “molto improbabile” che gli LLM condurranno a quella che si chiama “intelligenza artificiale generale”. Saranno certamente necessari metodi diversi, che non usano solo un approccio di tipo statistico, come accade con gli attuali LLM, ma che adottano anche un approccio di tipo “simbolico” (che è poi quello che veniva usato nel settore dell’intelligenza artificiale prima dell’esplosione delle tecniche di apprendimento automatico) integrando quindi diverse tecniche.

Insomma, il futuro di questa tecnologia è certamente interessante, purché manteniamo la consapevolezza che, adesso come millenni fa, è necessario perseguire un’aurea mediocritas, seguire la via di mezzo.

--
Versione originale pubblicata su "StartMAG" il 19 aprile 2025.

sabato 19 aprile 2025

A passeggio con l’informatica #28 – La trasformazione digitale ha bisogno di un altro punto di vista

di Enrico Nardelli

Negli ultimi post stiamo discutendo vari aspetti delle relazioni tra informatica e mondo del lavoro, riflettendo dapprima sulla necessità di una maturazione a livello culturale basata sull’insegnamento dell’informatica fin dalla scuola dell’obbligo, poi sul ruolo giocato dall’informatica nell’aumento di produttività e infine su come, per la gente comune, sia necessario sviluppare sistemi informatici trasparenti e facili da usare. Affrontiamo adesso il tema di una corretta visione di quella che chiamiamo “trasformazione digitale” e che non è niente altro che automazione informatica.

Tipicamente, infatti, un’organizzazione acquisisce un sistema informatico per rimpiazzare, mediante un sistema automatico, facoltà cognitive precedentemente esplicate da una o più persone. Si individuano le funzioni da automatizzare, che vengono sostituite da un sistema informatico, cioè una “macchina cognitiva”, che è la corrispondente, nella società digitale, alla macchina tradizionale della società industriale.

Questa sostituzione, come ogni automazione, avviene per migliorare la produttività, cioè aumentare l’output o diminuire i costi o entrambe le cose. Fin qui niente di male: l’automazione del lavoro è da secoli il fattore chiave che assicura un costante aumento di produttività. Aver acquisito un sistema informatico vuol dire quindi aver sostituito a una o più persone una o più “macchine cognitive”. Ma queste, senza capacità di adattamento, non sono in grado di evolversi per far fronte al mutare delle condizioni di contesto. Per questo l’acquisizione o lo sviluppo di un qualunque applicazione informatica deve seguire un percorso diverso.

È necessario cambiare prima di tutto il paradigma mentale con cui si affronta l’auto­mazione informatica. Ogni organizzazione sa bene, quando assume un economista, un ingegnere, un legale o un contabile, che ciò che sa fare quella persona all’inizio non rimarrà immutato nel tempo, ma si evolverà, perché la persona imparerà sul campo tutta una serie di dettagli rilevanti per l’organizzazione stessa e adatterà il proprio comportamento man mano che il suo scenario operativo si evolve. All’inizio sotto la guida del suo responsabile, e poi sempre con maggiore grado di autonomia. Se una parte di questo lavoro cognitivo viene trasferito a sistemi informatici, vengono meno questa flessibilità e capacità di evoluzione, che sono specifiche e caratterizzanti gli esseri umani. Non capire questo punto di vista vuol dire continuare a sprecare soldi con lo sviluppo di sistemi informatici.

Prima di informatizzare un processo lavorativo bisogna averlo analizzato in profondità e aver compreso come la sua automazione impatti sull’or­ganizzazione del lavoro, sui rapporti di potere interni e su quelli esterni. Quando si pensa di poter esternalizzare i servizi informatici, risparmiando sul personale, si finisce sempre per scoprire che si è speso di più per adattare questi servizi portati fuori dall’organizzazione ad ogni minimo cambiamento della realtà circostante, modifiche che un informatico impiegato all’interno avrebbe saputo gestire in una frazione del tempo.

Purtroppo non riusciamo ancora a costruire sistemi per la trasformazione di informazione e conoscenza con un livello di affidabilità, prevedibilità e sicurezza comparabile con quello che offrono i tradizionali manufatti ingegneristici. Stiamo ancora al livello della costruzione delle cattedrali medievali, con la differenza che se crollava una cattedrale c'erano meno conseguenze sulla società del crollo di un sistema informatico, data la quasi totale dipendenza che abbiamo dal loro buon funzionamento. Non sappiamo ancora costruire sistemi che abbiano una comprensione semantica della realtà e dei suoi cambiamenti al livello di un bambino della scuola elementare, nonostante quanto ci appaia dall’interazione con i sistemi di intelligenza artificiale generativa (IAG). Sempre più frequentemente, gli strumenti digitali che usiamo quotidianamente si trasformano in meccanismi per controllare e registrare ciò che diciamo e facciamo, per poi trasformare questi dati in occasioni di enorme profitto per pochi, lasciandoci briciole di utilità personale. Insomma l’informatica che potrebbe e dovrebbe essere usata per farci stare meglio, diventa strumento di oppressione e di stress.

L’ap­proccio quindi da usare è considerare un processo di trasformazione digitale come l’acquisizione di una certa quantità di persone con certe competenze di base. Nessun selezionatore del personale si aspetta di trovare sempre “il candidato perfetto”, perché questa non è affatto la norma. Si cerca di trovare una persona col profilo sufficientemente buono per poter “scendere in campo” con efficacia e poi, da lì, evolversi.

Con i sistemi informatici da realizzare per la trasformazione digitale bisogna adottare lo stesso approccio. Il che non vuol dire prendere il primo sistema che capita, ma far diventare parte del processo di acquisizione lo sviluppo incrementale e co-costru­ito (da utenti e sviluppatori, da committenti e fornitori) del sistema stesso. Esattamente come accade con i dipendenti. Tutti coloro che si occupano di queste problematiche sanno quanto sia complicato l’inserimento di una squadra di 10 dipendenti in un gruppo di 100, tanto più quanto maggiore è la componente cognitiva e non fisica delle attività svolte nell’organizzazione. Quando si digitalizza un processo aziendale si sta facendo sostanzialmente la stessa cosa. Perché dovremmo procedere in modo diverso? Se lo facciamo è perché non abbiamo capito che quella informatica è un’automazione radicalmente diversa da ogni altra e che richiede un altro approccio.

Lo approfondiremo nel prossimo articolo.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 16 aprile 2025.

sabato 12 aprile 2025

A passeggio con l’informatica #27 – Nessuna digitalizzazione senza rappresentazione

di Enrico Nardelli

Abbiamo discusso nel precedente articolo come l’informatica sia stata una componente essenziale per ottenere l’aumento di produttività che abbiamo visto negli ultimi 30-40 anni ma come gran parte di questo beneficio non sia ricaduto sui lavoratori. In questo post affronto cosa è accaduto nel nostro quotidiano.

Nel corso dei secoli passati abbiamo assistito a un parallelo avanzamento di cambiamenti sociali e automazione, che hanno reso certi aspetti della nostra esistenza più comodi e hanno consentito a molti di migliorare le loro condizioni di vita.

Consideriamo anche soltanto la vita domestica (ma ragionamenti analoghi si possono fare per quella lavorativa). Fino a metà del XX secolo nella famiglia di un membro della classe professionale media c'erano comunque un certo numero di domestici, addetti a tutta una serie di attività che vanno comunque espletate in una famiglia. Fino alla diffusione del telefono (che inizia a cavallo tra l'Ottocento e il Novecento) anche comunicare qualcosa a un parente poco distante richiedeva una visita o l'invio di un messaggero. Il numero dei servitori variava ovviamente in funzione del reddito del capofamiglia (quasi sempre l'uomo) e tutti rispondevano a sua moglie, a tutti gli effetti un vero e proprio manager aziendale. (Sarà per questo che le start-up guidate da donne sono più redditizie di quando a guidarle sono gli uomini?)

Il Novecento è il secolo in cui l'automazione cresce in maniera sempre più esplosiva, con gli elettro-domestici che soppiantano quelli in carne e ossa e consentono l'affrancamento della donna dalla cura della casa. Non tutto va bene fin da subito, dal momento che una lavatrice è solo un pezzo di ferro infinitamente più stupido di un domestico in grado di lavare i panni secondo le direttive della padrona di casa applicate in modo flessibile dalla sua intelligenza. Però, da un lato lo sforzo delle aziende nel produrre apparecchi comprensibili e facili da usare, dall'altro l'adattamento delle persone nell'usare tali dispositivi per quello che sono in grado di realizzare, fanno sì che effettivamente molte "diavolerie tecnologiche" rendono oggi più comode tante attività e hanno dato la possibilità, a persone che un tempo sarebbero state servitori a vita, di costruire per loro e per le loro famiglie un’esistenza più gratificante.

Con l'avvento dell'automazione elettronica, che diventa ben presto automazione digitale, la tendenza si inverte. Il problema è che le macchine iniziano a operare in un contesto caratterizzato dalla percezione del mondo esterno e dalla decisione basata sulla sua interpretazione, situazione difficilmente governabile se non si ha l'intelligenza umana, a meno di operare in settori molto ristretti. L'automazione industriale, infatti, dagli anni ‘80 in avanti fa progressi da gigante: pensate soltanto a come molti processi produttivi siano ormai completamente robotizzati. Noi, invece, ricordiamo bene che in quel periodo nelle nostre case lottiamo contro un video registratore che non ne vuol sapere di registrare il nostro programma preferito.

Poi arriva l'informatica personale, pian piano inserita in tutti i dispositivi, dagli elettrodomestici ai cellulari, e in tutti i servizi, dalle banche agli sportelli della Pubblica Amministrazione.

E qui si celebra il grande tradimento.

Le persone sono lasciate in balìa di meccanismi mostruosamente complicati, che non mostrano alcun segno del loro stato interno e non offrono alcuna possibilità di capire cosa stia succedendo. Sono costrette a seguire come burattini liste di azioni incomprensibili, che attuano religiosamente sperando di non sbagliare, mentre i più superstiziosi le accompagnano con gesti apotropaici ("non si sa mai!"). Come risultato ci troviamo trasformati, noi che dovremmo essere i signori e padroni delle macchine, in schiavi senza via di fuga.

Non si è capito che, a fronte di una rivoluzione di portata ben più drammatica, dal punto di vista sociale, di quelle causate dalla televisione o dall’automobile, andava fatto partire un serio programma di alfabetizzazione informatica degli italiani. Si sono riempiti convegni su convegni sul tema “Non è mai troppo tardi 2.0”, dicendo che si sarebbero diffuse le competenze digitali in tutta la società, ma senza investire risorse reali su questa istruzione, ritenendo che tanto tutte le informazioni necessarie fossero disponibili sulla Rete. E si è proseguito come se niente fosse sulla strada di questa automazione.

Ritengo invece che un requisito necessario per il successo di ogni trasformazione digitale sia: “no digitalization without end-user representation”. L’ho scritto in inglese per richiamare in modo esplicito uno dei motti del Settecento che sono stati alla base della rivoluzione delle colonie inglesi contro la madrepatria: “no taxation without representation”. Nel nostro caso vuol dire che se non si coinvolge l’utente finale, che sul web è chiunque, dal letterato all’operaio, entrambi accomunati dall’essere stati investiti da una rivoluzione tecnologica avvenuta troppo in fretta perché potessero assimilarla, il sistema funziona male. Son sicuro che ognuno di noi ha il suo esempio favorito di sito web che richiede un enorme dose di pazienza e autocontrollo per riuscire a portare a termine operazioni che, parlando con un addetto allo sportello, si sarebbero completate in metà del tempo e stress nullo.

Si è poi proseguito elaborando bellissimi piani per la “cosa” digitale, dove “cosa” poteva essere “scuola” o “sanità” o “giustizia” (o qualunque nome di interesse per il governo di turno) senza riflettere che un cambiamento epocale di questo tipo non si attua in poco tempo, perché richiede un’approfondita formazione delle persone. Solo nei film di “Matrix” ci si innesta l’apposita cartuccia e si diventa subito esperti: gli esseri umani hanno invece bisogno di tempo per apprendere, soprattutto se contemporaneamente stanno continuando a fare il loro lavoro e vivere la loro vita.

Adesso, come ricordavo nel precedente articolo, dovremmo riuscire a inserire l’informatica fra le materie insegnate nell’istruzione obbligatoria. In ogni caso, il principio fondamentale che l’automazione informatica deve essere prima di tutto al servizio degli utenti finali dovrebbe essere affermato in modo ben chiaro nelle premesse di ogni documento istituzionale che si occupa della cosiddetta trasformazione digitale: «NESSUNA DIGITALIZZAZIONE SENZA RAPPRESENTAZIONE».

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 9 aprile 2025.

sabato 5 aprile 2025

A passeggio con l’informatica #26 – L'informatica fa crescere?

di Enrico Nardelli

Abbiamo discusso nel precedente articolo come l’automazione portata dall’informatica nel mondo del lavoro abbia bisogno, per sviluppare appieno il suo potenziale, di un’adeguata preparazione delle persone. Questo è vero soprattutto per un Paese come l’Italia, che ha tantissime nicchie produttive di eccellenza, alle quali l’informatica può consentire un incremento di produttività mantenendo elevati livelli di flessibilità e adattabilità.

Come discusso nei quattro articoli a partire da questo, il problema è prima di tutto culturale, perché la tecnologia informatica è diversa da tutte le altre che l’hanno preceduta. Essa realizza “macchine cognitive”, cioè amplificatori delle capacità cognitive razionali delle persone e quindi radicalmente differenti da tutte le macchine precedentemente realizzate dall’uomo, che ne potenziano solo le capacità fisiche. Dopo secoli di progresso tecnologico, questa rivoluzione è dilagata nella società nel breve intervallo di un ventennio, quindi troppo velocemente perché la classe dirigente riuscisse a comprenderne la portata.

È però necessario capire che le capacità e le opportunità dell’informatica diventano davvero un fattore utile per costruire un vantaggio competitivo non quando le soluzioni vengono comprate chiavi in mano e calate dall’alto, ma quando vengono sviluppate e fatte crescere all’interno dell’organizzazione, in modo adattivo alle esigenze dell’organizzazione stessa. Solo sistemi informatici introdotti in modo sinergico con la realtà organizzativa e i suoi processi decisionali sono la chiave per realizzare un’organizzazione efficiente ed efficace. È infine indispensabile capire come questo abbia costi ricorrenti e non trascurabili, e come sia strettamente interallacciato con la struttura e il governo di ogni organizzazione, richiedendo pertanto la reale consapevolezza e il pieno coinvolgimento dei lavoratori interessati.

Si tratta di una sfida educativa epocale, che può essere vinta solo con il contributo e il dialogo di tutti gli attori interessati e che permetterebbe inoltre di creare in Italia concrete opportunità di crescita economica. Non solo perché il settore informatico, chiamato computing negli USA, in quella nazione è già dal 2016 il primo per numero di nuovi occupati (vedi grafico sottostante, realizzato dall’Autore a partire da questi dati) e dal 2017, nell’area manifatturiera, ha superato le richieste di lavoratori del settore della produzione.

Ma anche perché l’uso “sapiente” dell’informatica, che non sia cioè l’acquisto di soluzioni chiavi in mano (che spesso funzionano male e richiedono continui adattamenti) o l’affidarsi a fornitori esterni (generalmente in ritardo e che sforano i preventivi), ma sia basato su uno sviluppo gestito (e, nel migliore dei casi, addirittura realizzato) dall’interno dell’organizzazione, può dare al nostro sistema produttivo una marcia in più.

La produzione italiana è nella maggior parte dei settori caratterizzata da una combinazione unica di qualità e flessibilità. In molti campi siamo i migliori perché riusciamo a seguire da vicino il mutare delle esigenze del mercato mantenendo uno standard qualitativo sempre molto elevato. Per continuare a eccellere in tal modo è ormai necessario introdurre questo uso, che ho chiamato sapiente, dell’informatica nei processi produttivi. Ciò è possibile solo se il nostro sistema formativo produrrà un numero sufficiente di tecnici e laureati di entrambi i sessi, riducendo così anche la differenza di genere che in questo settore è elevata.

Tutto questo non sarà possibile senza un’adeguata conoscenza, sviluppata sin dai banchi della prima elementare, di cosa sia l’informatica e della sua “grande bellezza”.

Ma attenzione, alle volte accade che i benefici derivanti dal miglioramento di produttività ascrivibile all’automazione dell’informatica non vengono equamente distribuiti. Questa situazione è illustrata dal grafico nella figura qui sotto, un’elaborazione dell’Autore su dati dell’OCSE (Organizzazione per la Cooperazione Sociale ed Economica). Sia per la produttività che per il salario sono stati usati valori indice, prendendo il valore del 1 luglio 1995 come base = 100. Osserviamo che il salario medio è cresciuto meno della produttività, il che significa che, in media, il lavoratore non è stato compensato in modo corrispondente alla sua maggiore produttività.

Si noti in particolare la linea più in basso, dal momento che – rappresentando il valore mediano – essa implica che, nell’insieme dei 24 paesi aderenti all’OCSE considerati in questa indagine, la situazione è andata ancora peggio per più della metà dei lavoratori, che hanno ricevuto una quota ancora inferiore dell’incremento di produttività cui hanno contribuito col loro lavoro.

Negli Stati Uniti la divergenza tra produttività e salario è ancora maggiore, come si vede dal grafico sottostante, sempre un’elaborazione dell’Autore su dati relativi allo stesso intervallo temporale dello The Economic Policy Institute (EPI), un istituto no-profit che studia le necessità dei lavoratori USA a basso e medio reddito. Negli stessi anni, dal 1995 al 2013, la produttività è cresciuta di più rispetto alla media OCSE (134,3 contro 130,3), mentre il salario medio di meno (114,0 contro 122,8).

Eppure, quando nella seconda metà del secolo scorso i “cervelli elettronici” (così venivano chiamati per impressionare una società che, pur industrializzata, era ancora agli albori dell’automazione) avevano cominciato a dimostrare le loro incredibili possibilità di automatizzare molti comportamenti tipici degli esseri umani, le speranze che questo potesse portare notevoli vantaggi a tutti si erano diffuse velocemente.

Invece, non solo – come i due grafici qua sopra evidenziano – la maggioranza non ha avuto un grande guadagno da questo aumento di produttività, ma la qualità della vita quando ci troviamo ad interagire con servizi digitali è – in generale – peggiorata (quante volte perdiamo diverse decine di minuti, se non ore intere, cercando di fare qualcosa online attraverso un servizio automatico quando una comunicazione tra persone avrebbe risolto il problema in 5 minuti?) e stiamo perdendo porzioni sempre più ampie dello spazio di riservatezza personale di cui godevamo fino a qualche decennio fa. Molti non se ne rendono conto e considerano normale il vivere in una “casa di vetro”, tanto “non hanno nulla da nascondere”, senza rendersi conto che senza privacy non c’è libertà e senza libertà non c’è democrazia.

Continueremo a discutere nel prossimo post questo tema della distanza tra ciò che ci aspettavamo dall’automazione digitale e ciò che abbiamo avuto.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 2 aprile 2025.

sabato 29 marzo 2025

A passeggio con l’informatica #25 – Informatica e mondo del lavoro

di Enrico Nardelli

Dopo aver concluso con il precedente articolo alcune riflessioni sull’intreccio sempre più fitto tra la dimensione digitale e le altre dimensioni rilevanti per la società umana, iniziamo con questo a discutere lo specifico campo del mondo del lavoro. Le tecnologie digitali sono infatti uno dei fattori che più ha contribuito all’aumento di produttività degli ultimi decenni.

Da parecchi anni in Europa si sente quindi parlare dell’importanza di sviluppare competenze digitali nella forza-lavoro, in modo che i vari settori produttivi e dei servizi diventino più efficaci ed efficienti. Però, se non si capisce che l’informatica è nulla senza il controllo dell’uomo, continueremo a sprecare milioni di euro. La tradizionale automazione industriale ha dapprima sostituito l’azione fisica delle persone con la forza delle macchine, sotto la guida delle facoltà cognitive delle persone. Poi ha meccanizzato con successo compiti burocratici di bassa complessità cognitiva: trasferire denaro da un conto a un altro, acquistare un bene ed effettuarne il pagamento, controllare il livello delle scorte e ordinarne il rimpiazzo. Adesso sono in gioco compiti cognitivi più complessi: l’automazione dell’informatica, soprattutto con l’impetuoso sviluppo dell’intelligenza artificiale generativa (IAG), sta tentando di sostituire l’intelligenza umana con una macchina.

Però, l’automazione dell’informatica, anche quando si mette in campo l’IAG, da sola non basta. Non è infatti sufficiente digitalizzare i processi aziendali o integrarli con strumenti di IAG, perché il mese dopo che i sistemi informatici sono stati installati dovranno essere modificati per adattarsi alle mutate condizioni di contesto. E questo processo di manutenzione va avanti senza fine, perché un sistema informatico non è un essere umano che si adatta alle novità e impara dai suoi errori. Neanche gli strumenti di IAG hanno queste capacità di apprendimento totalmente autonomo, nonostante la propaganda commerciale. L'automazione dell’informatica richiede quindi la supervisione delle persone, per ottenere quella flessibilità che i sistemi informatici non possiedono. Troppo spesso, invece, si è considerata prima l’informatica e adesso l’IAG solo come un facile modo di tagliare sui costi (cioè avere meno personale). Non si riesce a capire che quel chilo e mezzo scarso di materia grigia che hanno le persone ha una capacità di adattamento e di comprensione delle situazioni che neanche la tonnellata e mezzo del supercalcolatore Watson riesce a eguagliare. Oltretutto con un costo enormemente inferiore. È appena del mese scorso la notizia che una società internazionale leader nei pagamenti digitali, che aveva pensato di sostituire il suo personale del servizio di supporto ai clienti con strumenti di IAG ha annullato questa decisione con le parole: «Nel mondo dell’intelligenza artificiale niente ha così valore come le persone! ».

Questa considerazione è suffragata anche da studi economici (trovate i riferimenti nel libro La rivoluzione informatica) che evidenziano che le aziende che non hanno competenze informatiche possono difficilmente migliorare la loro produttività semplicemente investendo nelle tecnologie digitali. Esse hanno bisogno di un appropriato livello di investimento in servizi di supporto, o creando internamente settori con le necessarie competenze oppure acquisendole dall’esterno. Io sono convinto che la prima sia la scelta migliore, perché il flusso dei dati e delle informazioni che essi veicolano è sempre stata la linfa vitale di ogni organizzazione, fattore essenziale per l’efficacia e l’efficienza di ogni sua attività. Ogni persona con responsabilità strategiche o direttive lo sa bene, e la possibilità di trattarli automaticamente mediante l’informatica è un fattore chiave per la competitività. È quindi certamente meglio avere al proprio interno le competenze professionali necessarie.

L'automazione realizzata dalle tecnologie dell'informazione comporta però un salto culturale e concettuale, che richiede un appropriato accompagnamento e un’adeguata preparazione delle persone coinvolte. Proprio per la sua profonda portata concettuale, questo tema non può quindi essere compreso appieno soltanto con qualche corso di formazione sulle competenze digitali. Questo è uno dei motivi per cui la trasformazione digitale sarà lunga e difficile: bisogna aver assorbito idee e concetti, più che conoscere strumenti ed essere abili nell’usarli.

Purtroppo la rivoluzione dell’informatica, diversamente dalla rivoluzione industriale, è avvenuta nel giro di una stessa generazione. Ricordate il 1993? Nella vita dell’uomo della strada non c’erano i social media, nelle aziende si iniziava a usare la posta elettronica, giornali e televisioni erano ancora i signori incontrastati dei media. Ormai trent’anni dopo queste situazioni sono completamente cambiate, mentre l’essere umano è sempre lo stesso, non ha ancora sviluppato una sufficiente consapevolezza nei confronti del mondo digitale, in cui si trova però improvvisamente immerso fino al collo.

Il sistema Italia non riuscirà a usare l’informatica per migliorare il suo futuro se, insieme alle più immediate misure di alfabetizzazione, non si interviene per far crescere la cultura dell’informatica e, in parallelo e da subito, non si definiscono azioni per liberare le potenzialità dell’informatica nel rivitalizzare e ridare competitività al sistema produttivo.

La carenza di vera cultura informatica è ovviamente solo l’esempio più eclatante del generale stato di declino in Italia della cultura scientifica, ormai protrattosi per troppo tempo per un paese avanzato. Ritengo che sia particolarmente grave a causa della natura strategica dell’informatica nel sistema produttivo di un paese che fa parte, non dimentichiamolo, dei sette paesi più industrializzati del mondo.

Una componente indispensabile per un reale ed efficace rilancio dell’economia italiana nel prossimo futuro è quindi l’utilizzo flessibile e adattivo dell’informatica per continuare a sviluppare prodotti e servizi di alto livello ed elevato valore aggiunto in un’ottica artigianale – per quanto attiene agli aspetti qualitativi – ma con un approccio industriale dal punto di vista della filiera produttiva e di distribuzione.

Per conseguire questo obiettivo è necessario che la cultura dell’informatica sia diffusa a tutti i livelli, in modo tale che nel nostro Paese si sviluppi un comparto industriale di “lavoratori della conoscenza” in grado di realizzare a costi competitivi quei sistemi informatici altamente specializzati e personalizzati che sono necessari a questo tipo di economia, assicurando nel contempo capacità di mantenerli e adattarli flessibilmente al variare continuo delle esigenze del mercato e della società.

Un passo necessario per raggiungere questo obiettivo è quello di cominciare a insegnare informatica fin dai primi anni di scuola, come nel Novembre 2023 è stato raccomandato anche dal Consiglio dell’Unione Europea. Finalmente, è notizia di pochi giorni fa, il Ministero dell’Istruzione e del Merito ha proposta una revisione delle Indicazioni Nazionali per la scuola dell’infanzia e del primo ciclo d’istruzione che vede l’inserimento dell’informatica come disciplina di studio. Anche il nostro Paese si sta quindi avviando lungo una strada che è essenziale percorrere per essere protagonisti in una società sempre digitale.

Proseguiremo nel prossimo articolo le riflessioni sull’uso dell’informatica nel mondo lavorativo.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 26 marzo 2025.

sabato 22 marzo 2025

A passeggio con l’informatica #24 – Dati digitali e vita reale

di Enrico Nardelli

Nell’articolo precedente abbiamo discusso l’importanza di mantenere un approccio basato sul rispetto dell’uomo, sia dal punto di vista personale che sociale, nel considerare lo sviluppo delle tecnologie informatiche. Dopo l’ubriacatura dei primi vent’anni di questo secolo, quando sembrava che gli strumenti digitali ci stessero portando in una specie di società ideale, abbiamo cominciato a renderci conto dei problemi connessi con la misurazione digitale di ogni aspetto della nostra vita. Per reazione, questo sta dando sempre più importanza agli aspetti intrinsecamente non misurabili della nostra esistenza, attribuendo ad essi un valore sempre maggiore. Le relazioni personali, il contatto con la natura, il senso dell’identità e della tradizione stanno recuperando terreno e diventando spazi nei quali, sempre più attivamente, ci rifugiamo per sfuggire al controllo digitale.

Il distacco dalla tecnologia digitale è il segno distintivo delle élite che hanno maggiormente contribuito alla diffusione di strumenti che – come vediamo dalle discussioni sempre più accese e polarizzate che occupano i social media – stanno minando i valori fondanti delle società evolute: la comprensione reciproca, la solidarietà, la compassione, il sostegno e la protezione per i più deboli. Non solo, ci sono ormai da qualche anno evidenze sempre più importanti delle conseguenze negative di un uso troppo precoce di smartphone e social media. Si veda, ad esempio, il rapporto finale della 7a Commissione Permanente del Senato “Sull’impatto del digitale sugli studenti, con particolare riferimento ai processi di apprendimento” del giugno 2021.

La tecnologia digitale non implica intrinsecamente un suo utilizzo in modo anti-sociale, ma se lo sviluppo è guidato unicamente da valori economici senza essere contemperato da un approccio pro-sociale, l’atomizzazione dei comportamenti che essa favorisce, giacché si può far tutto attraverso uno smartphone, rischia di far regredire l’umanità alla situazione dell’homo homini lupus.

D'altra parte, è vero che abbiamo spostato gran parte della nostra vita nel regno in cui dominano queste macchine cognitive disincarnate. Di conseguenza, la nostra esistenza si sviluppa ormai non solo lungo le consuete dimensioni relazionali (economica, giuridica, culturale…) ma si articola anche in questa dimensione incorporea delle “rappresentazioni”, sempre più rilevante dal punto di vista sociale.

Non è un fatto del tutto nuovo. L'umanità ha registrato dati sul mondo per migliaia se non decine di migliaia di anni. Tuttavia, da componente del tutto trascurabile della nostra esistenza, le rappresentazioni dei dati ne sono diventate una parte rilevante e importante. Anche se la maggior parte dei dati digitali che creiamo hanno un uso effimero senza essere conservati permanentemente, la quantità di dati raccolti ha raggiunto livelli incredibili. Nel 2025, il totale dei dati digitali archiviati in tutto il mondo dovrebbe raggiungere, secondo diverse stime i 200 Zettabyte, cioè 200 miliardi di Terabyte, ovvero 200 milioni di milioni di Gigabyte. Sono valori che non riusciamo neanche a immaginare.

Come purtroppo ci ha insegnato l'emergenza sanitaria del 2020, non possiamo più ignorare la rappresentazione digitale dei dati che ci riguardano. Essi sono diventati una componente integrante e costitutiva della nostra vita personale e sociale. Da qui la necessità di tutelare i diritti delle persone non solo per quanto riguarda il loro corpo e il loro spirito, ma anche per le loro proiezioni digitali. Nel mio volume La rivoluzione informatica ho argomentato che sarebbe necessaria una tutela di livello costituzionale, modificando l’articolo 2 in modo che riconosca non solo la protezione dei diritti ma anche il soddisfacimento dei doveri nel mondo digitale. Questa sarebbe la nuova versione proposta (in neretto la parte aggiunta): “La Repubblica riconosce e garantisce i diritti inviolabili dell’uomo, sia come singolo, sia nelle formazioni sociali che nei contesti digitali ove si svolge la sua personalità, e richiede l’adempimento dei doveri inderogabili di solidarietà politica, economica e sociale”.

Per chiudere, ricordo che l’assenza nelle macchine cognitive di un corpo fisico ha una controparte duale nel fatto che questa dimensione digitale della nostra esistenza è popolata da “forme di vita” per le quali non abbiamo sensori di rilevazione. I virus e i worm digitali, che non sono benigni nei confronti del nostro “sé digitale”, proprio come le loro controparti biologiche non sono benevole per i nostri corpi fisici, continuano a diffondersi a un ritmo allarmante senza che siamo in grado di contrastarli efficacemente. Avremmo infatti bisogno della versione digitale di quelle norme igieniche che tanto ruolo hanno avuto nel miglioramento delle condizioni di vita nel Novecento . Ancora una volta, è solo attraverso l'istruzione che possiamo fare la differenza, e si deve iniziare il prima possibile.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 19 marzo 2025.

domenica 16 marzo 2025

La rivoluzione informatica entra nella scuola

di Enrico Nardelli

È stato appena pubblicato il testo delle Nuove Indicazioni Nazionali per la scuola dell’infanzia e per il primo ciclo d’istruzione (cioè, primaria e secondaria di primo grado). Si tratta di una revisione di quel documento, originariamente rilasciato nel 2012 dal Ministero dell’Istruzione, dell’Università e della Ricerca con il DM 254 del 16/nov/2012, che rappresenta il quadro di riferimento per la definizione dello specifico curricolo che costituisce l’offerta educativa di ogni scuola.

Lascio ad altri commentatori l’analisi generale sull’impostazione e struttura di questa revisione, sulla quale si apre adesso una fase di consultazione con associazioni professionali e disciplinari, con associazioni di genitori e di studenti e con organizzazioni sindacali della scuola.

Mi concentro in questo articolo solo sul tema dell’insegnamento dell’informatica, che finalmente entra come soggetto di studio a partire dai primi anni di scuola. È un obiettivo per il quale mi sto battendo ormai da più di dieci anni, con il supporto di validissimi colleghi sia in Italia, nel Laboratorio Nazionale CINI “Informatica e Scuola” (di cui sono il Direttore), sia in Europa, nella coalizione internazionale Informatics for All (che ho contributo a fondare quando ero presidente di Informatics Europe).

In Italia avevamo preparato con il Laboratorio, già dal 2017, una proposta didattica che è stata abbastanza fedelmente accolta da queste nuove indicazioni. In Europa abbiamo definito nel 2022 un quadro di riferimento per l’insegnamento dell’informatica nella scuola che ha giocato un ruolo molto importante nel percorso che ha portato alla Raccomandazione del Consiglio dell’Unione Europea sull’insegnamento dell’informatica nella scuola.

L’informatica è presente in queste nuove indicazioni “con due cappelli”, dal momento che il suo inserimento come soggetto scientifico autonomo, come accade in molti altri paesi in tutto il mondo, avrebbe richiesto un percorso normativo differente e più arduo da percorrere. Sono state introdotte competenze di Informatica sia nell’ambito della Matematica sia nell’ambito della Tecnologia, in modo culturalmente compatibile con ognuna di queste due discipline.

È corretto quindi osservare che si tratta di un momento storico, dal momento che sono ormai parecchi decenni che in Italia – ma anche in Europa – si sente parlare solo di competenze digitali declinate in senso operativo (ricordate l’ECDL, la famigerata patente europea del computer?), nell'incomprensione generale da parte di chi dovrebbe avere gli strumenti culturali per capire come si sta evolvendo la società e guidare il Paese lungo questo percorso.

Tutto questo ha portato nel migliore dei casi a comprare e usare tecnologia e servizi informatici realizzati e gestiti altrove, impedendo al nostro Paese di sviluppare competenze sempre più strategiche in una società che è sempre più digitale, e nella quale la differenza viene fatta, molto più che dagli strumenti usati, dalla qualità della formazione che le persone hanno.

In molti casi, purtroppo, confondendo il fine con i mezzi, sono stati introdotti dispositivi digitali nelle scuole, tendenza che è esplosa negli anni della pandemia, pensando che questa fosse la strada giusta e ignorando chi invitava alla cautela nel percorrerla. Finché, nel 2024, giustizia è stata fatta dal rapporto UNESCO dedicato a quella che è stata chiamata “la tragedia dell’istruzione digitale”.

La vera conoscenza di concetti, teorie e metodi dell’informatica è un passo assolutamente necessario per avere la possibilità di scegliere autonomamente la propria direzione di sviluppo, senza dipendere da sistemi e conoscenze che non si posseggono e senza essere soggetti alla sorveglianza di chi li gestisce. Ne ho parlato in dettaglio nel mio libro, intitolato appunto La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, presentando sia i concetti fondamentali della disciplina, sia le conseguenze che i suoi strumenti tecnologici determinano sulla società. Parlare di trasformazione digitale, come si sta ossessivamente facendo da un po’ di anni e pensare di realizzarla acquistando tecnologia o corsi di formazione sul suo utilizzo, senza investire nell’istruzione scolastica e universitaria, è velleitario.

Con queste nuove indicazioni abbiamo la possibilità di incamminarci finalmente su un percorso virtuoso, che faccia sì che tutti i cittadini conoscano i concetti scientifici sulla base dei quali funziona il mondo digitale intorno a noi. Acquisendo una conoscenza di base di questa materia aumenteranno le possibilità che più ragazzi, e soprattutto più ragazze, la scelgano come materia dei loro studi tecnici o universitari. E se non abbiamo più studenti nelle università in questi settori, i ricercatori per sviluppare i sistemi informatici di avanguardia, tipo quelli dell’intelligenza artificiale di cui tutti parlano in questi anni, non potremo mai trovarli.

Il primo, fondamentale, passo è quindi stato fatto, ma il cammino sarà lungo e sarà importantissimo fare tesoro dell’esperienza di altri Paesi che l’hanno intrapreso prima di noi. In particolare il Regno Unito, che ha introdotto la formazione obbligatoria nell’informatica fin dal 2014. Dopo questa riforma, si è visto nel 2017 che le indicazioni curricolari rimanevano in gran parte lettera morta a causa dell’assenza di docenti adeguatamente preparati. Pertanto, il governo britannico ha stanziato nel novembre 2018 un fondo di 82 milioni di sterline per finanziare per 4 anni un istituto per la formazione dei docenti all’insegnamento dell’informatica nella scuola. È stato così istituito nel 2019 il National Center for Computing Education, che ha sviluppato materiali didattici e corsi di formazione per gli insegnanti per tutti i livelli di scuola, e che è stato successivamente sempre rifinanziato, l’ultima volta proprio nel 2025, nonostante i tagli alle spese nel settore pubblico.

Noi abbiamo avuto la possibilità dei fondi del PNRR che però, per i tanti vincoli organizzativi e temporali, stanno venendo spesi in un modo che non lascerà, nella sostanza, una classe insegnante in grado di implementare adeguatamente queste indicazioni nazionali.

Non sarà quindi un compito semplice e servirà una forte volontà politica, che auspico bipartisan nell’interesse strategico del Paese. Infatti, diversamente da quanto accade per ogni altra materia insegnata nella scuola, tranne il ristretto numero di docenti che insegna informatica in pochissimi indirizzi della scuola secondaria superiore, nessuno degli insegnanti ha mai studiato informatica nel corso della sua carriera, né scolastica né universitaria. Non vi è quindi un substrato culturale largamente diffuso su cui far leva per la formazione professionale come avviene, ad esempio, per la matematica, insegnata – ad esempio – nella scuola primaria da docenti che, pur non avendo una specifica formazione professionale sulla disciplina, l’hanno comunque studiata per tutti i 13 anni del loro percorso scolastico.

Confido che questa volontà potrà essere trovata. La comunità accademica degli informatici, che in modo informale porta ormai da 11 anni le basi dell’informatica in quasi tutte le scuole italiane attraverso il progetto Programma il Futuro, è pronta a collaborare.

--
Versione originale pubblicata su "StartMAG" il 13 marzo 2025.

sabato 15 marzo 2025

A passeggio con l’informatica #23 – Per una visione umanistica del digitale

di Enrico Nardelli

L’insegnamento dei princìpi dell’informatica dovrebbe iniziare fin dai primi anni di scuola. Si tratta di una posizione che la coalizione europea Informatics for All, che ho fondato insieme ad altri colleghi europei quando ero presidente di Informatics Europe, sostiene da molti anni. Recentemente, la richiesta è stata fatta propria dal Consiglio dell’Unione Europea, con la Raccomandazione del 23 novembre 2023 di cui abbiamo parlato proprio nella puntata di introduzione a questo percorso.

La nozione fondamentale che un sistema informatico opera senza alcuna comprensione, da parte del sistema stesso, di ciò che viene elaborato e di come viene elaborato, deve accompagnare l'intero processo educativo. Inoltre, dovrebbe sempre andare di pari passo con la riflessione che il processo di modellare la realtà in termini di dati digitali e di elaborarli mediante algoritmi è un'attività umana e, in quanto tale, può essere influenzata dal pregiudizio e dall'ignoranza, senza che l’individuo possa esserne consapevole. Solo così, infatti, diventa possibile comprendere che qualsiasi scelta, da quelle iniziali relative a quali elementi rappresentare e come rappresentarli, a quelle che determinano le regole del trattamento stesso, è frutto di un processo decisionale umano ed è quindi privo di quell’oggettività che troppo spesso è associata ai processi decisionali algoritmici.

A livello scientifico nel maggio 2019 è nato – anche con il contributo dell’Autore – un movimento che ha prodotto il Manifesto di Vienna per l’Umanesimo Digitale, che ricorda come le tecnologie digitali «stanno minando la società e mettendo in discussione la nostra comprensione di cosa significhi essere umani ». Il Manifesto ricorda che la posta in gioco è alta e l’obiettivo di costruire una società giusta e democratica in cui le persone siano al centro del progresso tecnologico è una sfida da affrontare con determinazione e creatività.

Come tutte le tecnologie, anche quelle digitali non emergono dal nulla. Sono modellate da scelte implicite ed esplicite e, quindi, incorporano un insieme di valori e interessi relativi al nostro mondo. L’insegnamento dell'informatica e la riflessione sul suo influsso sulla società devono quindi iniziare il prima possibile. Gli studenti dovrebbero imparare a unire le competenze informatiche con la consapevolezza delle questioni etiche e sociali in gioco.

Il Manifesto ribadisce l’importanza di sviluppare e progettare le tecnologie digitali in base ai valori e ai bisogni umani quali: democrazia, inclusione, rispetto della privacy, libertà di espressione, valorizzazione delle diversità, uguaglianza ed equità, trasparenza.

Sottolinea inoltre l’importanza di far crescere la consapevolezza sul fatto che le decisioni rilevanti che riguardano gli esseri umani debbano sempre essere prese dalle persone e non dagli algoritmi.

Quest’ultimo è un punto della massima importanza. Infatti, come ha osservato Giuseppe Longo (valente informatico italiano che opera in Francia da molti anni), la distinzione fondamentale introdotta da Alan Turing tra hardware e software, se applicata agli esseri viventi e alla società è una «follia computazionale ». Primo, perché nel mondo biologico non esiste una tale distinzione tra hardware e software. Il DNA, il codice della vita, costituisce il suo stesso hardware. La riscrittura delle rappresentazioni che avviene nelle macchine digitali unicamente attraverso il software è in questo senso diversa dalla trascrizione dal DNA all'RNA che avviene in biologia.

In secondo luogo, perché le fluttuazioni sono completamente assenti nel mondo discreto in cui operano le macchine di Turing, mentre svolgono un ruolo essenziale nei complessi sistemi dinamici che ci circondano. Come notato per la prima volta dal grande matematico francese Henri Poincaré, ciò può risultare nell'imprevedibilità dell’evoluzione di tali sistemi, anche se le leggi che li caratterizzano sono definite deterministicamente.

Terzo, perché un qualunque software è in grado di rappresentare solo un'astrazione di un fenomeno reale. Se questa astrazione può fornire indicazioni preziose sulla sua dinamica, considerare la rappresentazione come il fenomeno stesso è tanto sbagliato quanto confondere la mappa col territorio.

E, infine, i sistemi digitali, una volta posti nelle stesse condizioni di partenza all'interno di uno stesso contesto, calcoleranno in modo identico sempre lo stesso risultato, anche per quei sistemi complessi dove (come ha dimostrato Poincaré) questo è fisicamente assurdo. «Le reti informatiche e le banche dati, se considerate come ultimo strumento di conoscenza o come immagine del mondo » scrive Longo «vivono nell'incubo della conoscenza esatta per puro conteggio, della certezza incrollabile per esatta iterazione, e di una “soluzione finale” di tutti i problemi scientifici ».

Da un punto di vista matematico-fisico, questo atteggiamento è fallace, per diversi motivi. In primo luogo, perché i nostri comportamenti accadono in uno spazio continuo e, come Poincaré aveva per primo intuito, nell’approssimazione che ogni misura compie rispetto a un valore continuo si annida l’impredicibilità dei fenomeni fisici.

In secondo luogo, la quantità di “dimensioni” mediante le quali possiamo “misurare” il nostro comportamento è presumibilmente infinita. In altre parole, un nostro comportamento puntuale potrebbe aver bisogno di un numero infinito di valori per poter essere rappresentato (ognuno dei quali sarebbe comunque sottoposto all’approssimazione precedentemente descritta). Ne consegue, quindi, che nessun dispositivo digitale reale, che è finito, potrebbe fisicamente rappresentare tale quantità infinita di valori, introducendo pertanto una seconda tipologia di approssimazione.

Le conseguenze sociali di questo approccio culturale possono però essere effettivamente terrificanti, come diceva David Bowie nell’intervista ricordata nel precedente post. Questa tendenza, sostenuta da una raccolta dei dati relativi alle nostre attività sempre più pervasiva e sempre più sfuggente al nostro controllo, porta a ridurre l’essere umano a una serie di dati, spingendolo ad agire da meccanismo automatico che ripercorre sempre gli stessi schemi di comportamento. Viene in mente il celeberrimo film “The Truman show”, il cui protagonista era marionetta inconsapevole di una sceneggiatura scritta da altri.

Non sfuggiranno certo al lettore attento i pericoli in termini di controllo sociale che si nascondono dietro il dare per scontata questa visione meccanicistica della società umana, che riconduce l’infinita e sfumata complessità delle nostre esperienze a un insieme finito di bit distinti.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 12 marzo 2025.