Pagine

sabato 3 maggio 2025

A passeggio con l’informatica #30 – L'impatto sociale della trasformazione digitale

di Enrico Nardelli

Abbiamo chiuso il precedente post ricordando che alla politica spetta un ruolo decisivo per governare l’uso dell’informatica nello sviluppo della società. In effetti, tutta la seconda parte di questa “passeggiata” è stata dedicata alla riflessione sui vari modi con cui le tecnologie informatiche hanno cambiato e stanno cambiando il nostro mondo. Ho già discusso l’intreccio tra la dimensione digitale e le altre dimensioni sociali ricordando che la vera sfida della trasformazione digitale è prima di tutto di natura sociale e politica e ho osservato – proprio nel primo dei post della seconda parte – che i cambiamenti causati dalla rivoluzione informatica hanno una natura radicalmente diversa da quelli di di ogni altra precedente rivoluzione.

In questo articolo sviluppo alcune considerazioni su questi cambiamenti sociali, partendo da una legge che ho formulato a questo proposito, la Legge sull’impatto sociale della tecnologia digitale:

L'impatto sociale della tecnologia digitale è imprevedibile,
anche tenendo conto della
Legge sull'impatto sociale della tecnologia digitale
.

Chi ha familiarità con Hofstadter, l'indimenticabile autore di "Gödel, Escher, Bach" (un saggio divulgativo sui fondamenti culturali dell’informatica che consiglio vivamente), riconosce che si tratta di una variazione della Legge di Hofstadter sulla pianificazione delle attività («Per fare una cosa ci vuole sempre più tempo di quanto si pensi, anche tenendo conto della Legge di Hofstadter »). Ritengo che la mia variazione sia una legge perfettamente giustificabile, considerato che la gran parte dell’umanità convive con strumenti digitali da neanche un quarto di secolo, nel quale molto poco è stato fatto dai governi per insegnare qualche concetto fondamentale.

Se osserviamo con un minimo di distacco lo sviluppo dell’umanità negli ultimi cinquemila anni — cioè da quando sono emerse società più complesse di una semplice comunità tribale — notiamo che le innovazioni tecnologiche, per quanto incisive, venivano assimilate lentamente. Le trasformazioni si distribuivano su molte generazioni, dando modo alle strutture sociali di adeguarsi gradualmente ai cambiamenti in corso.

Con la diffusione della tecnologia digitale, tuttavia, si è assistito a una repentina trasformazione che ha scardinato in un lasso di tempo brevissimo un paio di principi fondamentali che, nel bene e nel male, hanno sempre governato la nostra esistenza.

Il più significativo di questi principi è quello che ci ricorda l'ineluttabilità della fine. Ogni essere vivente è destinato a morire, e con la sua scomparsa spesso le sue azioni e le sue relazioni cadono nell'oblio. Nella nostra dimensione digitale questo non accade: con la crescente sofisticazione delle rappresentazioni digitali, tale sovvertimento entra sempre più in contrasto con il senso comune. È vero, anche secoli fa esistevano statue che tramandavano ai posteri le sembianze e le imprese di figure illustri, ma ora l'eternità (digitale) è accessibile a chiunque. Il secondo capovolgimento riguarda la dissoluzione dei limiti di spazio e tempo: qualsiasi contenuto digitale può essere copiato e distribuito istantaneamente, ovunque. Il nostro alter ego virtuale (sulla cui necessità di tutela costituzionale abbiamo già discusso) può essere moltiplicato all’infinito e diffuso senza alcun sforzo, una possibilità che un tempo era prerogativa delle divinità.

C’è poi un ulteriore effetto legato a questa nuova condizione: il concetto di fama ha subito un’espansione senza precedenti. Un tempo la popolarità si costruiva lentamente, trasmessa oralmente e limitata da confini geografici. L’invenzione della stampa prima, e poi i media audiovisivi come cinema e TV, hanno accelerato e ampliato la portata della notorietà, generando figure iconiche nel mondo dello spettacolo e dello sport. Oggi, grazie alla rete globale, ciò che conquista l’attenzione può farlo simultaneamente ovunque, mentre la stragrande maggioranza dei contenuti rimane invisibile. Basti pensare che, secondo dati di un paio d’anni fa, solo qualche decina di video su YouTube ha superato il miliardo di visualizzazioni, su un totale stimato di diecimila miliardi di video caricati.

Il superamento di queste due “colonne d’Ercole” ha avuto una conseguenza radicale: un’informazione, una volta resa pubblica in forma digitale, può sopravvivere per sempre e ovunque. Non stupisce, quindi, che il diritto naturale all’oblio abbia dovuto essere formalizzato in una norma specifica per ottenere riconoscimento nell’era digitale. E non è stato un passaggio immediato né indolore: prima che si arrivasse a una regolamentazione, molte vite sono state rovinate.

Il fatto che questi confini una volta considerati invalicabili siano stati abbattuti nell’arco di una singola generazione ci ha catapultati in una dimensione completamente nuova, dove rischiamo di ripetere il destino di Ulisse, così come raccontato nel suo folle viaggio oltre i limiti del mondo, nell’Inferno dantesco:

Tre volte il fé girar con tutte l’acque
a la quarta levar la poppa in suso
e la prora ire in giù, com’altrui piacque,
infin che ’l mar fu sovra noi richiuso.

Il nodo centrale è proprio nella legge che ho precedentemente menzionato: la nostra difficoltà nel comprendere l'impatto di questa tecnologia deriva sia dalla sua natura troppo aliena rispetto a noi, sia dal fatto che la combinazione a crescita esponenziale delle interazioni tra tecnologie e contesti rischia di superare la nostra capacità di intendimento.

Eppure, la nostra storia evolutiva – da semplici primati a (quasi) dominatori del pianeta – dovrebbe insegnarci che ogni risorsa disponibile sarà sfruttata in ogni modo immaginabile. In molti casi, prevederne le conseguenze si rivela estremamente arduo.

Per questo, di fronte a un universo digitale fatto di infinite interazioni e scenari imprevedibili, ci sarebbe bisogno di procedere con estrema cautela. E invece, a volte, sembra che ci stiamo lanciando a tutta velocità e a occhi chiusi verso l’orlo del baratro.

Serve allora un’attenzione costante, una vigilanza rigorosa ogni volta che mettiamo mano alla "bacchetta magica" della tecnologia digitale. Perché potremmo trovarci nei panni dell’apprendista stregone, ma senza nessuno capace di intervenire quando le cose sfuggono al nostro controllo. Ecco perché questa bacchetta non può essere lasciata nelle mani delle grandi aziende tecnologiche, che grazie al loro enorme potere economico influenzano in modo decisivo tutti i mezzi di comunicazione raccontandoci sempre e solo le “magnifiche sorti e progressive” che aspettano l’umanità occultando le conseguenze negative. Ne vedremo un esempio nella prossima puntata.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 30 aprile 2025.

sabato 26 aprile 2025

A passeggio con l’informatica #29 – Come affrontare la trasformazione digitale

di Enrico Nardelli

Abbiamo discusso nel precedente post la necessità di un diverso punto di vista sulla trasformazione digitale, riflettendo sul fatto che l’automazione dell’informatica equivale a sostituire le persone con “macchine cognitive”, che però non hanno la flessibilità e adattabilità di quelle.

Ignorare questo aspetto ha portato e sta portando ai tanti fallimenti in cui vediamo periodicamente incappare i sistemi informatici. Ecco cosa invece dovremmo fare.

Il tradizionale flusso di acquisizione di servizi e prodotti informatici prevede una fase iniziale di definizione dei requisiti del servizio/prodotto necessario con la scrittura di specifiche di dettaglio, a fronte delle quali i potenziali fornitori propongono offerte. La migliore (con criteri basati sul costo e sulla valutazione tecnica, che sono molto rigidi nelle procedure di acquisto della Pubblica Amministrazione e più flessibili nelle aziende private) vince e il contraente inizia a realizzare quanto richiesto. Al termine, se il servizio/prodotto supera i test finali, si entra nella fase operativa.

Quali sono le conseguenze dell’attuale approccio? La triste realtà è che i programmi di sviluppo che prevedono la realizzazione di componenti software sono sempre quelli in maggior ritardo e con i maggiori sforamenti di costi. Periodicamente, le riviste del settore elencano i disastri più eclatanti che si sono verificati nello sviluppo di sistemi informatici: ecco un’analisi di quanto accaduto solo nel 2024. Nel 2018, il direttore della Divisione Acquisti del Ministero della Difesa USA (il Department of Defense), Will Roper, aveva dichiarato che il sistema di acquisizione tradizionale usato per decenni per comprare navi e aeroplani, non poteva funzionare per il software perché «un sistema software non è mai finito, è un processo continuo».

Le aziende informatiche più innovative al mondo hanno da tempo capito che questo metodo non funziona. Se gli utenti vedono il software solo alla fine, è altamente probabile che non solo i requisiti inizialmente definiti non saranno stati soddisfatti, ma anche che ciò di cui hanno bisogno è nel frattempo cambiato. Dalla collaborazione tra il mondo della ricerca e quello dell’industria è emerso, proprio all’inizio del XXI secolo, un approccio radicalmente diverso allo sviluppo del software, l’approccio cosiddetto “agile” (anche in inglese il termine è lo stesso, solo pronunciato diversamente), che è quello appunto usato dalle aziende informatiche all’avanguardia, perché consente loro di sviluppare servizi/prodotti di successo.

D’altro canto, se ci pensate bene, questo è quello che vediamo nelle App che tutti noi usiamo ogni giorno. A noi sembrano sempre le stesse, ma dietro la facciata c’è un lavorìo continuo di aggiornamento ed evoluzione. Come accade con le persone che, dietro la facciata di un’organizzazione, ci forniscono i suoi servizi. Si evolvono al cambiare delle condizioni di contesto o in funzione di un’eventuale cambiamento deciso dalla direzione. I sistemi informatici – in misura largamente maggiore rispetto ad ogni altro sistema costruito dall’uomo – sono sistemi in continuo adattamento, per il quale il ruolo dell’essere umano continua a essere essenziale. Ciò è vero nonostante gli impressionanti avanzamenti dell’intelligenza artificiale e fintanto che vogliamo che continui a esistere una società di persone e non di macchine. Come scrissi nel 2010, per la 6a edizione del convegno europeo di informatica (ECSS) a proposito dello sviluppo dei sistemi informatici: «la manutenzione è la vera implementazione».

Da un punto di vista procedurale, l’acquisizione di sistemi informatici non dovrà più, quindi, essere basata sulla definizione iniziale di tutti i requisiti, ma andrà individuato un ristretto insieme di obiettivi e casi d’u­so iniziali, sui quali un piccolo gruppo congiunto di sviluppatori e utenti inizierà a lavorare con il compito di produrre un primo nucleo funzionante nel giro di qualche settimana. Da lì in avanti si continua con questo approccio iterativo, che è appunto quello definito “agile”, imparando costantemente da successi ed errori sul campo e aggiustando il tiro in funzione dell’evolversi degli scenari.

È un cambiamento epocale se si considera l’acquisizione di un sistema software alla stregua di un qualunque altro prodotto. È la soluzione naturale, se la guardiamo nell’ottica dell’acquisizione di personale.

Mentre questo nuovo paradigma di acquisizione può più agevolmente essere adottato da enti privati, purché chi le guida abbia maturato questa visione culturale dell’automazione informatica, la sua introduzione nel contesto della Pubblica Amministrazione (PA) richiede una sintonia con il contesto legale di riferimento. Sarà quindi necessario cambiare l’intero apparato regolamentare che disciplina le procedure con le quali la PA acquisisce sistemi informatici. Qui è necessario uno sforzo fortemente interdisciplinare, perché vanno mobilitate tutte le competenze che entrano in gioco in questo processo: giuridiche, documentarie, informatiche, gestionali, psicologiche, sotto la guida – va da sé – di una politica che deve farsi carico in prima persona della gestione di tali problematiche.

E proprio al ruolo che deve svolgere la politica per governare l’uso dell’informatica nello sviluppo della società, ruolo necessario e insostituibile, che dedicheremo l’ultimo tratto di questa passeggiata.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 23 aprile 2025.

martedì 22 aprile 2025

Tutti i nodi (dell'IA) vengono al pettine

di Enrico Nardelli

Scrivevo a marzo del 2023, quando tutto il mondo stava cominciando a parlare delle impressionanti capacità di ChatGPT, il primo strumento di intelligenza artificiale generativa (IAG) noto al grande pubblico, e si diffondeva su tutti i mezzi di comunicazione la profezia che l’intelligenza artificiale (IA) avrebbe sostituito la gran parte dei lavoratori, questa frase: «In altre parole, se non sapete già la risposta corretta, ciò che vi dice tale sistema rischia di non essere di alcun aiuto». Due settimane dopo aggiungevo: «poiché ciò che fanno lo esprimono in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi».

Il motivo risiedeva, molto semplicemente, nel modo in cui questi sistemi (tecnicamente definiti Large Language Models, cioè modelli linguistici di grandi dimensioni – LLM) funzionano: usando un modello probabilistico del linguaggio, assai sofisticato e messo a punto attraverso una sterminata base di testi, che contiene statistiche sulle continuazioni più plausibili di sequenze di parole e di frasi. Questa caratteristica permette loro di esibire prestazioni linguistiche impressionanti, di quelle che quando sono esplicitate da esseri umani vengono considerate intelligenti, ma che in realtà non sono tali. Cioè, esibire competenza sulle parole che descrivono il mondo non equivale ad avere competenza sul mondo. Ma poiché il cervello degli esseri umani è configurato in modo tale da vedere un significato in configurazioni del tutto arbitrarie, proiettavamo su tali strumenti l’intelligenza che risiede in noi.

Dal momento che già allora gli interessi economici messi in gioco sull’IAG erano enormi (e da allora centinaia di miliardi di dollari hanno continuato ad essere investiti in questo settore), si è però continuato a raccontare la stessa storia, che a breve l’intelligenza artificiale sarebbe stata in grado di fornire prestazioni umane in tutti i settori. Come al solito, mentre la massa continuava a seguire il pifferaio magico, esperti ben più quotati di me invitavano alla cautela. Io ne ho scritto diverse volte, qui e qui a proposito di scuola, qui e qui a proposito delle relazioni sociali, e qui a proposito del termine in sé, ricordando che questi sistemi producono espressioni che per noi hanno un significato perché proiettiamo su di essi quella comprensione del significato che in realtà è dentro di noi. Di conseguenza non avremmo potuto farci affidamento per sostituire le persone. Pian piano questo sta emergendo – anche se in forma per ora cauta – dalle stesse parole dei CEO e chief scientist delle aziende all’avanguardia in questo settore e degli investitori nel settore della tecnologica, e sembra proprio che il 2025 sarà l’anno in cui anche questa bolla si sgonfierà.

All’inizio di questo mese, Andriy Burkov (ricercatore esperto nell’apprendimento automatico e autore di volumi di successo sull’apprendimento automatico – la tecnica alla base degli LLM) ha commentato su X una serie di post che evidenziavano le terribili prestazioni degli LLM nel ragionamento matematico con queste parole «Solo se tu già conosci la risposta corretta o ne sai abbastanza per riconoscerne una scorretta (cioè, sei un esperto del settore) li puoi usare per qualcosa». Sostanzialmente, le stesse parole che avevo usato io nel post ricordato in apertura.

Pochi giorni dopo Brad Delong (professore di economia all’università della California a Berkeley) in un post sul suo blog ha scritto «Se il tuo LLM ti fa venire in mente che abbia un cervello, è solo perché stai facendo una proiezione non perché sta pensando». Anche in questo caso, sono sostanzialmente le stesse parole usate da me due anni fa.

Fa ovviamente piacere avere conferme delle proprie intuizioni, ma soprattutto è interessante vedere che, come ho detto con diverse parole nel titolo, la consapevolezza che questo nuovo imperatore non abbia poi dei vestiti così belli si sta pian piano diffondendo in tutto il mondo.

Attenzione, questo non vuol dire che gli strumenti di IAG siano inutili. Al contrario, essi sono utilissimi, se li usi come bruta forza lavoro in un settore che conosci bene, avendo contezza della loro incapacità di comprensione. Sono degli amplificatori delle nostre capacità cognitive, come le macchine industriali lo sono delle nostre capacità fisiche. Ma come in quel caso, se non le sai usare, rischi di fare dei disastri. Mettersi alla guida di un aeroplano senza preparazione non ti farà volare sopra i mari come un uccello ma, più probabilmente, ti porterà a una brutta fine. Usare l’IAG in un settore che non si conosce espone agli stessi rischi. Se padroneggi la materia, invece, puoi in molti casi – ma non tutti! – lavorare più veloce, purché continui a fare attenzione a ciò che essa ti propone.

Una recente indagine sul futuro della ricerca nell’IA, svolta dall’Associazione per l'Avanzamento dell’Intelligenza Artificale tra gli esperti del settore, ha rilevato che il 76% ritiene “improbabile” o “molto improbabile” che gli LLM condurranno a quella che si chiama “intelligenza artificiale generale”. Saranno certamente necessari metodi diversi, che non usano solo un approccio di tipo statistico, come accade con gli attuali LLM, ma che adottano anche un approccio di tipo “simbolico” (che è poi quello che veniva usato nel settore dell’intelligenza artificiale prima dell’esplosione delle tecniche di apprendimento automatico) integrando quindi diverse tecniche.

Insomma, il futuro di questa tecnologia è certamente interessante, purché manteniamo la consapevolezza che, adesso come millenni fa, è necessario perseguire un’aurea mediocritas, seguire la via di mezzo.

--
Versione originale pubblicata su "StartMAG" il 19 aprile 2025.

sabato 19 aprile 2025

A passeggio con l’informatica #28 – La trasformazione digitale ha bisogno di un altro punto di vista

di Enrico Nardelli

Negli ultimi post stiamo discutendo vari aspetti delle relazioni tra informatica e mondo del lavoro, riflettendo dapprima sulla necessità di una maturazione a livello culturale basata sull’insegnamento dell’informatica fin dalla scuola dell’obbligo, poi sul ruolo giocato dall’informatica nell’aumento di produttività e infine su come, per la gente comune, sia necessario sviluppare sistemi informatici trasparenti e facili da usare. Affrontiamo adesso il tema di una corretta visione di quella che chiamiamo “trasformazione digitale” e che non è niente altro che automazione informatica.

Tipicamente, infatti, un’organizzazione acquisisce un sistema informatico per rimpiazzare, mediante un sistema automatico, facoltà cognitive precedentemente esplicate da una o più persone. Si individuano le funzioni da automatizzare, che vengono sostituite da un sistema informatico, cioè una “macchina cognitiva”, che è la corrispondente, nella società digitale, alla macchina tradizionale della società industriale.

Questa sostituzione, come ogni automazione, avviene per migliorare la produttività, cioè aumentare l’output o diminuire i costi o entrambe le cose. Fin qui niente di male: l’automazione del lavoro è da secoli il fattore chiave che assicura un costante aumento di produttività. Aver acquisito un sistema informatico vuol dire quindi aver sostituito a una o più persone una o più “macchine cognitive”. Ma queste, senza capacità di adattamento, non sono in grado di evolversi per far fronte al mutare delle condizioni di contesto. Per questo l’acquisizione o lo sviluppo di un qualunque applicazione informatica deve seguire un percorso diverso.

È necessario cambiare prima di tutto il paradigma mentale con cui si affronta l’auto­mazione informatica. Ogni organizzazione sa bene, quando assume un economista, un ingegnere, un legale o un contabile, che ciò che sa fare quella persona all’inizio non rimarrà immutato nel tempo, ma si evolverà, perché la persona imparerà sul campo tutta una serie di dettagli rilevanti per l’organizzazione stessa e adatterà il proprio comportamento man mano che il suo scenario operativo si evolve. All’inizio sotto la guida del suo responsabile, e poi sempre con maggiore grado di autonomia. Se una parte di questo lavoro cognitivo viene trasferito a sistemi informatici, vengono meno questa flessibilità e capacità di evoluzione, che sono specifiche e caratterizzanti gli esseri umani. Non capire questo punto di vista vuol dire continuare a sprecare soldi con lo sviluppo di sistemi informatici.

Prima di informatizzare un processo lavorativo bisogna averlo analizzato in profondità e aver compreso come la sua automazione impatti sull’or­ganizzazione del lavoro, sui rapporti di potere interni e su quelli esterni. Quando si pensa di poter esternalizzare i servizi informatici, risparmiando sul personale, si finisce sempre per scoprire che si è speso di più per adattare questi servizi portati fuori dall’organizzazione ad ogni minimo cambiamento della realtà circostante, modifiche che un informatico impiegato all’interno avrebbe saputo gestire in una frazione del tempo.

Purtroppo non riusciamo ancora a costruire sistemi per la trasformazione di informazione e conoscenza con un livello di affidabilità, prevedibilità e sicurezza comparabile con quello che offrono i tradizionali manufatti ingegneristici. Stiamo ancora al livello della costruzione delle cattedrali medievali, con la differenza che se crollava una cattedrale c'erano meno conseguenze sulla società del crollo di un sistema informatico, data la quasi totale dipendenza che abbiamo dal loro buon funzionamento. Non sappiamo ancora costruire sistemi che abbiano una comprensione semantica della realtà e dei suoi cambiamenti al livello di un bambino della scuola elementare, nonostante quanto ci appaia dall’interazione con i sistemi di intelligenza artificiale generativa (IAG). Sempre più frequentemente, gli strumenti digitali che usiamo quotidianamente si trasformano in meccanismi per controllare e registrare ciò che diciamo e facciamo, per poi trasformare questi dati in occasioni di enorme profitto per pochi, lasciandoci briciole di utilità personale. Insomma l’informatica che potrebbe e dovrebbe essere usata per farci stare meglio, diventa strumento di oppressione e di stress.

L’ap­proccio quindi da usare è considerare un processo di trasformazione digitale come l’acquisizione di una certa quantità di persone con certe competenze di base. Nessun selezionatore del personale si aspetta di trovare sempre “il candidato perfetto”, perché questa non è affatto la norma. Si cerca di trovare una persona col profilo sufficientemente buono per poter “scendere in campo” con efficacia e poi, da lì, evolversi.

Con i sistemi informatici da realizzare per la trasformazione digitale bisogna adottare lo stesso approccio. Il che non vuol dire prendere il primo sistema che capita, ma far diventare parte del processo di acquisizione lo sviluppo incrementale e co-costru­ito (da utenti e sviluppatori, da committenti e fornitori) del sistema stesso. Esattamente come accade con i dipendenti. Tutti coloro che si occupano di queste problematiche sanno quanto sia complicato l’inserimento di una squadra di 10 dipendenti in un gruppo di 100, tanto più quanto maggiore è la componente cognitiva e non fisica delle attività svolte nell’organizzazione. Quando si digitalizza un processo aziendale si sta facendo sostanzialmente la stessa cosa. Perché dovremmo procedere in modo diverso? Se lo facciamo è perché non abbiamo capito che quella informatica è un’automazione radicalmente diversa da ogni altra e che richiede un altro approccio.

Lo approfondiremo nel prossimo articolo.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 16 aprile 2025.

sabato 12 aprile 2025

A passeggio con l’informatica #27 – Nessuna digitalizzazione senza rappresentazione

di Enrico Nardelli

Abbiamo discusso nel precedente articolo come l’informatica sia stata una componente essenziale per ottenere l’aumento di produttività che abbiamo visto negli ultimi 30-40 anni ma come gran parte di questo beneficio non sia ricaduto sui lavoratori. In questo post affronto cosa è accaduto nel nostro quotidiano.

Nel corso dei secoli passati abbiamo assistito a un parallelo avanzamento di cambiamenti sociali e automazione, che hanno reso certi aspetti della nostra esistenza più comodi e hanno consentito a molti di migliorare le loro condizioni di vita.

Consideriamo anche soltanto la vita domestica (ma ragionamenti analoghi si possono fare per quella lavorativa). Fino a metà del XX secolo nella famiglia di un membro della classe professionale media c'erano comunque un certo numero di domestici, addetti a tutta una serie di attività che vanno comunque espletate in una famiglia. Fino alla diffusione del telefono (che inizia a cavallo tra l'Ottocento e il Novecento) anche comunicare qualcosa a un parente poco distante richiedeva una visita o l'invio di un messaggero. Il numero dei servitori variava ovviamente in funzione del reddito del capofamiglia (quasi sempre l'uomo) e tutti rispondevano a sua moglie, a tutti gli effetti un vero e proprio manager aziendale. (Sarà per questo che le start-up guidate da donne sono più redditizie di quando a guidarle sono gli uomini?)

Il Novecento è il secolo in cui l'automazione cresce in maniera sempre più esplosiva, con gli elettro-domestici che soppiantano quelli in carne e ossa e consentono l'affrancamento della donna dalla cura della casa. Non tutto va bene fin da subito, dal momento che una lavatrice è solo un pezzo di ferro infinitamente più stupido di un domestico in grado di lavare i panni secondo le direttive della padrona di casa applicate in modo flessibile dalla sua intelligenza. Però, da un lato lo sforzo delle aziende nel produrre apparecchi comprensibili e facili da usare, dall'altro l'adattamento delle persone nell'usare tali dispositivi per quello che sono in grado di realizzare, fanno sì che effettivamente molte "diavolerie tecnologiche" rendono oggi più comode tante attività e hanno dato la possibilità, a persone che un tempo sarebbero state servitori a vita, di costruire per loro e per le loro famiglie un’esistenza più gratificante.

Con l'avvento dell'automazione elettronica, che diventa ben presto automazione digitale, la tendenza si inverte. Il problema è che le macchine iniziano a operare in un contesto caratterizzato dalla percezione del mondo esterno e dalla decisione basata sulla sua interpretazione, situazione difficilmente governabile se non si ha l'intelligenza umana, a meno di operare in settori molto ristretti. L'automazione industriale, infatti, dagli anni ‘80 in avanti fa progressi da gigante: pensate soltanto a come molti processi produttivi siano ormai completamente robotizzati. Noi, invece, ricordiamo bene che in quel periodo nelle nostre case lottiamo contro un video registratore che non ne vuol sapere di registrare il nostro programma preferito.

Poi arriva l'informatica personale, pian piano inserita in tutti i dispositivi, dagli elettrodomestici ai cellulari, e in tutti i servizi, dalle banche agli sportelli della Pubblica Amministrazione.

E qui si celebra il grande tradimento.

Le persone sono lasciate in balìa di meccanismi mostruosamente complicati, che non mostrano alcun segno del loro stato interno e non offrono alcuna possibilità di capire cosa stia succedendo. Sono costrette a seguire come burattini liste di azioni incomprensibili, che attuano religiosamente sperando di non sbagliare, mentre i più superstiziosi le accompagnano con gesti apotropaici ("non si sa mai!"). Come risultato ci troviamo trasformati, noi che dovremmo essere i signori e padroni delle macchine, in schiavi senza via di fuga.

Non si è capito che, a fronte di una rivoluzione di portata ben più drammatica, dal punto di vista sociale, di quelle causate dalla televisione o dall’automobile, andava fatto partire un serio programma di alfabetizzazione informatica degli italiani. Si sono riempiti convegni su convegni sul tema “Non è mai troppo tardi 2.0”, dicendo che si sarebbero diffuse le competenze digitali in tutta la società, ma senza investire risorse reali su questa istruzione, ritenendo che tanto tutte le informazioni necessarie fossero disponibili sulla Rete. E si è proseguito come se niente fosse sulla strada di questa automazione.

Ritengo invece che un requisito necessario per il successo di ogni trasformazione digitale sia: “no digitalization without end-user representation”. L’ho scritto in inglese per richiamare in modo esplicito uno dei motti del Settecento che sono stati alla base della rivoluzione delle colonie inglesi contro la madrepatria: “no taxation without representation”. Nel nostro caso vuol dire che se non si coinvolge l’utente finale, che sul web è chiunque, dal letterato all’operaio, entrambi accomunati dall’essere stati investiti da una rivoluzione tecnologica avvenuta troppo in fretta perché potessero assimilarla, il sistema funziona male. Son sicuro che ognuno di noi ha il suo esempio favorito di sito web che richiede un enorme dose di pazienza e autocontrollo per riuscire a portare a termine operazioni che, parlando con un addetto allo sportello, si sarebbero completate in metà del tempo e stress nullo.

Si è poi proseguito elaborando bellissimi piani per la “cosa” digitale, dove “cosa” poteva essere “scuola” o “sanità” o “giustizia” (o qualunque nome di interesse per il governo di turno) senza riflettere che un cambiamento epocale di questo tipo non si attua in poco tempo, perché richiede un’approfondita formazione delle persone. Solo nei film di “Matrix” ci si innesta l’apposita cartuccia e si diventa subito esperti: gli esseri umani hanno invece bisogno di tempo per apprendere, soprattutto se contemporaneamente stanno continuando a fare il loro lavoro e vivere la loro vita.

Adesso, come ricordavo nel precedente articolo, dovremmo riuscire a inserire l’informatica fra le materie insegnate nell’istruzione obbligatoria. In ogni caso, il principio fondamentale che l’automazione informatica deve essere prima di tutto al servizio degli utenti finali dovrebbe essere affermato in modo ben chiaro nelle premesse di ogni documento istituzionale che si occupa della cosiddetta trasformazione digitale: «NESSUNA DIGITALIZZAZIONE SENZA RAPPRESENTAZIONE».

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 9 aprile 2025.

sabato 5 aprile 2025

A passeggio con l’informatica #26 – L'informatica fa crescere?

di Enrico Nardelli

Abbiamo discusso nel precedente articolo come l’automazione portata dall’informatica nel mondo del lavoro abbia bisogno, per sviluppare appieno il suo potenziale, di un’adeguata preparazione delle persone. Questo è vero soprattutto per un Paese come l’Italia, che ha tantissime nicchie produttive di eccellenza, alle quali l’informatica può consentire un incremento di produttività mantenendo elevati livelli di flessibilità e adattabilità.

Come discusso nei quattro articoli a partire da questo, il problema è prima di tutto culturale, perché la tecnologia informatica è diversa da tutte le altre che l’hanno preceduta. Essa realizza “macchine cognitive”, cioè amplificatori delle capacità cognitive razionali delle persone e quindi radicalmente differenti da tutte le macchine precedentemente realizzate dall’uomo, che ne potenziano solo le capacità fisiche. Dopo secoli di progresso tecnologico, questa rivoluzione è dilagata nella società nel breve intervallo di un ventennio, quindi troppo velocemente perché la classe dirigente riuscisse a comprenderne la portata.

È però necessario capire che le capacità e le opportunità dell’informatica diventano davvero un fattore utile per costruire un vantaggio competitivo non quando le soluzioni vengono comprate chiavi in mano e calate dall’alto, ma quando vengono sviluppate e fatte crescere all’interno dell’organizzazione, in modo adattivo alle esigenze dell’organizzazione stessa. Solo sistemi informatici introdotti in modo sinergico con la realtà organizzativa e i suoi processi decisionali sono la chiave per realizzare un’organizzazione efficiente ed efficace. È infine indispensabile capire come questo abbia costi ricorrenti e non trascurabili, e come sia strettamente interallacciato con la struttura e il governo di ogni organizzazione, richiedendo pertanto la reale consapevolezza e il pieno coinvolgimento dei lavoratori interessati.

Si tratta di una sfida educativa epocale, che può essere vinta solo con il contributo e il dialogo di tutti gli attori interessati e che permetterebbe inoltre di creare in Italia concrete opportunità di crescita economica. Non solo perché il settore informatico, chiamato computing negli USA, in quella nazione è già dal 2016 il primo per numero di nuovi occupati (vedi grafico sottostante, realizzato dall’Autore a partire da questi dati) e dal 2017, nell’area manifatturiera, ha superato le richieste di lavoratori del settore della produzione.

Ma anche perché l’uso “sapiente” dell’informatica, che non sia cioè l’acquisto di soluzioni chiavi in mano (che spesso funzionano male e richiedono continui adattamenti) o l’affidarsi a fornitori esterni (generalmente in ritardo e che sforano i preventivi), ma sia basato su uno sviluppo gestito (e, nel migliore dei casi, addirittura realizzato) dall’interno dell’organizzazione, può dare al nostro sistema produttivo una marcia in più.

La produzione italiana è nella maggior parte dei settori caratterizzata da una combinazione unica di qualità e flessibilità. In molti campi siamo i migliori perché riusciamo a seguire da vicino il mutare delle esigenze del mercato mantenendo uno standard qualitativo sempre molto elevato. Per continuare a eccellere in tal modo è ormai necessario introdurre questo uso, che ho chiamato sapiente, dell’informatica nei processi produttivi. Ciò è possibile solo se il nostro sistema formativo produrrà un numero sufficiente di tecnici e laureati di entrambi i sessi, riducendo così anche la differenza di genere che in questo settore è elevata.

Tutto questo non sarà possibile senza un’adeguata conoscenza, sviluppata sin dai banchi della prima elementare, di cosa sia l’informatica e della sua “grande bellezza”.

Ma attenzione, alle volte accade che i benefici derivanti dal miglioramento di produttività ascrivibile all’automazione dell’informatica non vengono equamente distribuiti. Questa situazione è illustrata dal grafico nella figura qui sotto, un’elaborazione dell’Autore su dati dell’OCSE (Organizzazione per la Cooperazione Sociale ed Economica). Sia per la produttività che per il salario sono stati usati valori indice, prendendo il valore del 1 luglio 1995 come base = 100. Osserviamo che il salario medio è cresciuto meno della produttività, il che significa che, in media, il lavoratore non è stato compensato in modo corrispondente alla sua maggiore produttività.

Si noti in particolare la linea più in basso, dal momento che – rappresentando il valore mediano – essa implica che, nell’insieme dei 24 paesi aderenti all’OCSE considerati in questa indagine, la situazione è andata ancora peggio per più della metà dei lavoratori, che hanno ricevuto una quota ancora inferiore dell’incremento di produttività cui hanno contribuito col loro lavoro.

Negli Stati Uniti la divergenza tra produttività e salario è ancora maggiore, come si vede dal grafico sottostante, sempre un’elaborazione dell’Autore su dati relativi allo stesso intervallo temporale dello The Economic Policy Institute (EPI), un istituto no-profit che studia le necessità dei lavoratori USA a basso e medio reddito. Negli stessi anni, dal 1995 al 2013, la produttività è cresciuta di più rispetto alla media OCSE (134,3 contro 130,3), mentre il salario medio di meno (114,0 contro 122,8).

Eppure, quando nella seconda metà del secolo scorso i “cervelli elettronici” (così venivano chiamati per impressionare una società che, pur industrializzata, era ancora agli albori dell’automazione) avevano cominciato a dimostrare le loro incredibili possibilità di automatizzare molti comportamenti tipici degli esseri umani, le speranze che questo potesse portare notevoli vantaggi a tutti si erano diffuse velocemente.

Invece, non solo – come i due grafici qua sopra evidenziano – la maggioranza non ha avuto un grande guadagno da questo aumento di produttività, ma la qualità della vita quando ci troviamo ad interagire con servizi digitali è – in generale – peggiorata (quante volte perdiamo diverse decine di minuti, se non ore intere, cercando di fare qualcosa online attraverso un servizio automatico quando una comunicazione tra persone avrebbe risolto il problema in 5 minuti?) e stiamo perdendo porzioni sempre più ampie dello spazio di riservatezza personale di cui godevamo fino a qualche decennio fa. Molti non se ne rendono conto e considerano normale il vivere in una “casa di vetro”, tanto “non hanno nulla da nascondere”, senza rendersi conto che senza privacy non c’è libertà e senza libertà non c’è democrazia.

Continueremo a discutere nel prossimo post questo tema della distanza tra ciò che ci aspettavamo dall’automazione digitale e ciò che abbiamo avuto.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 2 aprile 2025.

sabato 29 marzo 2025

A passeggio con l’informatica #25 – Informatica e mondo del lavoro

di Enrico Nardelli

Dopo aver concluso con il precedente articolo alcune riflessioni sull’intreccio sempre più fitto tra la dimensione digitale e le altre dimensioni rilevanti per la società umana, iniziamo con questo a discutere lo specifico campo del mondo del lavoro. Le tecnologie digitali sono infatti uno dei fattori che più ha contribuito all’aumento di produttività degli ultimi decenni.

Da parecchi anni in Europa si sente quindi parlare dell’importanza di sviluppare competenze digitali nella forza-lavoro, in modo che i vari settori produttivi e dei servizi diventino più efficaci ed efficienti. Però, se non si capisce che l’informatica è nulla senza il controllo dell’uomo, continueremo a sprecare milioni di euro. La tradizionale automazione industriale ha dapprima sostituito l’azione fisica delle persone con la forza delle macchine, sotto la guida delle facoltà cognitive delle persone. Poi ha meccanizzato con successo compiti burocratici di bassa complessità cognitiva: trasferire denaro da un conto a un altro, acquistare un bene ed effettuarne il pagamento, controllare il livello delle scorte e ordinarne il rimpiazzo. Adesso sono in gioco compiti cognitivi più complessi: l’automazione dell’informatica, soprattutto con l’impetuoso sviluppo dell’intelligenza artificiale generativa (IAG), sta tentando di sostituire l’intelligenza umana con una macchina.

Però, l’automazione dell’informatica, anche quando si mette in campo l’IAG, da sola non basta. Non è infatti sufficiente digitalizzare i processi aziendali o integrarli con strumenti di IAG, perché il mese dopo che i sistemi informatici sono stati installati dovranno essere modificati per adattarsi alle mutate condizioni di contesto. E questo processo di manutenzione va avanti senza fine, perché un sistema informatico non è un essere umano che si adatta alle novità e impara dai suoi errori. Neanche gli strumenti di IAG hanno queste capacità di apprendimento totalmente autonomo, nonostante la propaganda commerciale. L'automazione dell’informatica richiede quindi la supervisione delle persone, per ottenere quella flessibilità che i sistemi informatici non possiedono. Troppo spesso, invece, si è considerata prima l’informatica e adesso l’IAG solo come un facile modo di tagliare sui costi (cioè avere meno personale). Non si riesce a capire che quel chilo e mezzo scarso di materia grigia che hanno le persone ha una capacità di adattamento e di comprensione delle situazioni che neanche la tonnellata e mezzo del supercalcolatore Watson riesce a eguagliare. Oltretutto con un costo enormemente inferiore. È appena del mese scorso la notizia che una società internazionale leader nei pagamenti digitali, che aveva pensato di sostituire il suo personale del servizio di supporto ai clienti con strumenti di IAG ha annullato questa decisione con le parole: «Nel mondo dell’intelligenza artificiale niente ha così valore come le persone! ».

Questa considerazione è suffragata anche da studi economici (trovate i riferimenti nel libro La rivoluzione informatica) che evidenziano che le aziende che non hanno competenze informatiche possono difficilmente migliorare la loro produttività semplicemente investendo nelle tecnologie digitali. Esse hanno bisogno di un appropriato livello di investimento in servizi di supporto, o creando internamente settori con le necessarie competenze oppure acquisendole dall’esterno. Io sono convinto che la prima sia la scelta migliore, perché il flusso dei dati e delle informazioni che essi veicolano è sempre stata la linfa vitale di ogni organizzazione, fattore essenziale per l’efficacia e l’efficienza di ogni sua attività. Ogni persona con responsabilità strategiche o direttive lo sa bene, e la possibilità di trattarli automaticamente mediante l’informatica è un fattore chiave per la competitività. È quindi certamente meglio avere al proprio interno le competenze professionali necessarie.

L'automazione realizzata dalle tecnologie dell'informazione comporta però un salto culturale e concettuale, che richiede un appropriato accompagnamento e un’adeguata preparazione delle persone coinvolte. Proprio per la sua profonda portata concettuale, questo tema non può quindi essere compreso appieno soltanto con qualche corso di formazione sulle competenze digitali. Questo è uno dei motivi per cui la trasformazione digitale sarà lunga e difficile: bisogna aver assorbito idee e concetti, più che conoscere strumenti ed essere abili nell’usarli.

Purtroppo la rivoluzione dell’informatica, diversamente dalla rivoluzione industriale, è avvenuta nel giro di una stessa generazione. Ricordate il 1993? Nella vita dell’uomo della strada non c’erano i social media, nelle aziende si iniziava a usare la posta elettronica, giornali e televisioni erano ancora i signori incontrastati dei media. Ormai trent’anni dopo queste situazioni sono completamente cambiate, mentre l’essere umano è sempre lo stesso, non ha ancora sviluppato una sufficiente consapevolezza nei confronti del mondo digitale, in cui si trova però improvvisamente immerso fino al collo.

Il sistema Italia non riuscirà a usare l’informatica per migliorare il suo futuro se, insieme alle più immediate misure di alfabetizzazione, non si interviene per far crescere la cultura dell’informatica e, in parallelo e da subito, non si definiscono azioni per liberare le potenzialità dell’informatica nel rivitalizzare e ridare competitività al sistema produttivo.

La carenza di vera cultura informatica è ovviamente solo l’esempio più eclatante del generale stato di declino in Italia della cultura scientifica, ormai protrattosi per troppo tempo per un paese avanzato. Ritengo che sia particolarmente grave a causa della natura strategica dell’informatica nel sistema produttivo di un paese che fa parte, non dimentichiamolo, dei sette paesi più industrializzati del mondo.

Una componente indispensabile per un reale ed efficace rilancio dell’economia italiana nel prossimo futuro è quindi l’utilizzo flessibile e adattivo dell’informatica per continuare a sviluppare prodotti e servizi di alto livello ed elevato valore aggiunto in un’ottica artigianale – per quanto attiene agli aspetti qualitativi – ma con un approccio industriale dal punto di vista della filiera produttiva e di distribuzione.

Per conseguire questo obiettivo è necessario che la cultura dell’informatica sia diffusa a tutti i livelli, in modo tale che nel nostro Paese si sviluppi un comparto industriale di “lavoratori della conoscenza” in grado di realizzare a costi competitivi quei sistemi informatici altamente specializzati e personalizzati che sono necessari a questo tipo di economia, assicurando nel contempo capacità di mantenerli e adattarli flessibilmente al variare continuo delle esigenze del mercato e della società.

Un passo necessario per raggiungere questo obiettivo è quello di cominciare a insegnare informatica fin dai primi anni di scuola, come nel Novembre 2023 è stato raccomandato anche dal Consiglio dell’Unione Europea. Finalmente, è notizia di pochi giorni fa, il Ministero dell’Istruzione e del Merito ha proposta una revisione delle Indicazioni Nazionali per la scuola dell’infanzia e del primo ciclo d’istruzione che vede l’inserimento dell’informatica come disciplina di studio. Anche il nostro Paese si sta quindi avviando lungo una strada che è essenziale percorrere per essere protagonisti in una società sempre digitale.

Proseguiremo nel prossimo articolo le riflessioni sull’uso dell’informatica nel mondo lavorativo.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 26 marzo 2025.

sabato 22 marzo 2025

A passeggio con l’informatica #24 – Dati digitali e vita reale

di Enrico Nardelli

Nell’articolo precedente abbiamo discusso l’importanza di mantenere un approccio basato sul rispetto dell’uomo, sia dal punto di vista personale che sociale, nel considerare lo sviluppo delle tecnologie informatiche. Dopo l’ubriacatura dei primi vent’anni di questo secolo, quando sembrava che gli strumenti digitali ci stessero portando in una specie di società ideale, abbiamo cominciato a renderci conto dei problemi connessi con la misurazione digitale di ogni aspetto della nostra vita. Per reazione, questo sta dando sempre più importanza agli aspetti intrinsecamente non misurabili della nostra esistenza, attribuendo ad essi un valore sempre maggiore. Le relazioni personali, il contatto con la natura, il senso dell’identità e della tradizione stanno recuperando terreno e diventando spazi nei quali, sempre più attivamente, ci rifugiamo per sfuggire al controllo digitale.

Il distacco dalla tecnologia digitale è il segno distintivo delle élite che hanno maggiormente contribuito alla diffusione di strumenti che – come vediamo dalle discussioni sempre più accese e polarizzate che occupano i social media – stanno minando i valori fondanti delle società evolute: la comprensione reciproca, la solidarietà, la compassione, il sostegno e la protezione per i più deboli. Non solo, ci sono ormai da qualche anno evidenze sempre più importanti delle conseguenze negative di un uso troppo precoce di smartphone e social media. Si veda, ad esempio, il rapporto finale della 7a Commissione Permanente del Senato “Sull’impatto del digitale sugli studenti, con particolare riferimento ai processi di apprendimento” del giugno 2021.

La tecnologia digitale non implica intrinsecamente un suo utilizzo in modo anti-sociale, ma se lo sviluppo è guidato unicamente da valori economici senza essere contemperato da un approccio pro-sociale, l’atomizzazione dei comportamenti che essa favorisce, giacché si può far tutto attraverso uno smartphone, rischia di far regredire l’umanità alla situazione dell’homo homini lupus.

D'altra parte, è vero che abbiamo spostato gran parte della nostra vita nel regno in cui dominano queste macchine cognitive disincarnate. Di conseguenza, la nostra esistenza si sviluppa ormai non solo lungo le consuete dimensioni relazionali (economica, giuridica, culturale…) ma si articola anche in questa dimensione incorporea delle “rappresentazioni”, sempre più rilevante dal punto di vista sociale.

Non è un fatto del tutto nuovo. L'umanità ha registrato dati sul mondo per migliaia se non decine di migliaia di anni. Tuttavia, da componente del tutto trascurabile della nostra esistenza, le rappresentazioni dei dati ne sono diventate una parte rilevante e importante. Anche se la maggior parte dei dati digitali che creiamo hanno un uso effimero senza essere conservati permanentemente, la quantità di dati raccolti ha raggiunto livelli incredibili. Nel 2025, il totale dei dati digitali archiviati in tutto il mondo dovrebbe raggiungere, secondo diverse stime i 200 Zettabyte, cioè 200 miliardi di Terabyte, ovvero 200 milioni di milioni di Gigabyte. Sono valori che non riusciamo neanche a immaginare.

Come purtroppo ci ha insegnato l'emergenza sanitaria del 2020, non possiamo più ignorare la rappresentazione digitale dei dati che ci riguardano. Essi sono diventati una componente integrante e costitutiva della nostra vita personale e sociale. Da qui la necessità di tutelare i diritti delle persone non solo per quanto riguarda il loro corpo e il loro spirito, ma anche per le loro proiezioni digitali. Nel mio volume La rivoluzione informatica ho argomentato che sarebbe necessaria una tutela di livello costituzionale, modificando l’articolo 2 in modo che riconosca non solo la protezione dei diritti ma anche il soddisfacimento dei doveri nel mondo digitale. Questa sarebbe la nuova versione proposta (in neretto la parte aggiunta): “La Repubblica riconosce e garantisce i diritti inviolabili dell’uomo, sia come singolo, sia nelle formazioni sociali che nei contesti digitali ove si svolge la sua personalità, e richiede l’adempimento dei doveri inderogabili di solidarietà politica, economica e sociale”.

Per chiudere, ricordo che l’assenza nelle macchine cognitive di un corpo fisico ha una controparte duale nel fatto che questa dimensione digitale della nostra esistenza è popolata da “forme di vita” per le quali non abbiamo sensori di rilevazione. I virus e i worm digitali, che non sono benigni nei confronti del nostro “sé digitale”, proprio come le loro controparti biologiche non sono benevole per i nostri corpi fisici, continuano a diffondersi a un ritmo allarmante senza che siamo in grado di contrastarli efficacemente. Avremmo infatti bisogno della versione digitale di quelle norme igieniche che tanto ruolo hanno avuto nel miglioramento delle condizioni di vita nel Novecento . Ancora una volta, è solo attraverso l'istruzione che possiamo fare la differenza, e si deve iniziare il prima possibile.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 19 marzo 2025.

sabato 15 marzo 2025

A passeggio con l’informatica #23 – Per una visione umanistica del digitale

di Enrico Nardelli

L’insegnamento dei princìpi dell’informatica dovrebbe iniziare fin dai primi anni di scuola. Si tratta di una posizione che la coalizione europea Informatics for All, che ho fondato insieme ad altri colleghi europei quando ero presidente di Informatics Europe, sostiene da molti anni. Recentemente, la richiesta è stata fatta propria dal Consiglio dell’Unione Europea, con la Raccomandazione del 23 novembre 2023 di cui abbiamo parlato proprio nella puntata di introduzione a questo percorso.

La nozione fondamentale che un sistema informatico opera senza alcuna comprensione, da parte del sistema stesso, di ciò che viene elaborato e di come viene elaborato, deve accompagnare l'intero processo educativo. Inoltre, dovrebbe sempre andare di pari passo con la riflessione che il processo di modellare la realtà in termini di dati digitali e di elaborarli mediante algoritmi è un'attività umana e, in quanto tale, può essere influenzata dal pregiudizio e dall'ignoranza, senza che l’individuo possa esserne consapevole. Solo così, infatti, diventa possibile comprendere che qualsiasi scelta, da quelle iniziali relative a quali elementi rappresentare e come rappresentarli, a quelle che determinano le regole del trattamento stesso, è frutto di un processo decisionale umano ed è quindi privo di quell’oggettività che troppo spesso è associata ai processi decisionali algoritmici.

A livello scientifico nel maggio 2019 è nato – anche con il contributo dell’Autore – un movimento che ha prodotto il Manifesto di Vienna per l’Umanesimo Digitale, che ricorda come le tecnologie digitali «stanno minando la società e mettendo in discussione la nostra comprensione di cosa significhi essere umani ». Il Manifesto ricorda che la posta in gioco è alta e l’obiettivo di costruire una società giusta e democratica in cui le persone siano al centro del progresso tecnologico è una sfida da affrontare con determinazione e creatività.

Come tutte le tecnologie, anche quelle digitali non emergono dal nulla. Sono modellate da scelte implicite ed esplicite e, quindi, incorporano un insieme di valori e interessi relativi al nostro mondo. L’insegnamento dell'informatica e la riflessione sul suo influsso sulla società devono quindi iniziare il prima possibile. Gli studenti dovrebbero imparare a unire le competenze informatiche con la consapevolezza delle questioni etiche e sociali in gioco.

Il Manifesto ribadisce l’importanza di sviluppare e progettare le tecnologie digitali in base ai valori e ai bisogni umani quali: democrazia, inclusione, rispetto della privacy, libertà di espressione, valorizzazione delle diversità, uguaglianza ed equità, trasparenza.

Sottolinea inoltre l’importanza di far crescere la consapevolezza sul fatto che le decisioni rilevanti che riguardano gli esseri umani debbano sempre essere prese dalle persone e non dagli algoritmi.

Quest’ultimo è un punto della massima importanza. Infatti, come ha osservato Giuseppe Longo (valente informatico italiano che opera in Francia da molti anni), la distinzione fondamentale introdotta da Alan Turing tra hardware e software, se applicata agli esseri viventi e alla società è una «follia computazionale ». Primo, perché nel mondo biologico non esiste una tale distinzione tra hardware e software. Il DNA, il codice della vita, costituisce il suo stesso hardware. La riscrittura delle rappresentazioni che avviene nelle macchine digitali unicamente attraverso il software è in questo senso diversa dalla trascrizione dal DNA all'RNA che avviene in biologia.

In secondo luogo, perché le fluttuazioni sono completamente assenti nel mondo discreto in cui operano le macchine di Turing, mentre svolgono un ruolo essenziale nei complessi sistemi dinamici che ci circondano. Come notato per la prima volta dal grande matematico francese Henri Poincaré, ciò può risultare nell'imprevedibilità dell’evoluzione di tali sistemi, anche se le leggi che li caratterizzano sono definite deterministicamente.

Terzo, perché un qualunque software è in grado di rappresentare solo un'astrazione di un fenomeno reale. Se questa astrazione può fornire indicazioni preziose sulla sua dinamica, considerare la rappresentazione come il fenomeno stesso è tanto sbagliato quanto confondere la mappa col territorio.

E, infine, i sistemi digitali, una volta posti nelle stesse condizioni di partenza all'interno di uno stesso contesto, calcoleranno in modo identico sempre lo stesso risultato, anche per quei sistemi complessi dove (come ha dimostrato Poincaré) questo è fisicamente assurdo. «Le reti informatiche e le banche dati, se considerate come ultimo strumento di conoscenza o come immagine del mondo » scrive Longo «vivono nell'incubo della conoscenza esatta per puro conteggio, della certezza incrollabile per esatta iterazione, e di una “soluzione finale” di tutti i problemi scientifici ».

Da un punto di vista matematico-fisico, questo atteggiamento è fallace, per diversi motivi. In primo luogo, perché i nostri comportamenti accadono in uno spazio continuo e, come Poincaré aveva per primo intuito, nell’approssimazione che ogni misura compie rispetto a un valore continuo si annida l’impredicibilità dei fenomeni fisici.

In secondo luogo, la quantità di “dimensioni” mediante le quali possiamo “misurare” il nostro comportamento è presumibilmente infinita. In altre parole, un nostro comportamento puntuale potrebbe aver bisogno di un numero infinito di valori per poter essere rappresentato (ognuno dei quali sarebbe comunque sottoposto all’approssimazione precedentemente descritta). Ne consegue, quindi, che nessun dispositivo digitale reale, che è finito, potrebbe fisicamente rappresentare tale quantità infinita di valori, introducendo pertanto una seconda tipologia di approssimazione.

Le conseguenze sociali di questo approccio culturale possono però essere effettivamente terrificanti, come diceva David Bowie nell’intervista ricordata nel precedente post. Questa tendenza, sostenuta da una raccolta dei dati relativi alle nostre attività sempre più pervasiva e sempre più sfuggente al nostro controllo, porta a ridurre l’essere umano a una serie di dati, spingendolo ad agire da meccanismo automatico che ripercorre sempre gli stessi schemi di comportamento. Viene in mente il celeberrimo film “The Truman show”, il cui protagonista era marionetta inconsapevole di una sceneggiatura scritta da altri.

Non sfuggiranno certo al lettore attento i pericoli in termini di controllo sociale che si nascondono dietro il dare per scontata questa visione meccanicistica della società umana, che riconduce l’infinita e sfumata complessità delle nostre esperienze a un insieme finito di bit distinti.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 12 marzo 2025.

sabato 8 marzo 2025

A passeggio con l’informatica #22 – Si fa presto a dire digitale

di Enrico Nardelli

Dopo aver esaminato negli ultimi articoli prima di questo il significato della rivoluzione informatica, i vari significati del termine intelligenza per le macchine e per l’uomo, e l’importanza di non concentrarsi solo sui temi di moda, inizio ad affrontare con questo post le sfide che ci vengono poste dalla crescita e dallo viluppo della società digitale, citando alcuni riferimenti storici.

A fine 2019 abbiamo celebrato i 50 anni della “rete delle reti”, quell’Internet la cui data di nascita è stata convenzionalmente fissata al 29 ottobre 1969, quando il primo collegamento tra computer remoti fu stabilito tra un calcolatore della UCLA (Università della California a Los Angeles) e uno dello SRI (Stanford Research Institute). Con quella prima trasmissione era nata Arpanet, la rete di comunicazione tra calcolatori il cui sviluppo fu finanziato dal Ministero della Difesa americano per dotare il Paese di un sistema di comunicazione estremamente resistente agli attacchi nemici, che negli anni 90 sarebbe diventata Internet e che – grazie anche alla diffusione planetaria del World Wide Web – nel primo decennio del nuovo secolo avrebbe superato il miliardo di utenti.

La prima pietra di una rivoluzione sociale, oltre che tecnologica, era stata posata, anche se per diversi decenni è sembrato che fosse solo uno strumento. Ma un artista visionario come David Bowie, nel corso di un’intervista alla BBC del 1999, la definì «una forma di vita aliena, … la nascita di qualcosa di esaltante e terrificante » . Spesso gli artisti vedono con chiarezza ciò che scienziati e tecnologi non riescono ad afferrare bene, soprattutto quando si parla dell’impatto sociale delle loro scoperte. Gioca a loro favore l’essere più allenati a cogliere queste sfumature delle conseguenze del progresso sulle persone e sulle relazioni umane, ma va anche tenuto presente che si tratta comunque di pronostici estremamente difficili.

Quest’anno ricorrono i 70 anni dell’introduzione del termine “intelligenza artificiale”, apparso nella proposta di ricerca che mirava a ottenere un «significativo avanzamento» di «ogni aspetto dell’apprendimento o di ogni altra caratteristica dell’intelligenza » lavorandoci «con un gruppo attentamente selezionato di scienziati per un’estate ». Sicuramente sono stati fatti enormi progressi, ma è ancora presto per dire in che misura essa determinerà un cambiamento della società così importante quale quello determinato dall’avvento di Internet.

È infatti difficilissimo capire dove le tecnologie informatiche ci porteranno, non dico tra 50 anni, ma anche solo tra 10 o 20. Basti pensare che nel 1999 Amazon stava muovendo i primi passi, Google era appena nato e Facebook non era ancora stato concepito.

Il vero problema è che ci stiamo dimenticando che l’uomo dovrebbe sempre rimanere il fuoco di ogni iniziativa di progresso tecnologico, mentre queste novità digitali che sembrava dovessero portarci in un futuro migliore stanno viceversa ingabbiando sempre di più la nostra vita quotidiana. La digitalizzazione apre opportunità senza precedenti alla società, ma pone anche serie preoccupazioni.

Si tratta di una sfida prima di tutto sociale e politica e solo in seconda istanza scientifica o tecnologica, perché la dimensione digitale è ormai sempre più intrecciata con le varie dimensioni sociali, che coprono tutti i vari rapporti (economici, giuridici, culturali, …) che si stabiliscono tra le persone . Questa dimensione, che è quella in cui sono presenti i dati digitalizzati, definisce quindi uno spazio sociale che, come tale, può essere costruito secondo diverse visioni. Ritengo quindi del tutto naturale che i governi vogliano attuare la loro attività di indirizzo e gestione anche nei confronti del digitale.

Così come ogni nazione protegge le proprie risorse naturali così dovrebbe fare con quelle digitali, inclusi i dati dei propri cittadini. Quando nel 2019 ho cominciato a sollevare l’attenzione su questi temi, molti li minimizzavano etichettandoli come “populisti” e “sovranisti”, mentre adesso sono diventati rilevanti.

Ritenevo e ritengo assolutamente legittimo e doveroso che uno Stato governi lo spazio digitale così come governa lo spazio fisico, visto che mondo naturale e mondo digitale sono ormai compenetrati e vanno gestiti insieme. Nella società digitale chi controlla i dati controlla la società.

Come diremmo se i governanti vendessero i propri cittadini a poteri stranieri? È lecito che questo accada nella dimensione digitale? A quali fini deve essere asservito il controllo e il governo di infrastrutture e dati digitali? Si ripete spesso negli ultimi anni che “i dati sono il nuovo petrolio”. Ma se questi dati sono quelli delle persone è corretto (socialmente, eticamente e politicamente) considerarli come una merce? Le persone sono una merce? C’è una scarsissima consapevolezza di questi aspetti, se in un famoso esperimento un negozio ha venduto oggetti a clienti che pagavano . Chiedo scusa in anticipo se il paragone è macabro, ma vi privereste di un dito per comprare un’automobile?

Aggiungo una notazione di tipo psicologico a proposito dei fanatici del digitale, entusiasti di poter registrare e tenere sotto controllo ogni loro attività. Passare dal tracciamento dei battiti cardiaci durante la corsa a un controllo sanitario totale ogni anno, o da una semplice telecamera di sorveglianza alla porta di ingresso a una rete di sentinelle robotiche è solo una questione di denaro. Farlo dà l’illusione di poter controllare il futuro, rimuovendo le minacce esistenziali. Ma non è un comportamento produttivo.

Come per altri grandi temi sociali, è compito della politica decidere cosa fare. Nella sfera del digitale, io sono solito ricordare una citazione di Evgenj Morozov (sociologo di origine bielorussa tra i più acuti e profondi nell’analisi del mondo digitale) che nel suo libro “I signori del silicio” ha scritto «per un partito di massa odierno, non curarsi della propria responsabilità sul digitale equivale a non curarsi della propria responsabilità sul futuro stesso della democrazia ».

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 5 marzo 2025.

sabato 1 marzo 2025

A passeggio con l’informatica #21 – Non di sola IA vive un Paese

di Enrico Nardelli

Abbiamo discusso nel post precedente alcuni aspetti che sono esclusivi dell’intelligenza umana, in quanto espressione di una mente incarnata in un corpo fisico con le caratteristiche della nostra razza umana.

Aggiungo qui solo un accenno al fatto che vi sono poi tutta una serie di altri valori, che possiamo chiamare di “intelligenza sociale”, che danno senso alle società umane in quanto fatte da persone, quali, ad esempio, la compassione, la solidarietà, l’immaginazione, l’umorismo, e così via, che mi appaiano anche questi totalmente al di fuori della portata delle macchine cognitive, in generale, e in particolare di quelle che posseggono ciò che chiamo intelligenza meccanica, universalmente nota come intelligenza artificiale.

Nonostante queste limitazioni, le macchine cognitive – e in modo particolare quelle che utilizzano le tecniche dell’intelligenza artificiale – si diffonderanno sempre di più, per la loro indubbia utilità, mentre le persone cambieranno il tipo di lavoro che fanno. Ciò va inteso nel senso che il loro lavoro vedrà in misura sempre maggiore l’utilizzo di macchine cognitive, per coadiuvare l’uomo nelle attività intellettuali di routine. Si tratta di un processo analogo a ciò che è accaduto in passato, sia recente che remoto, con sempre più lavoro manuale, precedentemente svolto direttamente dall’uomo, sempre più affidato a macchine industriali, mentre l’uomo manteneva un ruolo di controllo e supervisione.

Per questo è della massima importanza che ogni persona sia appropriatamente istruita e formata sulle basi dell’informatica, la disciplina scientifica che rende possibile la progettazione e realizzazione delle macchine cognitive. Solo in questo modo ognuno sarà in grado di capire la differenza tra ciò che tali macchine possono fare e ciò che non devono fare. Infatti, mentre la terza rivoluzione dei rapporti di potere ha consegnato alle macchine cognitive il predominio sulla specie umana nella dimensione della razionalità pura, nella società umana ci sono molte altre dimensioni altamente rilevanti oltre a questa, l’unica in cui agiscono le macchine cognitive. Affinché l’umanità possa continuare a dirigere e governare il proprio futuro dovrà fare attenzione a non perdere la consapevolezza di questa sua specificità. A tal scopo, è necessaria una corretta formazione sin dai primi anni di scuola sulle basi scientifiche dell’informatica e sull’impatto sociale delle sue tecnologie. Riprenderemo il tema di come governare nel miglior interesse dell’umanità lo sviluppo dei sistemi informatici in un successivo articolo.

Richiamo l’attenzione su un aspetto particolarmente importante in questo momento, in cui i sistemi di intelligenza artificiale sono sulla bocca di tutti per le loro impressionanti prestazioni, che sono dovute all’enorme quantità di dati disponibili, agli avanzamenti nella tecnologia dei processori e ai progressi delle tecniche algoritmiche dell’apprendimento profondo (deep learning ). Si tratta di ritenere che un Paese per essere all’avanguardia nella società digitale abbia bisogno solo di “sistemi intelligenti”. Nella storia della tecnologia in generale e di quella informatica in particolare, vi sono momenti nei quali sembra che un certo approccio sia quello assolutamente vincente, salvo poi scoprire, magari dopo una decina d’anni, che si è un po’ esagerato.

Non sto assolutamente negando l’importanza di questo settore dell’informatica, ed è vitale investire in esso, ma non possiamo dimenticarci che alla base di tutto il mondo digitale ci sono i “normali” sistemi informatici, il cui stato di realizzazione lascia molto a desiderare e ai quali bisognerebbe fare molta più attenzione. In molte nazioni che nell’ultimo decennio hanno cominciato a stanziare somme molto ingenti di denaro per la ricerca nell’area dell’intelligenza artificiale, gli analisti più attenti hanno osservato che tali sforzi non devono accadere a discapito del miglioramento di sistemi informatici che non funzionano proprio come dovrebbero. Investire solo sulla realizzazione di sistemi basati sull’apprendimento automatico (machine learning ), quando l’informatizzazione tradizionale ancora non funziona come dovrebbe, è un po’ come comprarsi una Ferrari dimenticandosi di avere scarpe bucate e vestiti rovinati.

Per un professionista o una piccola azienda penso che sia più molto più rilevante avere la capacità di organizzare efficacemente i propri dati in modo autonomo e di poter realizzare semplici elaborazioni con programmi informatici sviluppati da soli. È di queste competenze di base, analoghe a quelle di saper scrivere una relazione o mantenere una semplice contabilità, che ritengo ci sia bisogno per attuare sul serio la trasformazione digitale, più che di intelligenza artificiale o di una delle molte parole inglesi alla moda che si sentono sempre più frequentemente sui media in questi anni.

Riprenderemo il tema dell’impatto dell’informatica sul mondo del lavoro in un prossimo post.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 26 febbraio 2025.

sabato 22 febbraio 2025

A passeggio con l’informatica #20 – Non avrai intelligenza al di fuori di me!

di Enrico Nardelli

Mentre nel post precedente abbiamo messo a fuoco alcune caratteristiche dell’intelligenza delle macchine, in questo mi concentro su alcuni aspetti peculiari dell’intelligenza umana, che la rendono diversa da quella che ho suggerito di chiamare “intelligenza meccanica” e quindi, ritengo, impossibile da realizzare attraverso meccanismi artificiali.

Si tratta di alcuni elementi che caratterizzano in modo specifico e unico la comunità di individui in carne e ossa, e rispetto ai quali le macchine cognitive sono intrinsecamente diverse da noi.

Una prima differenza deriva dal fatto che le informazioni sul mondo che noi acquisiamo mediante i sensi diventano rappresentazioni, cioè dati, per le nostre elaborazioni, attraverso il filtro del nostro cervello, che quindi ci fa percepire una realtà che non necessariamente è oggettiva, ovvero universalmente condivisa. Però, avendo le persone una stessa natura umana, pur nella loro diversità individuale, si può raggiungere un qualche grado di accordo sull’oggettività di ciò che viene percepito, anche grazie all’ausilio del linguaggio che ci permette di spiegare e condividere le descrizioni delle sensazioni provate. Questo non accade tra noi e altre specie animali. A maggior ragione, non si applica a una macchina cognitiva che riceve rappresentazioni già definite da qualcuno (in base a criteri da questo stabiliti ma che magari non sono noti e quindi difficilmente condivisibili) oppure le deve costruire attraverso sensori fisici di acquisizione, anch’essi governati da altri automi. È arduo sostenere che questo consenta di avere rappresentazioni condivise tra uomini e macchine.

Una seconda differenza risiede nel fatto che, come già detto, le macchine cognitive non hanno un corpo fisico, e quindi non possono trattare tutti quegli aspetti emotivi che dipendono intrinsecamente da esso. Le più recenti acquisizioni delle neuroscienze ci dicono che quando abbiamo paura o siamo felici, queste emozioni sono prima di tutto reazioni fisiche che avvengono in modo involontario nel nostro corpo a causa di eventi percettivi (ma possono essere scatenate anche dall’attivazione di un ricordo) e che hanno lo scopo, giustificato in base all’evoluzione, di mantenere l’equilibrio del corpo stesso, per esempio facendoci fuggire da una situazione di pericolo o permanere in una condizione positiva. Il ruolo delle emozioni è fondamentale nel determinare la nascita e la crescita delle relazioni sociali e nella valutazione delle situazioni. La loro assenza nelle macchine cognitive è una differenza che le mette in modo insuperabile in una classe a parte. Connessa a questa mancanza vi è l’assenza dell’autocoscienza, cioè della coscienza di se stessi, elemento fondamentale per poter “sentire le emozioni”. Non si può escludere, in linea teorica, la possibilità che, grazie agli sviluppi delle tecniche di intelligenza artificiale, si riesca a creare delle macchine cognitive che sono in qualche modo coscienti di se stesse. Ma, anche se questo dovesse accadere, e mi sembra molto improbabile, si tratterebbe sempre dell’autocoscienza di una specie aliena rispetto alla razza umana, perché basata su materiali fisici differenti.

Una terza differenza è quella della creatività, dell’intuizione, di ciò che in modo sotterraneo, subconscio, ci rende possibile di “uscire dagli schemi” e trovare chiavi di lettura decisive per scenari apparentemente indecifrabili. Essa deriva, in modi assolutamente non chiari – allo stato attuale dell’indagine scientifica, dall’interazione tra il livello della coscienza, ovvero il “luogo della mente” in cui abbiamo le rappresentazioni del corpo fisico, e il livello del corpo fisico. Poiché le macchine cognitive non hanno né l’una né l’altro sembrano essere chiaramente escluse da questa possibilità.

Certamente vi sono i recentissimi sistemi di intelligenza artificiale generativa che, a partire dal 2021, sono in grado di sintetizzare, a partire da una descrizione testuale, un’immagine fotografica o artistica, o anche una sequenza video, che realizza tale descrizione. Tralasciamo il fatto che questi sistemi, non avendo una reale comprensione a livello simbolico di ciò che rappresentano, possono facilmente generare immagini o video erronei rispetto alle conoscenze tacitamente accettate e condivise dall’umanità (p.es.: il fatto che le persone non hanno né tre braccia né tre gambe o che se due gattini stanno giocando non può spuntare dal nulla in mezzo a loro un terzo gattino). Il punto centrale è che la cosiddetta creatività che viene attribuita a questi sistemi risiede in realtà nella formulazione di ciò che le si chiede di realizzare.

Tutto il resto non è che l’automazione di un’attività di tipo cognitivo, estremamente sofisticata e che non sto in alcun modo sminuendo: va però considerato che tale automazione sta alle capacità intellettive dell’essere umano nello stesso modo con cui una fabbrica automatizzata sta alle sue capacità fisiche. Chiaramente, il fatto che tutto ciò accade ad un livello che, fino a qualche decennio fa, era riservato alla specie umana ci lascia un po’ sconcertati, però sempre di un’attività meccanica si tratta.

Il fatto che ci siano macchine cognitive a svolgere lavori di questo tipo è certamente un aspetto positivo. In questo senso sono completamente d’accordo con l’opinione di Charles W. Eliot, che è stato per quarant’anni presidente dell’Università di Harvard, dal 1869 al 1909, trasformandola in una delle più importanti università americane: «Un uomo non dovrebbe essere usato per un compito che può essere svolto da una macchina ».

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 19 febbraio 2025.

sabato 15 febbraio 2025

A passeggio con l'informatica #19 – Intelligenza delle macchine: è vera intelligenza?

di Enrico Nardelli

Continuando il discorso sulle macchine cognitive iniziato nel post precedente, osserviamo che si tende a considerare i dati elaborati dalle macchine cognitive come un qualcosa di oggettivo e assoluto, sulla base dell’etimologia di “dato” (che deriva dal latino datum = ciò che è stato dato) quando in realtà esso, in quanto rappresentazione di un fenomeno, ne costituisce solo un modello, uno dei tanti possibili. Quindi, nell’atto di scegliere un dato c’è già un’idea di interpretazione, che è soggettiva e che guida le modalità con le quali chi poi leggerà il dato gli darà un senso. L'esempio che tutti conoscono è quello della bottiglia, che può essere mezza vuota o mezza piena. Anche se usiamo un linguaggio più scientifico, posso descrivere questa bottiglia come un recipiente del volume di un litro contenente mezzo litro di acqua (bottiglia mezza piena) o contenente mezzo litro di aria (mezza vuota). Sto descrivendo lo stesso fenomeno, ma focalizzo il lettore su due interpretazioni differenti. La selezione di un certo insieme di dati è quindi l’atto fondamentale su cui si basa la successiva interpretazione. Si tratta di un meccanismo ben noto sia ai professionisti dell’informazione, che spesso lo usano per guidare chi legge verso una certa interpretazione, sia a chi per mestiere cerca di capire cosa sia davvero accaduto in certe occasioni, che si trova spesso di fronte resoconti contrastanti di una stessa vicenda da parte dei testimoni oculari.

Una seconda osservazione rilevante è che, data l’enorme quantità di dati digitali utilizzabili e la disponibilità di sofisticate tecniche di apprendimento automatico (machine learning), sembra non ci sia più bisogno di teorie, ovvero di quadri interpretativi coerenti per i fenomeni, perché l’opera di invenzione di queste teorie può essere sostituita dall’attività di macchine cognitive che, macinando senza fatica terabyte e terabyte di dati con sofisticate analisi statistiche, scopriranno per noi tutte le teorie necessarie. Quest’opinione, lanciata nel 2008 da Chris Anderson, direttore responsabile di Wired (una delle prime riviste che hanno affrontato il tema dell’impatto del digitale sulla società), sosteneva appunto che con il diluvio di dati disponibili non ci sarebbe più stato bisogno della teoria. L’ipotesi ha avuto nel 2016 una netta confutazione scientifica da parte degli informatici Christian Calude e Giuseppe Longo, che hanno matematicamente dimostrato come al crescere della quantità dei dati aumenta il numero di correlazioni che possono essere trovate in essi. Dal momento che questo è vero anche se i dati sono stati generati in modo casuale, ne discende che una correlazione trovata semplicemente applicando tecniche statistiche senza essere guidata da un modello interpretativo (cioè, da una teoria) non ha un significato intrinseco. Le macchine cognitive quindi, con le loro enormi capacità di analisi dati, possono certamente arricchire il metodo scientifico, ma non potranno mai sostituirlo.

Le macchine cognitive sono sicuramente utili al progresso della società umana e, data la velocità di avanzamento della tecnologia, è ragionevole aspettarsi che su un piano cognitivo puramente razionale le loro capacità analitico-deduttive saranno presto insuperate. Questo, però, non vuol dire che la cosiddetta “singolarità tecnologica” verrà presto raggiunta. Con questo termine si intende il momento in cui una macchina cognitiva diventa più intelligente di un essere umano, prefigurando quindi la sottomissione della nostra specie. Si tratta di una paura ancestrale, quella della macchina che si ribella al suo creatore, presente nella letteratura fin dal medievale mito ebraico del golem, passando per il racconto di Karel Capek, che ha dato origine al moderno uso della parola “robot", per arrivare alla fantascienza e ai moderni resoconti sui mass media, originati, questi ultimi, da personaggi molto noti in ambito tecnologico quali Ray Kurzweil ed Elon Musk.

La realtà è ben diversa. L’intelligenza delle macchine e l’intelligenza umana sono due cose piuttosto differenti, anche se hanno una qualche sovrapposizione. Il problema è che usando il termine intelligenza, che per tutta la storia dell’umanità ha sempre indicato quella umana, accoppiato all’aggettivo artificiale, tendiamo a evocare l’idea che si tratti di intelligenza umana artificialmente realizzata mediante automi. In altre parole, il termine “intelligenza artificiale” induce a credere che esso descriva più di quello che effettivamente è. Invece, come detto, si tratta solo dell’aspetto legato alle capacità analitico-deduttive puramente razionali, ovvero alla possibilità di calcolare nuovi dati logicamente implicati dai dati sotto esame. Ho articolato questa riflessione in un articolo in cui ho suggerito (in modo un po’ provocatorio, perché non penso che, a questo punto, si possa davvero cambiare modo di dire) di usare l’espressione “intelligenza meccanica” invece che “intelligenza artificiale”, per meglio concentrare l’attenzione sul fatto che si sta parlando comunque di capacità meccaniche, anche se estremamente sofisticate. In quest’ambito, come abbiamo già avuto prova nel campo dei giochi da tavolo, le macchine cognitive sono superiori alle capacità umane, così come le macchine industriali hanno superato l’uomo per quanto riguarda le capacità fisiche.

Discuteremo nel prossimo post alcune caratteristiche dell’intelligenza umana che appaiono difficilmente ottenibili mediante le macchine.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 12 febbraio 2025.

mercoledì 12 febbraio 2025

Per l’Italia digitale serve un “Piano Olivetti”

di Enrico Nardelli

Finalmente sul Corriere della Sera, sezione Economia, ci si accorge dell'importanza per l’Italia di possedere il controllo sulle infrastrutture digitali. Ferruccio de Bortoli, in un'analisi sullo stato dell'innovazione digitale in Italia, invita a "a credere di più in sé stessi, ad avere fiducia nel futuro, a non arrendersi anticipatamente quando la partita ... sembra ormai irrimediabilmente perduta ". Ovviamente si parla di Intelligenza Artificiale, perché la sua fragorosa irruzione nella vita di tutti i giorni ha fatto capire a tutti qual è l'importanza dell'informatica nella società odierna.

Meglio tardi che mai, mi è venuto da pensare, visto che ne parlo pubblicamente da molto tempo. Non certo noto come Stefano Quintarelli che, giustissimamente viene citato da de Bortoli a proposito di tante innovazioni che in Italia non trovano spazio, avevo già scritto più di quattro anni fa dell'importanza che il nostro sistema educativo si dotasse di un'infrastruttura digitale pubblica, e dell’interesse nazionale a curare lo spazio digitale così come accade per lo spazio fisico. Esigenze che de Bortoli scopre adesso attraverso le parole di Quintarelli, anche lui da molto tempo inascoltato fautore dell'importanza di questi temi. Stefano è stato anche deputato e, nonostante le sue indubbie capacità, non è riuscito a farsi ascoltare dalla politica su questi temi: nel frattempo, il mondo è andato avanti.

Prima di lui altri intellettuali di valore hanno cercato di convincere i decisori politici dell’importanza dell’informatica per lo sviluppo del Paese. Due fra tutti, Giovan Battista Gerace e Mario Bolognani. Tutto invano. A cavallo tra gli anni ‘60 e ‘70 con l’Olivetti eravamo all’avanguardia nel mondo dell’informatica. Il primo personal computer (P101) era stato realizzato da loro e la NASA ne usò 45 per preparare la missione Apollo 11 che sbarcò sulla luna nel 1969. Ma poi, politici, “ministri occasionali”, economisti e “capitani coraggiosi” non riconobbero l’importanza strategica di sostenere l’azienda, che aveva delle difficoltà finanziarie, per continuare a far crescere l’Italia in quella direzione e si limitarono a ripetere in continuazione “il treno è perso”. Ma a partire dagli anni ‘80 ne sono arrivati di nuovi, su cui altri sono stati in grado di salire a bordo: Internet, i social media, e adesso l’intelligenza artificiale generativa. Noi ci siamo riempiti la bocca di trasformazione digitale, pensando che si potesse realizzare acquistando tecnologia senza investire nell’istruzione scolastica e universitaria. Nell’ultimo decennio è riecheggiato in modo ossessivo il mito della “scuola digitale”, salvo poi dover constatare che l’UNESCO ha attestato la tragedia dell’istruzione digitale.

L'innovazione nel digitale non si inventa, serve la formazione e bisogna cominciare almeno vent’anni prima. L'exploit cinese con DeepSeek non è arrivato all'improvviso, è il risultato di un periodo di investimenti in istruzione sia di base che superiore e in ricerca che la Cina ha iniziato da moltissimo tempo. Serve studiare informatica, nella scuola, nell'università. Serve finanziare la ricerca in informatica e nelle sue tecnologie, anche la ricerca di base, senza illudersi che sia solo l'eccellenza quella che conta. Per avere l'eccellenza del singolo bisogna comunque investire nella preparazione media della massa. Per avere l'eccellenza di un Paese bisogna investire nella preparazione media dei suoi cittadini.

È ormai da dieci anni che io personalmente spingo sull'importanza far studiare informatica nella scuola, sia perché tutti i cittadini devono conoscere come funziona il mondo digitale intorno a noi, sia perché una conoscenza di base di questa materia è necessaria per far sì che più ragazzi, e soprattutto più ragazze, la scelgano come materia dei loro studi tecnici o universitari. E se non abbiamo più studenti nelle università in questi settori, i ricercatori per sviluppare i sistemi informatici di avanguardia non potremo mai trovarli. Per chi volesse approfondire ecco i miei interventi divulgativi a stampa e in video.

Negli ultimi venti o trent'anni ho invece sentito generalmente parlare solo di competenze digitali declinate in senso operativo (ricordate l'ECDL, la famigerata patente europea del computer?), nell'incomprensione generale da parte di chi dovrebbe avere gli strumenti culturali per capire come si sta evolvendo la società e guidare il Paese lungo questo percorso. Stiamo sprecando centinaia di milioni di euro del PNRR nelle scuole comprando tecnologia realizzata altrove invece di formare seriamente i docenti per insegnare informatica nella scuola, come ormai anche il Consiglio dell’Unione Europea raccomanda.

Senza una vera conoscenza di concetti, teorie e metodi dell’informatica, l’Italia rischia di pagare un prezzo enorme in termini di possibilità di scegliere la sua direzione di sviluppo nella società digitale perché sarà sempre più dipendente da sistemi e conoscenze che non le appartengono e soggetta alla sorveglianza di chi le possiede.

Sarebbe ora di risvegliarsi sul serio. Enrico Mattei e Adriano Olivetti, due italiani di genio che stavano guidando il Paese a essere leader mondiali, non ci sono più, ma la loro lezione è ancora valida. Dopo il “Piano Mattei” ci serve un “Piano Olivetti”.

--
Versione originale pubblicata su "StartMAG" il 6 febbraio 2025.