Pagine

sabato 26 aprile 2025

Strolling through informatics #29 – How to tackle digital transformation

by Enrico Nardelli

(versione italiana qua)

We discussed in our last post the need for a different perspective on digital transformation, reflecting on the fact that informatics automation amounts to replacing people with "cognitive machines," which however lack their flexibility and adaptability.

Ignoring this aspect has led and continues to lead to the many failures we periodically see computer systems stumble into. Here's what we should do instead.

The traditional workflow for acquiring informatics services and products involves an initial phase of defining the requirements for the necessary service/product with the drafting of detailed specifications, based on which potential suppliers submit proposals. The best one (using criteria based on cost and technical evaluation, which are very rigid in Public Administration procurement procedures and more flexible in private companies) wins, and the contractor begins implementing what was requested. At the end, if the service/product passes the final tests, the operational phase begins.

What are the consequences of the current approach? The sad reality is that development programs involving the creation of software components are always those most behind schedule and with the greatest cost overruns. Periodically, industry publications list the most spectacular disasters that have occurred in computer system development: here's an analysis of what happened just in 2024. In 2018, the director of the Procurement Division of the US Department of Defense, Will Roper, declared that the traditional acquisition system used for decades to buy ships and airplanes could not work for software because "a software system is never finished, it's a continuous process."

The world's most innovative tech companies have long understood that this method doesn't work. If users only see the software at the end, it's highly likely that not only will the initially defined requirements not have been met, but also that what they need has changed in the meantime. From the collaboration between the research world and industry, a radically different approach to software development emerged right at the beginning of the 21st century: the so-called "agile" approach, which is precisely what cutting-edge tech companies use because it allows them to develop successful services/products.

On the other hand, if you think about it, this is what we see in the apps we all use every day. They seem the same to us, but behind the facade there's continuous work of updating and evolution. Just like with people who, behind an organization's facade, provide us with its services. They evolve as contextual conditions change or based on any changes decided by management. Computer systems – to a much greater extent than any other human-built system – are systems in continuous adaptation, for which the human role continues to be essential. This remains true despite the impressive advances in artificial intelligence and as long as we want a society of people and not machines to continue to exist. As I wrote in 2010, for the 6th edition of the European informatics conference (ECSS) regarding computer system development: "maintenance is the real implementation."

From a procedural standpoint, the acquisition of computer systems should therefore no longer be based on the initial definition of all requirements, but rather a narrow set of initial objectives and use cases should be identified, on which a small joint group of developers and users will begin working with the task of producing a first working core within a few weeks. From there on, this iterative approach continues – which is precisely what's called "agile" – constantly learning from successes and failures in the field and adjusting course based on evolving scenarios.

It's an epochal change if we consider acquiring a software system like any other product. It's the natural solution if we look at it from the perspective of personnel acquisition.

While this new acquisition paradigm can more easily be adopted by private entities, provided their leadership has developed this cultural vision of informatics automation, its introduction in the Public Administration (PA) context requires alignment with the legal framework of reference. It will therefore be necessary to change the entire regulatory apparatus that governs the procedures by which the PA acquires computer systems. Here a strongly interdisciplinary effort is needed, because all the competencies that come into play in this process must be mobilized: legal, documentary, informatics, managerial, psychological, under the guidance – it goes without saying – of politics that must take direct responsibility for managing such issues.

And it's precisely to the role that politics must play in governing the use of informatics in society's development – a necessary and irreplaceable role – that we'll dedicate the final stretch of this stroll.

[[The posts in this series are based on the Author's book (in Italian) La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, (= The Informatics Revolution: Knowledge, Awareness and Power in the Digital Society) to which readers are referred for further reading]].

--
The original version (in italian) has been published by "Osservatorio sullo Stato digitale" (= Observatory on Digital State) of IRPA - Istituto di Ricerche sulla Pubblica Amministrazione (= Research Institute on Public Administration) on 23 April 2025.

A passeggio con l’informatica #29 – Come affrontare la trasformazione digitale

di Enrico Nardelli

Abbiamo discusso nel precedente post la necessità di un diverso punto di vista sulla trasformazione digitale, riflettendo sul fatto che l’automazione dell’informatica equivale a sostituire le persone con “macchine cognitive”, che però non hanno la flessibilità e adattabilità di quelle.

Ignorare questo aspetto ha portato e sta portando ai tanti fallimenti in cui vediamo periodicamente incappare i sistemi informatici. Ecco cosa invece dovremmo fare.

Il tradizionale flusso di acquisizione di servizi e prodotti informatici prevede una fase iniziale di definizione dei requisiti del servizio/prodotto necessario con la scrittura di specifiche di dettaglio, a fronte delle quali i potenziali fornitori propongono offerte. La migliore (con criteri basati sul costo e sulla valutazione tecnica, che sono molto rigidi nelle procedure di acquisto della Pubblica Amministrazione e più flessibili nelle aziende private) vince e il contraente inizia a realizzare quanto richiesto. Al termine, se il servizio/prodotto supera i test finali, si entra nella fase operativa.

Quali sono le conseguenze dell’attuale approccio? La triste realtà è che i programmi di sviluppo che prevedono la realizzazione di componenti software sono sempre quelli in maggior ritardo e con i maggiori sforamenti di costi. Periodicamente, le riviste del settore elencano i disastri più eclatanti che si sono verificati nello sviluppo di sistemi informatici: ecco un’analisi di quanto accaduto solo nel 2024. Nel 2018, il direttore della Divisione Acquisti del Ministero della Difesa USA (il Department of Defense), Will Roper, aveva dichiarato che il sistema di acquisizione tradizionale usato per decenni per comprare navi e aeroplani, non poteva funzionare per il software perché «un sistema software non è mai finito, è un processo continuo».

Le aziende informatiche più innovative al mondo hanno da tempo capito che questo metodo non funziona. Se gli utenti vedono il software solo alla fine, è altamente probabile che non solo i requisiti inizialmente definiti non saranno stati soddisfatti, ma anche che ciò di cui hanno bisogno è nel frattempo cambiato. Dalla collaborazione tra il mondo della ricerca e quello dell’industria è emerso, proprio all’inizio del XXI secolo, un approccio radicalmente diverso allo sviluppo del software, l’approccio cosiddetto “agile” (anche in inglese il termine è lo stesso, solo pronunciato diversamente), che è quello appunto usato dalle aziende informatiche all’avanguardia, perché consente loro di sviluppare servizi/prodotti di successo.

D’altro canto, se ci pensate bene, questo è quello che vediamo nelle App che tutti noi usiamo ogni giorno. A noi sembrano sempre le stesse, ma dietro la facciata c’è un lavorìo continuo di aggiornamento ed evoluzione. Come accade con le persone che, dietro la facciata di un’organizzazione, ci forniscono i suoi servizi. Si evolvono al cambiare delle condizioni di contesto o in funzione di un’eventuale cambiamento deciso dalla direzione. I sistemi informatici – in misura largamente maggiore rispetto ad ogni altro sistema costruito dall’uomo – sono sistemi in continuo adattamento, per il quale il ruolo dell’essere umano continua a essere essenziale. Ciò è vero nonostante gli impressionanti avanzamenti dell’intelligenza artificiale e fintanto che vogliamo che continui a esistere una società di persone e non di macchine. Come scrissi nel 2010, per la 6a edizione del convegno europeo di informatica (ECSS) a proposito dello sviluppo dei sistemi informatici: «la manutenzione è la vera implementazione».

Da un punto di vista procedurale, l’acquisizione di sistemi informatici non dovrà più, quindi, essere basata sulla definizione iniziale di tutti i requisiti, ma andrà individuato un ristretto insieme di obiettivi e casi d’u­so iniziali, sui quali un piccolo gruppo congiunto di sviluppatori e utenti inizierà a lavorare con il compito di produrre un primo nucleo funzionante nel giro di qualche settimana. Da lì in avanti si continua con questo approccio iterativo, che è appunto quello definito “agile”, imparando costantemente da successi ed errori sul campo e aggiustando il tiro in funzione dell’evolversi degli scenari.

È un cambiamento epocale se si considera l’acquisizione di un sistema software alla stregua di un qualunque altro prodotto. È la soluzione naturale, se la guardiamo nell’ottica dell’acquisizione di personale.

Mentre questo nuovo paradigma di acquisizione può più agevolmente essere adottato da enti privati, purché chi le guida abbia maturato questa visione culturale dell’automazione informatica, la sua introduzione nel contesto della Pubblica Amministrazione (PA) richiede una sintonia con il contesto legale di riferimento. Sarà quindi necessario cambiare l’intero apparato regolamentare che disciplina le procedure con le quali la PA acquisisce sistemi informatici. Qui è necessario uno sforzo fortemente interdisciplinare, perché vanno mobilitate tutte le competenze che entrano in gioco in questo processo: giuridiche, documentarie, informatiche, gestionali, psicologiche, sotto la guida – va da sé – di una politica che deve farsi carico in prima persona della gestione di tali problematiche.

E proprio al ruolo che deve svolgere la politica per governare l’uso dell’informatica nello sviluppo della società, ruolo necessario e insostituibile, che dedicheremo l’ultimo tratto di questa passeggiata.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 23 aprile 2025.

mercoledì 23 aprile 2025

All the chickens (of AI’s) are coming home to roost

by Enrico Nardelli

(versione italiana qua)

Back in March 2023 — when the world was just starting to marvel at the impressive capabilities of ChatGPT, the first generative AI tool to reach a broad audience, and headlines everywhere were predicting that AI would soon replace most workers — I wrote: “In other words, if you do not already know the correct answer, what it tells you is likely to be of no help at all.” Two weeks later, I added: “since they express themselves in a form that is meaningful to us, we project onto their outputs the meaning that is within us.”

The reason lay, quite simply, in how these systems (technically known as Large Language Models, or LLMs) work: they rely on a probabilistic model of language, highly sophisticated and trained on an immense corpus of texts, which encodes statistics about the most plausible continuations of word sequences and sentences. This enables them to display strikingly fluent linguistic performance—the kind that, when produced by humans, we readily interpret as intelligent—though in reality it is not. In other words, showing competence with the words that describe the world is not the same as having competence about the world itself. Yet, because the human brain is wired to perceive meaning even in entirely arbitrary patterns, we project onto these systems the intelligence that actually resides within us.

Since even back then the economic stakes around generative AI were enormous (and since then hundreds of billions of dollars have continued to pour into the field), the same story kept being told: that artificial intelligence would soon be able to deliver human-level performance across all domains. As usual, while the majority kept following the pied piper, far more authoritative experts than myself urged caution. I wrote about this several times — here and here in relation to school education, here and here regarding social relationships, and here about the very term itself—pointing out that these systems produce expressions that seem meaningful to us only because we project onto them the understanding that actually resides within us. Consequently, we could never truly rely on them to replace people. Gradually, this is starting to surface — even if still cautiously — in the words of the CEOs and chief scientists of leading companies in the field, as well as tech investors. And it really seems that 2025 will be the year when this bubble begins to deflate.

Earlier this month, Andriy Burkov (a researcher specializing in machine learning and author of best-selling books on the subject — the very technique underlying LLMs) commented on X in response to a series of posts highlighting the poor performance of LLMs in mathematical reasoning with these words: “Only if you already know the right answer or you know enough to recognize a wrong one (e.g., you are an expert in the field) can you use this reasoning for something.” Essentially, the very same words I had used in the post mentioned at the beginning.

A few days later, Brad DeLong (professor of economics at the University of California, Berkeley) wrote on his blog: “If your LLM reminds you of a brain, it’s because you're projecting — not because it's thinking.” Once again, these were essentially the same words I had written two years ago.

It's obviously gratifying to have your hunches confirmed, but more importantly, it's interesting to see that, as I put it in the title, the awareness that this new emperor doesn't have such beautiful clothes after all is slowly spreading around the world.

Now, this doesn't mean that generative AI tools are useless. On the contrary, they are extremely useful if you use them as brute-force labor in a field you know well, while being fully aware of their inability to truly understand. They are amplifiers of our logical-rational cognitive abilities, just as industrial machines are amplifiers of our physical capacities. But just like with those machines, if you don't know how to use them, you risk causing disasters. Getting into the cockpit of an airplane without any training won't make you fly over the seas like a bird; more likely, it will lead to a bad end. Using generative AI in a field you don't know exposes you to the same risks. If you master the subject, however, you can in many cases — but not all! — work faster, as long as you continue to pay close attention to what it suggests.

A recent survey on the future of AI research, conducted by the American Association for Artificial Intelligence among experts in the field, found that 76% believe it is "unlikely" or "very unlikely" that LLMs will lead to what is known as "artificial general intelligence." It will certainly require different methods, not just a statistical approach like the one used by current LLMs, but also a "symbolic" approach (which was the one used in the field of artificial intelligence before the explosion of machine learning techniques), thus integrating different methods.

In short, the future of this technology is certainly interesting, provided we remain aware that, now as it was thousands of years ago, it is necessary to pursue an aurea mediocritas, to follow the middle path.

--
The original version (in italian) has been published by "StartMAG" on 19 April 2025.

martedì 22 aprile 2025

Tutti i nodi (dell'IA) vengono al pettine

by Enrico Nardelli

(english version here)

Scrivevo a marzo del 2023, quando tutto il mondo stava cominciando a parlare delle impressionanti capacità di ChatGPT, il primo strumento di intelligenza artificiale generativa (IAG) noto al grande pubblico, e si diffondeva su tutti i mezzi di comunicazione la profezia che l’intelligenza artificiale (IA) avrebbe sostituito la gran parte dei lavoratori, questa frase: «In altre parole, se non sapete già la risposta corretta, ciò che vi dice tale sistema rischia di non essere di alcun aiuto». Due settimane dopo aggiungevo: «poiché ciò che fanno lo esprimono in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi».

Il motivo risiedeva, molto semplicemente, nel modo in cui questi sistemi (tecnicamente definiti Large Language Models, cioè modelli linguistici di grandi dimensioni – LLM) funzionano: usando un modello probabilistico del linguaggio, assai sofisticato e messo a punto attraverso una sterminata base di testi, che contiene statistiche sulle continuazioni più plausibili di sequenze di parole e di frasi. Questa caratteristica permette loro di esibire prestazioni linguistiche impressionanti, di quelle che quando sono esplicitate da esseri umani vengono considerate intelligenti, ma che in realtà non sono tali. Cioè, esibire competenza sulle parole che descrivono il mondo non equivale ad avere competenza sul mondo. Ma poiché il cervello degli esseri umani è configurato in modo tale da vedere un significato in configurazioni del tutto arbitrarie, proiettavamo su tali strumenti l’intelligenza che risiede in noi.

Dal momento che già allora gli interessi economici messi in gioco sull’IAG erano enormi (e da allora centinaia di miliardi di dollari hanno continuato ad essere investiti in questo settore), si è però continuato a raccontare la stessa storia, che a breve l’intelligenza artificiale sarebbe stata in grado di fornire prestazioni umane in tutti i settori. Come al solito, mentre la massa continuava a seguire il pifferaio magico, esperti ben più quotati di me invitavano alla cautela. Io ne ho scritto diverse volte, qui e qui a proposito di scuola, qui e qui a proposito delle relazioni sociali, e qui a proposito del termine in sé, ricordando che questi sistemi producono espressioni che per noi hanno un significato perché proiettiamo su di essi quella comprensione del significato che in realtà è dentro di noi. Di conseguenza non avremmo potuto farci affidamento per sostituire le persone. Pian piano questo sta emergendo – anche se in forma per ora cauta – dalle stesse parole dei CEO e chief scientist delle aziende all’avanguardia in questo settore e degli investitori nel settore della tecnologica, e sembra proprio che il 2025 sarà l’anno in cui anche questa bolla si sgonfierà.

All’inizio di questo mese, Andriy Burkov (ricercatore esperto nell’apprendimento automatico e autore di volumi di successo sull’apprendimento automatico – la tecnica alla base degli LLM) ha commentato su X una serie di post che evidenziavano le terribili prestazioni degli LLM nel ragionamento matematico con queste parole «Solo se tu già conosci la risposta corretta o ne sai abbastanza per riconoscerne una scorretta (cioè, sei un esperto del settore) li puoi usare per qualcosa». Sostanzialmente, le stesse parole che avevo usato io nel post ricordato in apertura.

Pochi giorni dopo Brad Delong (professore di economia all’università della California a Berkeley) in un post sul suo blog ha scritto «Se il tuo LLM ti fa venire in mente che abbia un cervello, è solo perché stai facendo una proiezione non perché sta pensando». Anche in questo caso, sono sostanzialmente le stesse parole usate da me due anni fa.

Fa ovviamente piacere avere conferme delle proprie intuizioni, ma soprattutto è interessante vedere che, come ho detto con diverse parole nel titolo, la consapevolezza che questo nuovo imperatore non abbia poi dei vestiti così belli si sta pian piano diffondendo in tutto il mondo.

Attenzione, questo non vuol dire che gli strumenti di IAG siano inutili. Al contrario, essi sono utilissimi, se li usi come bruta forza lavoro in un settore che conosci bene, avendo contezza della loro incapacità di comprensione. Sono degli amplificatori delle nostre capacità cognitive logico-razionali, come le macchine industriali lo sono delle nostre capacità fisiche. Ma come in quel caso, se non le sai usare, rischi di fare dei disastri. Mettersi alla guida di un aeroplano senza preparazione non ti farà volare sopra i mari come un uccello ma, più probabilmente, ti porterà a una brutta fine. Usare l’IAG in un settore che non si conosce espone agli stessi rischi. Se padroneggi la materia, invece, puoi in molti casi – ma non tutti! – lavorare più veloce, purché continui a fare attenzione a ciò che essa ti propone.

Una recente indagine sul futuro della ricerca nell’IA, svolta dall’Associazione per l'Avanzamento dell’Intelligenza Artificale tra gli esperti del settore, ha rilevato che il 76% ritiene “improbabile” o “molto improbabile” che gli LLM condurranno a quella che si chiama “intelligenza artificiale generale”. Saranno certamente necessari metodi diversi, che non usano solo un approccio di tipo statistico, come accade con gli attuali LLM, ma che adottano anche un approccio di tipo “simbolico” (che è poi quello che veniva usato nel settore dell’intelligenza artificiale prima dell’esplosione delle tecniche di apprendimento automatico) integrando quindi diverse tecniche.

Insomma, il futuro di questa tecnologia è certamente interessante, purché manteniamo la consapevolezza che, adesso come millenni fa, è necessario perseguire un’aurea mediocritas, seguire la via di mezzo.

--
Versione originale pubblicata su "StartMAG" il 19 aprile 2025.

sabato 19 aprile 2025

Strolling through informatics #28 – Digital transformation needs a different perspective

by Enrico Nardelli

(versione italiana qua)

In recent posts we have been discussing various aspects of the relationship between informatics and the world of work, first reflecting on the need for cultural maturation based on teaching informatics from compulsory school onwards, then on the role played by informatics in increasing productivity and finally on how, for ordinary people, it is necessary to develop transparent and user-friendly computer systems. Let's now tackle the issue of a proper vision of what we call "digital transformation" which is nothing other than computer automation.

Typically, in fact, an organization acquires a computer system to replace, through an automated system, cognitive faculties previously exercised by one or more people. The functions to be automated are identified and replaced by a computer system, that is, a "cognitive machine", which is the corresponding element in digital society to the traditional machine of industrial society.

This substitution, like any automation, occurs to improve productivity, that is, to increase output or decrease costs or both. So far so good: work automation has been for centuries the key factor ensuring constant productivity growth. Having acquired a computer system therefore means having replaced one or more people with one or more "cognitive machines". But these, without adaptive capacity, are unable to evolve to cope with changing contextual conditions. This is why the acquisition or development of any computer application must follow a different path.

It is necessary to change first and foremost the mental paradigm with which computer automation is approached. Every organization knows well, when hiring an economist, an engineer, a lawyer or an accountant, that what that person can do at the beginning will not remain unchanged over time, but will evolve, because the person will learn on the job a whole series of details relevant to the organization itself and will adapt their behavior as their operational scenario evolves. Initially under the guidance of their supervisor, and then with an increasingly greater degree of autonomy. If part of this cognitive work is transferred to computer systems, this flexibility and capacity for evolution, which are specific to and characteristic of human beings, are lost. Not understanding this perspective means continuing to waste money on developing computer systems.

Before computerizing a work process, it must be analyzed in depth and we must understand how its automation impacts work organization, internal power relationships and external ones. When we think we can outsource IT services, saving on personnel, we always end up discovering that we have spent more to adapt these services brought outside the organization to every minor change in the surrounding reality, modifications that an IT professional employed internally would have known how to handle in a fraction of the time.

Unfortunately, we still cannot build systems for transforming information and knowledge with a level of reliability, predictability and security comparable to what traditional engineering artifacts offer. We are still at the level of building medieval cathedrals, with the difference that if a cathedral collapsed there were fewer consequences for society than the collapse of a computer system, given our almost total dependence on their proper functioning. We still don't know how to build systems that have a semantic understanding of reality and its changes at the level of an elementary school child, despite what appears to us from interaction with generative artificial intelligence systems (GAI). More and more frequently, the digital tools we use daily turn into mechanisms to control and record what we say and do, then transform this data into opportunities for enormous profit for the few, leaving us crumbs of personal utility. In short, informatics that could and should be used to make us better off becomes an instrument of oppression and stress.

The approach to use, therefore, is to consider a digital transformation process as the acquisition of a certain number of people with certain basic skills. No personnel recruiter expects to always find "the perfect candidate", because this is not the norm at all. The aim is to find a person with a profile good enough to be able to "take the field" effectively and then, from there, evolve.

With computer systems to be developed for digital transformation, the same approach must be adopted. This doesn't mean taking the first system that comes along, but making the incremental and co-constructed development (by users and developers, by clients and suppliers) of the system itself part of the acquisition process. Exactly as happens with employees. All those who deal with these issues know how complicated it is to integrate a team of 10 employees into a group of 100, all the more so the greater the cognitive and non-physical component of the activities carried out in the organization. When you digitize a business process you are essentially doing the same thing. Why should we proceed differently? If we do so, it's because we haven't understood that informatics is a radically different automation from any other and requires a different approach.

We will explore this further in the next post.

[[The posts in this series are based on the Author's book (in Italian) La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, (= The Informatics Revolution: Knowledge, Awareness and Power in the Digital Society) to which readers are referred for further reading]].

--
The original version (in italian) has been published by "Osservatorio sullo Stato digitale" (= Observatory on Digital State) of IRPA - Istituto di Ricerche sulla Pubblica Amministrazione (= Research Institute on Public Administration) on 16 April 2025.

A passeggio con l’informatica #28 – La trasformazione digitale ha bisogno di un altro punto di vista

di Enrico Nardelli

Negli ultimi post stiamo discutendo vari aspetti delle relazioni tra informatica e mondo del lavoro, riflettendo dapprima sulla necessità di una maturazione a livello culturale basata sull’insegnamento dell’informatica fin dalla scuola dell’obbligo, poi sul ruolo giocato dall’informatica nell’aumento di produttività e infine su come, per la gente comune, sia necessario sviluppare sistemi informatici trasparenti e facili da usare. Affrontiamo adesso il tema di una corretta visione di quella che chiamiamo “trasformazione digitale” e che non è niente altro che automazione informatica.

Tipicamente, infatti, un’organizzazione acquisisce un sistema informatico per rimpiazzare, mediante un sistema automatico, facoltà cognitive precedentemente esplicate da una o più persone. Si individuano le funzioni da automatizzare, che vengono sostituite da un sistema informatico, cioè una “macchina cognitiva”, che è la corrispondente, nella società digitale, alla macchina tradizionale della società industriale.

Questa sostituzione, come ogni automazione, avviene per migliorare la produttività, cioè aumentare l’output o diminuire i costi o entrambe le cose. Fin qui niente di male: l’automazione del lavoro è da secoli il fattore chiave che assicura un costante aumento di produttività. Aver acquisito un sistema informatico vuol dire quindi aver sostituito a una o più persone una o più “macchine cognitive”. Ma queste, senza capacità di adattamento, non sono in grado di evolversi per far fronte al mutare delle condizioni di contesto. Per questo l’acquisizione o lo sviluppo di un qualunque applicazione informatica deve seguire un percorso diverso.

È necessario cambiare prima di tutto il paradigma mentale con cui si affronta l’auto­mazione informatica. Ogni organizzazione sa bene, quando assume un economista, un ingegnere, un legale o un contabile, che ciò che sa fare quella persona all’inizio non rimarrà immutato nel tempo, ma si evolverà, perché la persona imparerà sul campo tutta una serie di dettagli rilevanti per l’organizzazione stessa e adatterà il proprio comportamento man mano che il suo scenario operativo si evolve. All’inizio sotto la guida del suo responsabile, e poi sempre con maggiore grado di autonomia. Se una parte di questo lavoro cognitivo viene trasferito a sistemi informatici, vengono meno questa flessibilità e capacità di evoluzione, che sono specifiche e caratterizzanti gli esseri umani. Non capire questo punto di vista vuol dire continuare a sprecare soldi con lo sviluppo di sistemi informatici.

Prima di informatizzare un processo lavorativo bisogna averlo analizzato in profondità e aver compreso come la sua automazione impatti sull’or­ganizzazione del lavoro, sui rapporti di potere interni e su quelli esterni. Quando si pensa di poter esternalizzare i servizi informatici, risparmiando sul personale, si finisce sempre per scoprire che si è speso di più per adattare questi servizi portati fuori dall’organizzazione ad ogni minimo cambiamento della realtà circostante, modifiche che un informatico impiegato all’interno avrebbe saputo gestire in una frazione del tempo.

Purtroppo non riusciamo ancora a costruire sistemi per la trasformazione di informazione e conoscenza con un livello di affidabilità, prevedibilità e sicurezza comparabile con quello che offrono i tradizionali manufatti ingegneristici. Stiamo ancora al livello della costruzione delle cattedrali medievali, con la differenza che se crollava una cattedrale c'erano meno conseguenze sulla società del crollo di un sistema informatico, data la quasi totale dipendenza che abbiamo dal loro buon funzionamento. Non sappiamo ancora costruire sistemi che abbiano una comprensione semantica della realtà e dei suoi cambiamenti al livello di un bambino della scuola elementare, nonostante quanto ci appaia dall’interazione con i sistemi di intelligenza artificiale generativa (IAG). Sempre più frequentemente, gli strumenti digitali che usiamo quotidianamente si trasformano in meccanismi per controllare e registrare ciò che diciamo e facciamo, per poi trasformare questi dati in occasioni di enorme profitto per pochi, lasciandoci briciole di utilità personale. Insomma l’informatica che potrebbe e dovrebbe essere usata per farci stare meglio, diventa strumento di oppressione e di stress.

L’ap­proccio quindi da usare è considerare un processo di trasformazione digitale come l’acquisizione di una certa quantità di persone con certe competenze di base. Nessun selezionatore del personale si aspetta di trovare sempre “il candidato perfetto”, perché questa non è affatto la norma. Si cerca di trovare una persona col profilo sufficientemente buono per poter “scendere in campo” con efficacia e poi, da lì, evolversi.

Con i sistemi informatici da realizzare per la trasformazione digitale bisogna adottare lo stesso approccio. Il che non vuol dire prendere il primo sistema che capita, ma far diventare parte del processo di acquisizione lo sviluppo incrementale e co-costru­ito (da utenti e sviluppatori, da committenti e fornitori) del sistema stesso. Esattamente come accade con i dipendenti. Tutti coloro che si occupano di queste problematiche sanno quanto sia complicato l’inserimento di una squadra di 10 dipendenti in un gruppo di 100, tanto più quanto maggiore è la componente cognitiva e non fisica delle attività svolte nell’organizzazione. Quando si digitalizza un processo aziendale si sta facendo sostanzialmente la stessa cosa. Perché dovremmo procedere in modo diverso? Se lo facciamo è perché non abbiamo capito che quella informatica è un’automazione radicalmente diversa da ogni altra e che richiede un altro approccio.

Lo approfondiremo nel prossimo articolo.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 16 aprile 2025.

sabato 12 aprile 2025

Strolling through informatics #27 – No digitalization without representation

by Enrico Nardelli

(versione italiana qua)

We discussed in the previous post how informatics has been an essential component in achieving the productivity increase we've witnessed over the past 30-40 years, but how much of this benefit hasn't trickled down to workers. In this post, I address what has happened in our daily lives.

Over the past centuries, we've witnessed parallel advancement of social changes and automation, which have made certain aspects of our existence more comfortable and have allowed many to improve their living conditions.

Let's consider just domestic life (though similar reasoning can be applied to work life). Until the mid-20th century, in the family of a middle-class professional, there were still a certain number of domestic servants, responsible for a whole series of activities that still needed to be carried out in a family. Until the spread of the telephone (which began around the turn of the 19th and 20th centuries), even communicating something to a nearby relative required a visit or sending a messenger. The number of servants obviously varied according to the household head's income (almost always the man) and they all answered to his wife, who was effectively a true corporate manager. (Could this be why startups led by women are more profitable than when men lead them?)

The twentieth century is the century when automation grows increasingly explosively, with electrical appliances replacing flesh-and-blood servants and enabling women's liberation from household care. Not everything works well from the start, since a washing machine is just a piece of iron infinitely more stupid than a servant capable of washing clothes according to the lady of the house's directives applied flexibly through human intelligence. However, on one hand the companies' effort to produce understandable and easy-to-use appliances, and on the other people's adaptation to using such devices for what they're capable of achieving, means that many "technological contraptions" actually make many activities more comfortable today and have given people who would once have been lifelong servants the opportunity to build a more fulfilling existence for themselves and their families.

With the advent of electronic automation, which soon becomes digital automation, the trend reverses. The problem is that machines begin operating in a context characterized by perception of the external world and decision-making based on its interpretation, a situation that's difficult to govern without human intelligence, unless operating in very restricted sectors. Industrial automation, in fact, from the 1980s onwards makes giant strides: just think of how many production processes are now completely robotized. We, instead, remember well that during that period in our homes we struggled against a video recorder that refused to record our favorite program.

Then comes personal informatics, gradually inserted into all devices, from appliances to cell phones, and into all services, from banks to public administration counters.

And here the great betrayal is celebrated.

People are left at the mercy of monstrously complicated mechanisms that show no sign of their internal state and offer no possibility of understanding what's happening. They're forced to follow incomprehensible lists of actions like puppets, which they carry out religiously hoping not to make mistakes, while the more superstitious accompany them with apotropaic gestures ("you never know!"). As a result, we find ourselves transformed—we who should be the lords and masters of machines—into slaves with no way out.

It wasn't understood that, faced with a revolution of much more dramatic scope from a social standpoint than those caused by television or automobiles, a serious program of informatics literacy for Italians should have been launched. Conferences upon conferences were filled with the theme "It's Never Too Late 2.0," saying that digital skills would be spread throughout society, but without investing real resources in this education, believing that all the necessary information was available on the Web anyway. And they continued as if nothing had happened on the path of this automation.

I believe instead that a necessary requirement for the success of every digital transformation is: "no digitalization without end-user representation." This explicitly recalls one of the 18th-century mottos that were the basis of the English colonies' revolution against the mother country: "no taxation without representation." In our case, it means that if you don't involve the end user, who on the web is anyone, from the scholar to the worker, both united by being hit by a technological revolution that happened too fast for them to assimilate it, the system works poorly. I'm sure each of us has their favorite example of a website that requires an enormous dose of patience and self-control to manage to complete operations that, speaking with a counter clerk, would have been completed in half the time and with zero stress.

They then proceeded to elaborate beautiful plans for digital "things," where "thing" could be "school" or "healthcare" or "justice" (or any name of interest to the government in power) without reflecting that an epochal change of this type can't be implemented quickly, because it requires thorough training of people. Only in "Matrix" movies do you plug in the appropriate cartridge and immediately become an expert: human beings instead need time to learn, especially if they're simultaneously continuing to do their work and live their lives.

Now, as I mentioned in the previous post, we should manage to include informatics among the subjects taught in compulsory education. In any case, the fundamental principle that informatics automation must first and foremost serve end users should be clearly stated in the premises of every institutional document dealing with so-called digital transformation: «NO DIGITALIZATION WITHOUT REPRESENTATION».

[[The posts in this series are based on the Author's book (in Italian) La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, (= The Informatics Revolution: Knowledge, Awareness and Power in the Digital Society) to which readers are referred for further reading]].

--
The original version (in italian) has been published by "Osservatorio sullo Stato digitale" (= Observatory on Digital State) of IRPA - Istituto di Ricerche sulla Pubblica Amministrazione (= Research Institute on Public Administration) on 9 April 2025.

A passeggio con l’informatica #27 – Nessuna digitalizzazione senza rappresentazione

di Enrico Nardelli

Abbiamo discusso nel precedente articolo come l’informatica sia stata una componente essenziale per ottenere l’aumento di produttività che abbiamo visto negli ultimi 30-40 anni ma come gran parte di questo beneficio non sia ricaduto sui lavoratori. In questo post affronto cosa è accaduto nel nostro quotidiano.

Nel corso dei secoli passati abbiamo assistito a un parallelo avanzamento di cambiamenti sociali e automazione, che hanno reso certi aspetti della nostra esistenza più comodi e hanno consentito a molti di migliorare le loro condizioni di vita.

Consideriamo anche soltanto la vita domestica (ma ragionamenti analoghi si possono fare per quella lavorativa). Fino a metà del XX secolo nella famiglia di un membro della classe professionale media c'erano comunque un certo numero di domestici, addetti a tutta una serie di attività che vanno comunque espletate in una famiglia. Fino alla diffusione del telefono (che inizia a cavallo tra l'Ottocento e il Novecento) anche comunicare qualcosa a un parente poco distante richiedeva una visita o l'invio di un messaggero. Il numero dei servitori variava ovviamente in funzione del reddito del capofamiglia (quasi sempre l'uomo) e tutti rispondevano a sua moglie, a tutti gli effetti un vero e proprio manager aziendale. (Sarà per questo che le start-up guidate da donne sono più redditizie di quando a guidarle sono gli uomini?)

Il Novecento è il secolo in cui l'automazione cresce in maniera sempre più esplosiva, con gli elettro-domestici che soppiantano quelli in carne e ossa e consentono l'affrancamento della donna dalla cura della casa. Non tutto va bene fin da subito, dal momento che una lavatrice è solo un pezzo di ferro infinitamente più stupido di un domestico in grado di lavare i panni secondo le direttive della padrona di casa applicate in modo flessibile dalla sua intelligenza. Però, da un lato lo sforzo delle aziende nel produrre apparecchi comprensibili e facili da usare, dall'altro l'adattamento delle persone nell'usare tali dispositivi per quello che sono in grado di realizzare, fanno sì che effettivamente molte "diavolerie tecnologiche" rendono oggi più comode tante attività e hanno dato la possibilità, a persone che un tempo sarebbero state servitori a vita, di costruire per loro e per le loro famiglie un’esistenza più gratificante.

Con l'avvento dell'automazione elettronica, che diventa ben presto automazione digitale, la tendenza si inverte. Il problema è che le macchine iniziano a operare in un contesto caratterizzato dalla percezione del mondo esterno e dalla decisione basata sulla sua interpretazione, situazione difficilmente governabile se non si ha l'intelligenza umana, a meno di operare in settori molto ristretti. L'automazione industriale, infatti, dagli anni ‘80 in avanti fa progressi da gigante: pensate soltanto a come molti processi produttivi siano ormai completamente robotizzati. Noi, invece, ricordiamo bene che in quel periodo nelle nostre case lottiamo contro un video registratore che non ne vuol sapere di registrare il nostro programma preferito.

Poi arriva l'informatica personale, pian piano inserita in tutti i dispositivi, dagli elettrodomestici ai cellulari, e in tutti i servizi, dalle banche agli sportelli della Pubblica Amministrazione.

E qui si celebra il grande tradimento.

Le persone sono lasciate in balìa di meccanismi mostruosamente complicati, che non mostrano alcun segno del loro stato interno e non offrono alcuna possibilità di capire cosa stia succedendo. Sono costrette a seguire come burattini liste di azioni incomprensibili, che attuano religiosamente sperando di non sbagliare, mentre i più superstiziosi le accompagnano con gesti apotropaici ("non si sa mai!"). Come risultato ci troviamo trasformati, noi che dovremmo essere i signori e padroni delle macchine, in schiavi senza via di fuga.

Non si è capito che, a fronte di una rivoluzione di portata ben più drammatica, dal punto di vista sociale, di quelle causate dalla televisione o dall’automobile, andava fatto partire un serio programma di alfabetizzazione informatica degli italiani. Si sono riempiti convegni su convegni sul tema “Non è mai troppo tardi 2.0”, dicendo che si sarebbero diffuse le competenze digitali in tutta la società, ma senza investire risorse reali su questa istruzione, ritenendo che tanto tutte le informazioni necessarie fossero disponibili sulla Rete. E si è proseguito come se niente fosse sulla strada di questa automazione.

Ritengo invece che un requisito necessario per il successo di ogni trasformazione digitale sia: “no digitalization without end-user representation”. L’ho scritto in inglese per richiamare in modo esplicito uno dei motti del Settecento che sono stati alla base della rivoluzione delle colonie inglesi contro la madrepatria: “no taxation without representation”. Nel nostro caso vuol dire che se non si coinvolge l’utente finale, che sul web è chiunque, dal letterato all’operaio, entrambi accomunati dall’essere stati investiti da una rivoluzione tecnologica avvenuta troppo in fretta perché potessero assimilarla, il sistema funziona male. Son sicuro che ognuno di noi ha il suo esempio favorito di sito web che richiede un enorme dose di pazienza e autocontrollo per riuscire a portare a termine operazioni che, parlando con un addetto allo sportello, si sarebbero completate in metà del tempo e stress nullo.

Si è poi proseguito elaborando bellissimi piani per la “cosa” digitale, dove “cosa” poteva essere “scuola” o “sanità” o “giustizia” (o qualunque nome di interesse per il governo di turno) senza riflettere che un cambiamento epocale di questo tipo non si attua in poco tempo, perché richiede un’approfondita formazione delle persone. Solo nei film di “Matrix” ci si innesta l’apposita cartuccia e si diventa subito esperti: gli esseri umani hanno invece bisogno di tempo per apprendere, soprattutto se contemporaneamente stanno continuando a fare il loro lavoro e vivere la loro vita.

Adesso, come ricordavo nel precedente articolo, dovremmo riuscire a inserire l’informatica fra le materie insegnate nell’istruzione obbligatoria. In ogni caso, il principio fondamentale che l’automazione informatica deve essere prima di tutto al servizio degli utenti finali dovrebbe essere affermato in modo ben chiaro nelle premesse di ogni documento istituzionale che si occupa della cosiddetta trasformazione digitale: «NESSUNA DIGITALIZZAZIONE SENZA RAPPRESENTAZIONE».

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 9 aprile 2025.

sabato 5 aprile 2025

Strolling through informatics #26 – Does informatics drive growth?

by Enrico Nardelli

(versione italiana qua)

We discussed in the previous post how automation brought by informatics to the world of work needs adequate preparation of people to fully develop its potential. This is especially true for a country like Italy, which has countless productive niches of excellence, for which informatics can enable increased productivity while maintaining high levels of flexibility and adaptability.

As discussed in the four posts starting from this one, the problem is primarily cultural, because information technology is different from all others that preceded it. It creates "cognitive machines," meaning amplifiers of people's rational cognitive abilities and therefore radically different from all machines previously created by humans, which only enhance physical capabilities. After centuries of technological progress, this revolution swept through society in the short span of two decades, too quickly for the leadership class to understand its significance.

However, it's necessary to understand that informatics' capabilities and opportunities truly become a useful factor for building competitive advantage not when solutions are bought turnkey and imposed from above, but when they are developed and grown within the organization, adaptively to the organization's own needs. Only information systems introduced synergistically with organizational reality and its decision-making processes are the key to creating an efficient and effective organization. Finally, it's essential to understand how this has recurring and non-negligible costs, and how it's closely intertwined with the structure and governance of every organization, therefore requiring real awareness and full involvement of the workers concerned.

This is an epochal educational challenge that can only be won with the contribution and dialogue of all interested actors and would also allow for the creation of concrete economic growth opportunities in Italy. Not only because the informatics sector, called computing in the USA, has been that nation's leading sector for new jobs since 2016 (see graph below, created by the Author based on this data) and since 2017, in the manufacturing area, has surpassed demands for production sector workers.

But also because the "wise" use of informatics, which is not the purchase of turnkey solutions (which often work poorly and require continuous adjustments) or relying on external suppliers (generally late and over budget), but is based on development managed (and, in the best cases, even implemented) from within the organization, can give our production system an extra edge.

Italian production in most sectors is characterized by a unique combination of quality and flexibility. In many fields we are the best because we manage to closely follow changing market needs while maintaining a consistently very high quality standard. To continue excelling in this way, it's now necessary to introduce this use, which I've called wise, of informatics in production processes. This is only possible if our educational system produces a sufficient number of technicians and graduates of both sexes, thus also reducing the gender gap that is high in this sector.

All of this will not be possible without adequate knowledge, developed from elementary school desks, of what informatics is and of its "great beauty".

But beware, sometimes it happens that the benefits from productivity improvement attributable to informatics automation are not equitably distributed. This situation is illustrated by the graph in the figure below, an elaboration by the Author on OECD data (Organization for Economic Cooperation and Development). For both productivity and wages, index values were used, taking the value of July 1, 1995 as base = 100. We observe that average wages grew less than productivity, which means that, on average, workers were not compensated in a way corresponding to their greater productivity.

Note particularly the bottom line, since – representing the median value – it implies that, in the set of 24 OECD member countries considered in this survey, the situation went even worse for more than half of the workers, who received an even smaller share of the productivity increase to which they contributed with their work.

In the United States, the divergence between productivity and wages is even greater, as seen in the graph below, also an elaboration by the Author on data from the same time interval from The Economic Policy Institute (EPI), a non-profit institute that studies the needs of low- and middle-income US workers. In the same years, from 1995 to 2013, productivity grew more compared to the OECD average (134.3 versus 130.3), while average wages grew less (114.0 versus 122.8).

Yet, when in the second half of the last century "electronic brains" (as they were called to impress a society that, though industrialized, was still at the dawn of automation) had begun to demonstrate their incredible possibilities for automating many typical human behaviors, hopes that this could bring significant benefits to everyone had spread quickly.

Instead, not only – as the two graphs above highlight – did the majority not gain much from this productivity increase, but the quality of life when we find ourselves interacting with digital services has – in general – worsened (how many times do we lose several dozen minutes, if not entire hours, trying to do something online through an automated service when human communication would have solved the problem in 5 minutes?) and we are losing increasingly large portions of the personal privacy space we enjoyed until a few decades ago. Many don't realize this and consider living in a "glass house" normal, since they "have nothing to hide," without realizing that without privacy there is no freedom and without freedom there is no democracy.

We will continue to discuss this theme of the distance between what we expected from digital automation and what we got in the next post.

[[The posts in this series are based on the Author's book (in Italian) La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, (= The Informatics Revolution: Knowledge, Awareness and Power in the Digital Society) to which readers are referred for further reading]].

--
The original version (in italian) has been published by "Osservatorio sullo Stato digitale" (= Observatory on Digital State) of IRPA - Istituto di Ricerche sulla Pubblica Amministrazione (= Research Institute on Public Administration) on 2 April 2025.

A passeggio con l’informatica #26 – L'informatica fa crescere?

di Enrico Nardelli

Abbiamo discusso nel precedente articolo come l’automazione portata dall’informatica nel mondo del lavoro abbia bisogno, per sviluppare appieno il suo potenziale, di un’adeguata preparazione delle persone. Questo è vero soprattutto per un Paese come l’Italia, che ha tantissime nicchie produttive di eccellenza, alle quali l’informatica può consentire un incremento di produttività mantenendo elevati livelli di flessibilità e adattabilità.

Come discusso nei quattro articoli a partire da questo, il problema è prima di tutto culturale, perché la tecnologia informatica è diversa da tutte le altre che l’hanno preceduta. Essa realizza “macchine cognitive”, cioè amplificatori delle capacità cognitive razionali delle persone e quindi radicalmente differenti da tutte le macchine precedentemente realizzate dall’uomo, che ne potenziano solo le capacità fisiche. Dopo secoli di progresso tecnologico, questa rivoluzione è dilagata nella società nel breve intervallo di un ventennio, quindi troppo velocemente perché la classe dirigente riuscisse a comprenderne la portata.

È però necessario capire che le capacità e le opportunità dell’informatica diventano davvero un fattore utile per costruire un vantaggio competitivo non quando le soluzioni vengono comprate chiavi in mano e calate dall’alto, ma quando vengono sviluppate e fatte crescere all’interno dell’organizzazione, in modo adattivo alle esigenze dell’organizzazione stessa. Solo sistemi informatici introdotti in modo sinergico con la realtà organizzativa e i suoi processi decisionali sono la chiave per realizzare un’organizzazione efficiente ed efficace. È infine indispensabile capire come questo abbia costi ricorrenti e non trascurabili, e come sia strettamente interallacciato con la struttura e il governo di ogni organizzazione, richiedendo pertanto la reale consapevolezza e il pieno coinvolgimento dei lavoratori interessati.

Si tratta di una sfida educativa epocale, che può essere vinta solo con il contributo e il dialogo di tutti gli attori interessati e che permetterebbe inoltre di creare in Italia concrete opportunità di crescita economica. Non solo perché il settore informatico, chiamato computing negli USA, in quella nazione è già dal 2016 il primo per numero di nuovi occupati (vedi grafico sottostante, realizzato dall’Autore a partire da questi dati) e dal 2017, nell’area manifatturiera, ha superato le richieste di lavoratori del settore della produzione.

Ma anche perché l’uso “sapiente” dell’informatica, che non sia cioè l’acquisto di soluzioni chiavi in mano (che spesso funzionano male e richiedono continui adattamenti) o l’affidarsi a fornitori esterni (generalmente in ritardo e che sforano i preventivi), ma sia basato su uno sviluppo gestito (e, nel migliore dei casi, addirittura realizzato) dall’interno dell’organizzazione, può dare al nostro sistema produttivo una marcia in più.

La produzione italiana è nella maggior parte dei settori caratterizzata da una combinazione unica di qualità e flessibilità. In molti campi siamo i migliori perché riusciamo a seguire da vicino il mutare delle esigenze del mercato mantenendo uno standard qualitativo sempre molto elevato. Per continuare a eccellere in tal modo è ormai necessario introdurre questo uso, che ho chiamato sapiente, dell’informatica nei processi produttivi. Ciò è possibile solo se il nostro sistema formativo produrrà un numero sufficiente di tecnici e laureati di entrambi i sessi, riducendo così anche la differenza di genere che in questo settore è elevata.

Tutto questo non sarà possibile senza un’adeguata conoscenza, sviluppata sin dai banchi della prima elementare, di cosa sia l’informatica e della sua “grande bellezza”.

Ma attenzione, alle volte accade che i benefici derivanti dal miglioramento di produttività ascrivibile all’automazione dell’informatica non vengono equamente distribuiti. Questa situazione è illustrata dal grafico nella figura qui sotto, un’elaborazione dell’Autore su dati dell’OCSE (Organizzazione per la Cooperazione Sociale ed Economica). Sia per la produttività che per il salario sono stati usati valori indice, prendendo il valore del 1 luglio 1995 come base = 100. Osserviamo che il salario medio è cresciuto meno della produttività, il che significa che, in media, il lavoratore non è stato compensato in modo corrispondente alla sua maggiore produttività.

Si noti in particolare la linea più in basso, dal momento che – rappresentando il valore mediano – essa implica che, nell’insieme dei 24 paesi aderenti all’OCSE considerati in questa indagine, la situazione è andata ancora peggio per più della metà dei lavoratori, che hanno ricevuto una quota ancora inferiore dell’incremento di produttività cui hanno contribuito col loro lavoro.

Negli Stati Uniti la divergenza tra produttività e salario è ancora maggiore, come si vede dal grafico sottostante, sempre un’elaborazione dell’Autore su dati relativi allo stesso intervallo temporale dello The Economic Policy Institute (EPI), un istituto no-profit che studia le necessità dei lavoratori USA a basso e medio reddito. Negli stessi anni, dal 1995 al 2013, la produttività è cresciuta di più rispetto alla media OCSE (134,3 contro 130,3), mentre il salario medio di meno (114,0 contro 122,8).

Eppure, quando nella seconda metà del secolo scorso i “cervelli elettronici” (così venivano chiamati per impressionare una società che, pur industrializzata, era ancora agli albori dell’automazione) avevano cominciato a dimostrare le loro incredibili possibilità di automatizzare molti comportamenti tipici degli esseri umani, le speranze che questo potesse portare notevoli vantaggi a tutti si erano diffuse velocemente.

Invece, non solo – come i due grafici qua sopra evidenziano – la maggioranza non ha avuto un grande guadagno da questo aumento di produttività, ma la qualità della vita quando ci troviamo ad interagire con servizi digitali è – in generale – peggiorata (quante volte perdiamo diverse decine di minuti, se non ore intere, cercando di fare qualcosa online attraverso un servizio automatico quando una comunicazione tra persone avrebbe risolto il problema in 5 minuti?) e stiamo perdendo porzioni sempre più ampie dello spazio di riservatezza personale di cui godevamo fino a qualche decennio fa. Molti non se ne rendono conto e considerano normale il vivere in una “casa di vetro”, tanto “non hanno nulla da nascondere”, senza rendersi conto che senza privacy non c’è libertà e senza libertà non c’è democrazia.

Continueremo a discutere nel prossimo post questo tema della distanza tra ciò che ci aspettavamo dall’automazione digitale e ciò che abbiamo avuto.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 2 aprile 2025.