Pagine

giovedì 5 marzo 2026

The big illusion is over: Artificial Intelligence is not replacing software developers

by Enrico Nardelli

(versione italiana qua)

Let me say upfront — to pre-empt the usual hasty comments from those who won't read to the end — that I do believe tools based on generative Artificial Intelligence (GenAI, hereafter) are genuinely useful in software development, as they are in many other fields. But we need to be able to tell dreams from reality.

In 2023, Big Tech CEOs were more or less unanimously declaring that GenAI would replace most software developers by 2025. As recently as March 2025, Dario Amodei, CEO of Anthropic, was claiming that within 3 to 6 months GenAI would be writing 90% of all code.

The story went that the future would be "agentic" — that developers would have digital colleagues who never slept and never complained and would therefore take their jobs.

2024 closed with no fewer than 152,000 employees laid off across the tech sector worldwide, while by December 2025 the number of layoffs had reached 123,000 — all of it justified, according to the executives themselves, as "realigning towards an AI-centric future."

2026 has now begun, and there is no trace of the miraculous transformations that until recently were being touted as certainties — as I had anticipated several months ago. There I cited the Generative AI Gap report from MIT's NANDA project, published in July 2025, which had found that despite $40 billion in global investment, a staggering 95% of GenAI pilot projects had failed to produce any measurable economic return. Most organisations were seeing a net impact of zero on their bottom line.

Here are some updates that help explain why.

The GitClear report of February 2025 examined 211 million lines of code modified in the open source repositories used by Big Tech, finding that between 2020 and 2024 there was a near-doubling (from 3.05% to 5.67%) in the proportion of code that is added and then deleted within two weeks — so-called code churn. This is a clear indicator of a progressive decline in the quality of software being produced. The only technological or organisational change of any significance that occurred over the same period is that the proportion of developers using GenAI tools rose from zero to 63%. Correlation is not causation, of course, but this looks very much like a smoking gun. Furthermore, the report also recorded an increase in duplicated code blocks and a decrease in code reuse. These too are signs of declining quality. A December 2025 study by CodeRabbit, analysing 470 pull requests on the GitHub platform (used by more than 100 million developers worldwide to share and collaboratively develop code), found that GenAI-generated code produces on average 1.7 times more issues than code written by humans.

Stack Overflow, following a survey involving nearly 50,000 developers across 177 countries, reported that the proportion of developers favourably disposed towards GenAI tools fell from over 70% in 2024 to around 60% in 2025. The main source of frustration, cited by 66% of respondents, was that GenAI-produced solutions are "almost right, but not quite" — which leads to wasted time fixing errors in the code generated this way. That said, 69% of them acknowledged that GenAI does increase productivity in software writing. Several studies carried out in 2024 found that this increase ranges from 10–20% for senior developers to 35–40% for junior ones, who are better placed to benefit from a system that has knowledge of virtually all the software ever written in the world.

These findings are corroborated by studies conducted by the Stanford software engineering productivity research group involving more than 100 developers at major technology companies, which showed that the productivity gains in software development achieved through the use of GenAI tools are on average between 10% and 20%. Using them uncritically for software development, however, risks being a very costly mistake in the long run. While the volume of code produced increases by almost 40%, its quality decreases, requiring additional time for correction. And these are just the short-term consequences. Over the medium or long term — that is, in the context of the adaptive maintenance of software systems that have been in operation for some time — the situation risks becoming explosive.

There are no results yet pointing in this direction, given how little time has passed, but two significant findings emerge from the Stanford group's studies. The first is that without strong discipline in keeping a company's codebase structured and organised in a clear and clean manner, productivity gains evaporate or even reverse. The second is that productivity gains are greatest for new, low-complexity projects, while they diminish considerably for mature, high-complexity ones.

Throughout 2025, the wonders of vibe coding were extolled — the approach to software development in which a developer interacts with GenAI in natural language to "materialise" a complex software system by describing its overall vision. The problem is that this approach is fine for a demo but not for production-grade systems, because — like a sandcastle — it does not hold up solidly over time. This is the so-called GenAI technical debt: the future costs that accumulate when, in the rush of software development, one takes advantage of GenAI's code generation speed without bothering with thorough checks and verification.

During 2025, an approach emerged — conceptually known for some time, though now gaining traction — called specification-driven development, in which the developer uses GenAI tools starting from a specification — that is, a high-level description of the desired behaviour of the entire system — defined by the developer and progressively refined in ever greater detail, also with the support of GenAI. In this way, one partially overcomes the main limitation of these tools, which are based on statistics rather than symbolic representation: their inability to represent concepts that abstract away from the literal context under examination. With this approach, the software developer transforms into a specification developer. It is too early to say where this will lead, however, not least because the problems afflicting GenAI systems will not be overcome until the statistical approach is coupled with the symbolic one. The need to review AI-generated code in order to be confident it can be trusted therefore remains, at least until that integration occurs — and no one can reliably say when that will be. Which means that graduates in informatics and informatics engineering will always be in high demand — but that is a separate conversation.

And then there is the ever-present elephant in the room when it comes to informatics systems: security.

The Veracode October 2025 report on the security of GenAI-generated code reveals that 45% of it contains at least one of the ten most critical vulnerabilities identified by OWASP (Open Worldwide Application Security Project). For Java programs the situation is even worse. This sheds light on another important point: since GenAI tools have been trained on all existing code, and Java systems contain — for partly historical reasons — far more vulnerabilities than those written in other languages, the code that GenAI generates for this language is correspondingly more flawed.

Finally, the most damaging effect of all: the decline in hiring for entry-level software development roles. Because companies believed GenAI could handle junior-level tasks, hiring for these profiles collapsed. In 2024, the 15 largest Silicon Valley companies hired 25% fewer people for positions requiring less than one year of experience, while the reduction at start-ups was 11%. In its wake, we will likely also see a decline in enrolments in university degree programmes and upper secondary school diploma courses centred on informatics.

A suicidal choice, at every level. If companies do not hire inexperienced young people, they will never be able to develop experienced leaders. If young people do not learn to develop informatics systems with their own minds, they will never be able to manage those developed by GenAI.

Companies that have understood how to use GenAI are deploying it to help people be more effective in their work, freeing them from repetitive, low-level tasks. Those that are blindly relying on GenAI to get rid of new hires or pay them less will be forced to think again — and it will hurt.

The pendulum always swings back. What do you think?

--
The original version (in italian) has been published by "StartMAG" on 16 February 2026.

La grande illusione infranta: l'Intelligenza Artificiale non sostituisce gli sviluppatori di software

di Enrico Nardelli

(english version here)

Anticipo subito - per evitare i soliti commenti frettolosi di chi non legge fino in fondo - che ritengo che gli strumenti basati sull'Intelligenza Artificiale generativa (IAGen, nel seguito) abbiano certamente un'utilità nello sviluppo del software, così come in molti altri settori. Ma dobbiamo essere in grado di distinguere i sogni dalla realtà.

Nel 2023 i capi delle Big Tech dicevano più o meno tutti che l'IAGen avrebbe sostituito la maggior parte degli sviluppatori software entro il 2025. Ancora a marzo 2025 Dario Amodei, il CEO di Anthropic, dichiarava che nel giro di 3-6 mesi l’IAGen avrebbe scritto il 90% del codice.

Si raccontava che il futuro sarebbe stato "agentico", che chi sviluppa software avrebbe avuto colleghi digitali che non dormivano mai e non si lamentavano mai e che, quindi, gli avrebbero sottratto il lavoro.

Il 2024 si era chiuso con ben 152.000 dipendenti del settore licenziati in tutto il mondo, mentre a dicembre 2025 i licenziamenti erano arrivati a 123.000. Il tutto, secondo le dichiarazioni degli stessi capi "per riallinearsi verso un futuro incentrato sull'IA".

È iniziato il 2026 e dei cambiamenti miracolosi dati per certi fino a poco fa non si vede traccia, come avevo anticipato già qualche mese fa. Lì citavo il rapporto Il Divario dell'IA Generativa del progetto NANDA del MIT, uscito a luglio 2025, che aveva registrato come, nonostante 40 miliardi di dollari di investimenti globali, un incredibile 95% dei progetti pilota di IAGen non era riuscito a produrre un ritorno economico misurabile. La maggior parte delle organizzazioni stava vedendo un impatto netto pari a zero sui propri profitti.

Ecco alcuni aggiornamenti che spiegano il perché.

Il rapporto di GitClear di Febbraio 2025 ha esaminato 211 milioni di linee di codice modificate negli archivi a sorgente aperto (open source repository) usati dalle Big Tech osservando che dal 2020 al 2024 si è verificato un incremento percentuale quasi doppio (da 3,05% a 5,67%) della quantità di codice che viene aggiunto e poi cancellato nel giro di due settimane (code churn). È questo un segno che indica una progressiva diminuzione della qualità del software prodotto. L'unico cambiamento tecnologico o organizzativo di una qualche rilevanza che è accaduto nello stesso intervallo di tempo è che la percentuale di sviluppatori che usa strumenti di IAGen è passata dallo zero al 63%. La correlazione non è causazione, certo, ma questa sembra essere una vera e propria "pistola fumante". Non solo, il rapporto ha registrato anche un aumento di blocchi di codice duplicati e una diminuzione del riutilizzo del codice. Anche questi sono segnali di diminuzione della qualità. Uno studio di CodeRabbit di Dicembre 2025 ha rivelato, analizzando 470 richieste di integrazione (pull request) di nuove parti di codice in programmi esistenti sulla piattaforma GitHub (usata da più di 100 milioni di sviluppatori in tutto il mondo per condividere codice informatico e collaborare al suo sviluppo), che il codice prodotto da IAGen crea mediamente 1,7 più problemi del codice prodotto da esseri umani

Stack Overflow, a seguito di un'indagine che ha coinvolto quasi 50.000 sviluppatori in 177 paesi, ha riportato che la percentuale favorevole all'utilizzo di strumenti di IAGen è calata da più del 70% nel 2024 a circa il 60% nel 2025. Il motivo principale di frustrazione nel loro utilizzo, riportato dal 66% degli sviluppatori, è che le soluzioni prodotte dall'IAGen sono "quasi corrette, ma non completamente", il che conduce a sprecare tempo nelle attività di correzione degli errori del codice ottenuto per questa via. Il 69% di loro ha comunque riconosciuto che l'IAGen aumenta la produttività nella scrittura del software. Diverse ricerche svolte nel 2024 hanno evidenziato che tale aumento va dal 10-20% dello sviluppatore senior al 35-40% di uno junior, che è in grado di trarre maggior vantaggio da un ambiente che conosce tutto il software sviluppato nel mondo.

Questi dati sono confermati anche dagli studi condotti dal gruppo di ricerca sulla produttività dell'ingegneria del software di Stanford su più di 100 sviluppatori delle maggiori aziende tecnologiche, che hanno evidenziato come l'aumento di produttività nello sviluppo di software ottenuto dall'uso di strumenti di IAGen sia mediamente tra il 10% e il 20%. Usarli acriticamente per lo sviluppo del software rischia però di essere un errore molto costoso a lungo termine. Infatti, mentre la quantità di codice realizzato aumenta di quasi il 40%, la sua qualità diminuisce, richiedendo tempo aggiuntivo per per essere corretto. E queste sono le conseguenze sul breve periodo. Nel medio o lungo, ovvero in un contesto di manutenzione adattiva di sistemi software che sono in funzione da parecchio tempo, la situazione rischia di essere esplosiva.

Non ci sono ancora risultati in questa direzione, considerato il poco tempo trascorso, ma dagli studi di questo gruppo di Stanford due elementi rilevanti emergono. Il primo è che in assenza di una forte disciplina nel mantenere il software dell'azienda strutturato e organizzato in modo chiaro e pulito i guadagni di produttività si annullano o addirittura si invertono. Il secondo è che i guadagni di produttività sono maggiori per progetti nuovi e di bassa complessità, mentre si affievoliscono notevolmente per progetti maturi e di alta complessità.

Per tutto il 2025 sono state decantate le meraviglie del vibe coding, l'approccio allo sviluppo del software nel quale uno sviluppare interagisce in linguaggio naturale con l'IAGen per "materializzare" un sistema software complesso di cui si descrive la visione generale. Il problema è che questo approccio va bene per fare una demo ma non per sistemi da usare a regime, perché – come un castello di sabbia – non rimane solidamente in piedi col passare del tempo. È il cosiddetto debito tecnico dell'IAGen, cioè i costi futuri che si accumulano quando nello sviluppo del software si approfitta, per sbrigarsi, delle velocità di generazione del codice di IAGen senza stare a fare tanti controlli e verifiche.

Nel corso del 2025 è emerso un approccio (che a livello concettuale era però noto da molto tempo) chiamato “sviluppo guidato dalla specifica” (specification driven development) nel quale lo sviluppatore usa gli strumenti di IAgen a partire di una specifica (cioè di una descrizione di massima del comportamento desiderato dell’intero sistema) da lui definita e via via precisata in modo sempre più dettagliato, anche con il supporto dell’IAgen. In tal modo si supera in qualche modo il maggior problema di questi strumenti, basati sulla statistica e non sulla rappresentazione simbolica, cioè quello di essere in grado di rappresentare concetti che astraggono rispetto al contesto letterale preso in esame. Lo sviluppatore di software si trasforma con quest’approccio in uno sviluppatore di specifiche. È presto per dire però dove si arriverà con questo approccio, anche perché i problemi che affliggono i sistemi di IAgen non verranno superati fino a che l’approccio statistico non sarà accoppiato a quello simbolico. Rimane quindi ancora in piedi, almeno fino a questa integrazione (che nessuno può dire in modo affidabile quando avverrà) la necessità di controllare il codice prodotto per essere sicuri di potersi fidare. Il che implica che di laureati in informatica e ingegneria informatica ci sarà sempre un gran bisogno, ma questo è un altro discorso.

E poi c'è il solito "convitato di pietra" quando si parla di sistemi informatici: la sicurezza.

Il rapporto Veracode di ottobre 2025 sulla sicurezza del codice generato dall'IAGen rivela che il 45% di questo contiene almeno una delle 10 vulnerabilità più importanti secondo l'OWASP (Open Worldwide Application Security Project = Progetto per la sicurezza mondiale delle applicazioni open source, gestito dall'omonima fondazione no-profit). Per i programmi scritti in Java la situazione è ancora peggiore. Questo getta luce su un altro elemento importante: dal momento che gli strumenti IAGen sono stati addestrati su tutto il codice esistente, e i sistemi in Java contengono, per ragioni anche storiche, molte più vulnerabilità di quelli in altri linguaggi, i programmi che vengono generati dall'IAGen per questo linguaggio sono più difettosi.

Infine l'effetto più dannoso: la diminuzione delle assunzioni nelle posizioni iniziali dello sviluppo software. Siccome le aziende pensavano che l'IAGen potesse gestire compiti di livello junior, le assunzioni per questi profili sono crollate. Nel 2024 le 15 maggiori aziende della Silicon Valley hanno assunto il 25% in meno nelle posizioni con meno di un anno di esperienza, mentre la riduzione è stata dell'11% nelle start-up. A seguire, vedremo probabilmente anche una diminuzione delle iscrizioni ai corsi di laurea universitari e ai corsi di diploma di scuola secondaria superiore centrati sull'informatica.

Una scelta suicida, a tutti i livelli. Se le aziende non assumono giovani inesperti, non saranno mai in grado di formare leader esperti. Se i giovani non imparano a sviluppare sistemi informatici con la propria testa, non saranno mai in grado di gestire quelli sviluppati dall'IAGen.

Le aziende che hanno capito come usare l’IAGen la stanno mettendo in gioco per aiutare le persone a essere più efficaci nel loro lavoro, liberandole da compiti ripetitivi e di basso livello. Quelle che si stanno affidando ciecamente all’IAGen per liberarsi di neo-assunti o pagarli di meno, saranno costrette a ricredersi dolorosamente.

Il pendolo torna sempre indietro. E voi che ne pensate?

--
Versione originale pubblicata su "StartMAG" il 2 marzo 2026.

giovedì 19 febbraio 2026

Four reasons to scale back expectations for generative Artificial Intelligence

by Enrico Nardelli

(versione italiana qua)

«Artificial Intelligence (AI) is going to reproduce human intelligence. AI will eliminate disease. AI is the single biggest, most important invention in human history. You've likely heard it all—but probably none of these things are true».

This is the opening of a special issue titled Hype Correction, subtitled It's time to reset expectations, published in December 2025 by the Technology Review of the Massachusetts Institute of Technology (MIT), one of the most authoritative sources on scientific and technological research in the United States and worldwide.

I had anticipated back in April 2025 that things were heading in this direction, a trajectory now confirmed by the analysis of such a prestigious publication.

You certainly remember how the launch of ChatGPT-3.5 (Generative Pre-trained Transformer) at the end of 2022 captured the world's attention, prompting both private and public entities worldwide to invest heavily in the LLM (Large Language Model) technology that underpins Generative AI (GenAI) systems. Many believed this was the path toward achieving Artificial General Intelligence (AGI), an intelligence similar to human intelligence but even more powerful, versatile, and tireless, which would free us from labor and find solutions to all our problems. However, after three years of continuous promises, the launch of ChatGPT-5 in August 2025 – perceived as merely incremental rather than revolutionary – began to make the exaggeration behind that vision increasingly evident.

In October 2025, I pointed out the first signs of a course correction already underway.

Summarizing what has emerged from various reports and studies conducted in 2025, there are four key elements that explain the current state of affairs.

  1. LLM-based systems are not the path to AGI. This has been stated, among others, by Yann LeCun, who served as Meta’s chief scientist until November 2025 and left the company precisely because he disagreed with its continued insistence on LLMs. Ilya Sutskever, former Chief Scientist and co-founder of OpenAI (the company behind ChatGPT), has observed that LLMs' ability to generalize – that is, to extract general principles and apply lessons learned during training to new situations – is far more limited than that of human beings. In January 2026, The Atlantic (one of the oldest and most prestigious magazines in the US) published an article declaring "Large language models don't ‘learn’ – they copy," based on work by researchers from Stanford and Yale, who succeeded in getting four of the most widely used GenAI systems to reproduce nearly entire books or very large portions of them. A scientific review by researchers from Caltech and Stanford, published in January 2026, highlighted how even the most recent models, even those presented as "capable of reasoning," actually have significant problems reasoning correctly.
  2. GenAI systems remain prone to hallucinations (i.e., making things up) at a rate estimated between 15% and 25% — an unacceptable level for most consequential decisions and interactions, in both personal and professional life. This is especially troubling because, unlike a human being, these systems are incapable of self-correcting through experience. Any ordinary worker may make mistakes at first but usually learns and improves. This does not and cannot happen with GenAI systems, precisely because they are based on an essentially statistical learning of language, namely on how frequently words appear near one another, and they lack causal reasoning capabilities. The special issue cited at the beginning observes how surprising it is that this approach managed to create artificial systems that produce human-like expressions when prompted with any question, but the fact that we perceive them as intelligent is our own projection. See my first two articles on the subject from March 2023 and April 2023.
  3. For routine tasks, GenAI systems can outperform the average person, but because they fail to deliver expert-level performance reliably in real-world contexts, they have not managed to drive meaningful productivity gains at the enterprise level. We were misled when we saw successive versions of these systems pass professional qualification exams, but it later became clear that such performance was largely due to having “memorized” all available test materials in those fields rather than to any genuine understanding of their core concepts. In the words of Andrej Karpathy (inventor of the popular term vibe coding, which we will return to in a future article), these are "versatile but shallow and error-prone" tools capable of helping ordinary people accomplish things they would otherwise need an expert for (such as getting the gist of a legal or medical document), but not easily integrated into a productive workflow.
  4. Certainly, the majority of people now use GenAI systems daily, both personally and professionally, but in most cases they do so free of charge, given that at least a dozen companies make them available. The upshot is that, after a cumulative $600 billion in investment between 2021 and 2025, there is still no viable business model — and this is prompting investors to rethink their positions. It is no coincidence that talk of a bubble began circulating in 2025, including from prominent industry figures such as Sundar Pichai, CEO of Alphabet (Google's parent company), in November of that year. Daron Acemoglu, 2024 Nobel laureate in Economics, analyzed the influence of the entire AI sector on the US economy through 2035 and concluded that only about 5% of tasks will be effectively performed by AI, and GDP will increase by only 1.1% to 1.8%. One capability still lacking is the ability, given a specific work situation, to reliably provide context-dependent information to solve emerging problems. Indeed, in January 2026, a Washington Post article reported that «economic data shows the technology largely has not replaced workers», and the Remote Labor Index analysis, conducted jointly by the Center for AI Safety and Scale AI, confirmed Acemoglu's predictions for now: on average, only 2.5% of jobs posted on a platform offering paid tasks to independent workers were successfully completed by leading GenAI systems. Additionally, also in January 2026, a survey by Apollo Global Management (one of the world's largest investment management firms) of CFOs (Chief Financial Officers) showed that the majority of them in 2025 «are seeing no impact from AI on labor productivity, decision-making speed, customer satisfaction or time spent on high value-added tasks».

None of this means GenAI tools are useless — far from it. They do augment our cognitive capabilities, provided we scrutinize their outputs carefully. They are extremely useful for carrying out routine tasks in areas we already master (so that we can correct any mistakes). A very recent example is their use as evaluators of the scientific rigor of theoretical computer science papers, which according to 81% of authors helped increase clarity and readability. They will certainly continue to improve, although to achieve major leaps in quality, it will be necessary to integrate them with systems based on a symbolic approach, and it is far from clear when this will happen.

There is still a long road ahead. What do you think?

--
The original version (in italian) has been published by "StartMAG" on 16 February 2026.

Quattro motivi per ridimensionare le aspettative sull'Intelligenza Artificiale generativa

di Enrico Nardelli

(english version here)

«L'intelligenza artificiale (IA) riprodurrà l'intelligenza umana. L'IA sconfiggerà le malattie. L'IA è la più grande e più importante invenzione nella storia dell'umanità. Lo avete sentito ripetere mille volte – ma probabilmente nulla di tutto ciò è vero».

Inizia così il numero speciale intitolato Hype Correction, con sottotitolo It’s time to reset expectations, pubblicato a dicembre 2025 dalla Rivista di Tecnologia del Massachussets Institute of Technology (MIT), una delle fonti più attendibili della ricerca scientifica e tecnologica degli Stati Uniti e del mondo.

Avevo anticipato ad aprile 2025 che la situazione si stava evolvendo in tal modo, consistente con quest’analisi di una pubblicazione così autorevole.

Ricordate certamente come il lancio di ChatGPT-3.5 (Generative Pre-trained Transformer) alla fine del 2022 abbia catalizzato l’attenzione generale, spingendo in tutto il mondo sia soggetti privati che pubblici a investire pesantemente nella tecnologia degli LLM (Large Language Model = modelli linguistici di grandi dimensioni) che è alla base dei sistemi di Intelligenza Artificiale generativa (IAgen). Molti pensavano che fosse la strada per arrivare a un’intelligenza artificiale di natura generale (AGI = Artificial General Intelligence), simile a quella dell’uomo e ancora più potente, più versatile e infaticabile, che ci avrebbe liberato dal lavoro e trovato la soluzione a tutti i problemi. Però, dopo tre anni di continue promesse, il lancio di ChatGPT-5, avvenuto ad agosto 2025 e percepito come un semplice miglioramento incrementale e non certo rivoluzionario, aveva iniziato a rendere evidente l’esagerazione che c’era in tale visione.

A ottobre 2025 avevo indicato i primi segnali che mostravano la correzione di rotta in atto.

Sintetizzando adesso ciò che è emerso da diversi rapporti e studi realizzati nel 2025, vi sono quattro importanti elementi che spiegano il perché della situazione attuale.

  1. I sistemi basati sui LLM non sono la strada per arrivare all’AGI. Questo è stato dichiarato, tra gli altri, da Yann LeCun, che è stato fino a novembre 2025 il capo scienziato di Meta, da lui abbandonata proprio perché in disaccordo sull’insistere con gli LLM. Ilya Sutskever, già scienziato capo e co-fondatore di OpenAI (la società che ha realizzato ChatGPT) ha osservato che le capacità degli LLM di generalizzare (cioè di estrarre princìpi generali) e quindi applicare a situazioni diverse quanto appreso durante il loro addestramento sono molto più limitate di quelle degli esseri umani. A gennaio 2026 la rivista The Atlantic (una delle riviste più antiche e prestigiose degli USA) ha pubblicato un articolo che dichiara «I modelli linguistici di grandi dimensioni non “apprendono” – copiano», basandosi su un lavoro svolto da ricercatori di Stanford e Yale, che sono riusciti a far produrre a quattro tra i più usati sistemi di IAgen quasi l’intero testo o porzioni vastissime di molti libri. Una rassegna scientifica svolta da ricercatori di Caltech e Stanford, pubblicata a gennaio 2026, ha evidenziato come anche i più recenti modelli, perfino quelli presentati come “capaci di ragionamento” abbiano in realtà grossi problemi nel ragionare in modo corretto.
  2. I sistemi di IAgen tendono ancora ad essere soggetti ad allucinazioni (cioè, inventare cose che non esistono) in una misura valutata tra il 15% e il 25%, ovvero un livello inaccettabile nella maggior parte delle azioni e interazioni importanti sia nella vita privata che produttiva, soprattutto perché tali sistemi non sono in grado di auto-correggersi con l’esperienza, diversamente da una persona. Qualunque normale lavoratore può sbagliare all’inizio, ma poi, normalmente, impara e migliora. Questo non accade e non può accadere con i sistemi di IAgen, proprio in ragione del fatto che sono basati su un apprendimento essenzialmente di natura statistica del linguaggio, cioè relativo alla frequenza con cui le parole appaiono più o meno vicine e non hanno capacità di ragionamento causale. Il numero speciale citato in apertura osserva come sia sorprendente che quest’approccio sia riuscito a realizzare sistemi artificiali che producono espressioni simili a quelle degli esseri umani quando stimolate con una qualunque domanda, ma il fatto che li percepiamo come intelligenti è una nostra proiezione. Si vedano in proposito i miei primi due articoli sul tema a marzo 2023 e ad aprile 2023.
  3. Per compiti normali i sistemi di IAgen possono essere più efficaci della persona media, ma poiché non raggiungono prestazioni da esperti in modo affidabile in contesti reali non riescono ad essere davvero efficaci per aumentare la produttività a livello aziendale. Su questo ci siamo illusi quando abbiamo visto che le successive versioni di tali sistemi erano in grado di superare gli esami per accedere a professioni complicate, ma poi si è capito che queste prestazioni erano dovute semplicemente all’aver “memorizzato” tutti i test disponibili per le relative discipline, più che a una reale comprensione dei loro concetti fondamentali. Nelle parole di Andrea Karpathy (inventore del popolarissimo termine vibe coding, su cui ritorneremo in un prossimo articolo) si tratta di strumenti «versatili ma di scarsa profondità e soggetti a errori», che quindi possono mettere la persona media in grado di fare cose per le quali sarebbe altrimenti costretta a ricorrere a un esperto (ad esempio, capire il significato di massima di un documento legale o medico), ma che non possono essere così facilmente integrati in un contesto produttivo.
  4. Certamente la maggioranza delle persone usa ormai quotidianamente i sistemi di IAgen, sia a livello personale che professionale, ma nella maggior parte dei casi lo fa gratuitamente, dal momento che ci sono almeno una decina di aziende diverse che li rendono disponibili. Il risultato è che, dopo 600 miliardi di dollari complessivamente investiti dal 2021 al 2025, non c’è ancora un modello di business e questo sta facendo riconsiderare agli investitori le loro scelte. Non a caso, nel 2025 si è cominciato a parlare di bolla, anche da parte di autorevoli leader del settore, come Sundar Pichai, il CEO di Alphabet (la casa madre di Google) a novembre di quell’anno. Daron Acemoglou, premio Nobel per l’economia nel 2024, ha analizzato l’influenza di tutto il settore dell’IA sull’economia USA fino al 2035 e ha concluso che solo circa il 5% dei compiti verrà eseguito in modo efficace dall’IA e il PIL aumenterà solo di un valore compreso tra 1,1 e 1,8%. Una caratteristica che ancora manca è la capacità, data una specifica situazione lavorativa, di fornire in modo affidabile informazioni dipendenti dal contesto per risolvere determinati problemi che sono sorti. Proprio a gennaio 2026, un articolo del Washington Post ha riportato che «i dati economici dimostrano che la tecnologia in gran parte non ha sostituito i lavoratori» e l’analisi Remote Labor Index, svolta congiuntamente dal Center for AI Safety e da Scale AI, ha confermato per il momento le previsioni di Acemoglou: infatti mediamente solo il 2,5% dei lavori proposti su una piattaforma che offre a lavoratori in proprio compiti a pagamento è stato completato con successo dai migliori sistemi di IAgen. In aggiunta, sempre a gennaio 2026, un’indagine della società Apollo Global Management (una delle più grandi al mondo nella gestione di investimenti) sui CFO (Chief Financial Officer = Direttore Finanziario), ha mostrato che la maggioranza di loro nel 2025 «non ha visto alcun impatto sulla produttività del lavoro, velocità nel prendere decisioni, soddisfazione della clientela, tempo speso su compiti ad alto valore aggiunto».

Tutto questo non vuol dire che gli strumenti di IAgen siano inutili, tutt’altro. Potenziano le nostre capacità in ambito cognitivo, purché scrutiniamo con attenzione ciò che producono. Sono utilissimi per svolgere compiti di routine in settori che padroneggiamo (così da poter correggere gli eventuali errori): un recentissimo esempio è l’impiego come valutatori del rigore scientifico di articoli di informatica teorica, che secondo l’81% degli autori ha contribuito ad aumentare chiarezza e leggibilità. Certamente continueranno a migliorare, anche se per avere salti di qualità importanti sarà necessario integrarli con sistemi basati su un approccio simbolico e non è per niente chiaro quando questo accadrà.

La strada quindi è ancora lunga. Voi che ne pensate?

--
Versione originale pubblicata su "StartMAG" il 16 febbraio 2026.

venerdì 6 febbraio 2026

Informatics as a scientific discipline officially enters Italian schools: now the real challenge begins

by Enrico Nardelli

(versione italiana qua)

A historic step has been taken for the Italian school system. With the publication in the Official Gazette of January 27, 2026 of the new National Guidelines, informatics officially enters primary and lower secondary schools as a subject of study. This is no longer a matter of basic digital literacy or learning to use a computer – it marks the introduction of computer science as a fully-fledged scientific discipline.

This reform represents a highly significant milestone in a journey that began twenty years ago with the conference Informatics: Culture and Society. Informatics is being integrated into the curriculum through two complementary channels: the more abstract and conceptual aspects have been woven into Mathematics, while the more concrete and applied elements find their place within Technology. Although this solution does not establish informatics as a standalone subject—which would have required a more complex legislative process—it now provides the legal framework needed to offer students a comprehensive education in the scientific principles underlying the digital world.

The shift in perspective is a radical one. As the official documents make clear, the goal is not to produce passive users of technology, but informed citizens capable of critically understanding how the computing systems that permeate every aspect of contemporary society actually work. The reform aims to develop fundamental skills in young people, not just to use digital technology, but to understand, evaluate, and, when necessary, create it.

This turning point aligns with broader European Union (EU) directives. In November 2023, the Council of the EU published Recommendation C/2024/1030, calling on member states to improve the provision of digital skills training. With this reform, Italy aligns itself with countries such as the United Kingdom, which introduced compulsory computing education as early as 2014, and responds to the strategic need to close the skills gap in an era shaped by artificial intelligence (AI).

The rise of generative AI itself raises new questions. Some might wonder whether, in a world where systems capable of writing software autonomously are already available, teaching this subject still makes sense. The experts' answer is unequivocal: even in the most advanced scenarios, AI tools will only be able to support — not replace — the people involved in developing and managing software systems. Strategic direction, understanding context and objectives, and the ability to adapt systems to changing needs will remain human tasks. These require that symbolic and abstract understanding of the world that only humans possess, and the conceptual and technical ability to develop complex digital systems that only the study of informatics can provide. We will return to this issue in a future article.

The risk, however, is that a lack of public understanding of these dynamics could lead policymakers to withdraw their support for computer science education at the very moment when this competency is becoming most critical. For this reason, cross-party support for this reform is essential to ensure the continuity of a project that will take at least a decade to fully bear fruit.

The new National Guidelines also address the ethical and social challenges associated with technology. The text explicitly stresses the need for students to acquire «an understanding of how systems based on digital technologies function, together with an awareness of their possibilities and limitations, so as to grasp the enormous opportunities for improvement and development they offer society while preventing them from becoming instruments of exclusion or oppression». It reaffirms the fundamental principle that «human beings must maintain control over decisions based on computer systems that can have a significant impact on people».

The real challenge now lies in teacher training. Unlike other disciplines, informatics is not part of the cultural background of most Italian teachers, who studied it neither in school nor at university. The British experience is instructive: after introducing compulsory computing education in 2014, the United Kingdom had to acknowledge in 2017 that much of the curriculum guidance remained unimplemented due to a shortage of adequately trained teachers. The response was the creation, in 2019, of the National Centre for Computing Education, funded with £82 million and continuously refinanced to this day, despite cuts to public spending.

Italy has had access to funds under the National Recovery and Resilience Plan (PNRR), but organizational and time constraints prevented their use in establishing an efficient system for training teachers in informatics education. Strong political will is therefore needed to ensure that this reform does not remain a dead letter. The academic informatics community, which has been bringing the foundations of the field into Italian schools for many years, is ready to contribute. We recall the numerous initiatives already in place, such as the Programma il Futuro project in collaboration with the Ministry of Education and Merit, and the structured research and training activities carried out by the National Laboratory "Informatics and School" of CINI (National Inter-University Consortium for Informatics).

The road will be long and not without obstacles, but the first, fundamental step has been taken. taly has finally recognized that, in an increasingly digital society, the knowledge of the scientific principles of computer science is neither a luxury nor a narrow technical specialization, but rather an essential component of every citizen’s education. Only in this way will it be possible to shape generations capable not only of using technology, but of understanding its implications, assessing its consequences, and maintaining democratic control over systems that profoundly shape our lives.

--
The original version (in italian) has been published by "StartMAG" on 3 February 2026.

L'informatica come disciplina scientifica entra nella scuola: adesso inizia la vera sfida

di Enrico Nardelli

(english version here)

È stato compiuto un passo storico per il sistema scolastico italiano. Con la pubblicazione sulla Gazzetta Ufficiale del 27 gennaio 2026 delle nuove Indicazioni Nazionali, l'informatica fa il suo ingresso ufficiale come materia di studio nella scuola primaria e secondaria di primo grado. Non si tratta più di semplice alfabetizzazione digitale o di imparare a usare il computer, ma dell'introduzione dell'informatica come vera e propria disciplina scientifica.

Questa riforma rappresenta un risultato assai significativo di un percorso intrapreso venti anni fa, con il convegno Informatica: Cultura e Società. L'informatica viene inserita nel curriculum attraverso due canali complementari: gli aspetti più astratti e concettuali sono stati integrati nell'insegnamento della Matematica, mentre quelli più concreti e applicativi trovano spazio nella Tecnologia. Tale soluzione, anche se non introduce l'informatica come materia autonoma – che avrebbe richiesto un iter normativo più complesso – costituisce adesso il quadro legislativo di riferimento per poter fornire agli studenti una formazione completa sui principi scientifici alla base del mondo digitale.

Il cambiamento di prospettiva è radicale. Come evidenziato nei documenti ufficiali, l'obiettivo non è formare utilizzatori passivi di tecnologia, ma cittadini consapevoli, capaci di comprendere criticamente il funzionamento dei sistemi informatici che permeano ogni aspetto della società contemporanea. La riforma si propone di sviluppare nei giovani competenze fondamentali non solo per usare la tecnologia digitale, ma per comprenderla, valutarla e, quando necessario, crearla.

Questa svolta si inserisce nel contesto più ampio delle indicazioni dell'Unione Europea (UE). Nel novembre 2023, il Consiglio dell'UE ha pubblicato la Raccomandazione C/2024/1030 che invita gli Stati membri a migliorare l'offerta formativa in materia di competenze digitali. L'Italia, con questa riforma, si allinea a paesi come il Regno Unito, che già dal 2014 ha introdotto l'insegnamento obbligatorio dell'informatica, e risponde all'esigenza strategica di colmare il divario di competenze in un'epoca dominata dall'intelligenza artificiale (IA).

Proprio l'avvento dell'IA generativa pone nuove questioni. Alcuni potrebbero chiedersi se, in uno scenario in cui sono già disponibili sistemi in grado di scrivere autonomamente programmi informatici, avrà ancora senso insegnare questa materia. La risposta degli esperti è chiara: anche negli scenari più avanzati, gli strumenti di IA potranno solo supportare, non sostituire, le persone coinvolte nello sviluppo e nella gestione dei sistemi software. La direzione strategica, la comprensione del contesto e degli obiettivi, la capacità di adattare i sistemi alle mutevoli esigenze rimarranno compiti umani, che richiedono proprio quella comprensione simbolica e astratta del mondo che solo le persone hanno e quella capacità concettuale e tecnica di sviluppare sistemi digitali complessi che solo lo studio dell'informatica può fornire. Riprenderemo questo tema in un successivo articolo.

Il rischio, tuttavia, è che la scarsa comprensione di queste dinamiche da parte del grande pubblico possa portare i decisori politici a ritirare il sostegno all'insegnamento dell'informatica, proprio nel momento in cui questa competenza diventa sempre più cruciale. Per questo, il supporto bipartisan a questa riforma è fondamentale per garantire la continuità di un progetto che richiederà almeno un decennio per andare a regime.

Le nuove Indicazioni Nazionali affrontano anche le criticità etiche e sociali legate alla tecnologia. Il testo sottolinea esplicitamente la necessità che gli studenti acquisiscano "la comprensione del funzionamento dei sistemi basati sulle tecnologie informatiche contestualmente a quella delle loro possibilità e dei loro limiti, così da cogliere le enormi possibilità di miglioramento e sviluppo offerte alla società evitando che diventino strumento di esclusione o di oppressione". Viene ribadito il principio fondamentale che "siano gli esseri umani a mantenere il controllo sulle decisioni basate su sistemi informatici che possono avere un impatto significativo sulle persone".

La vera sfida, ora, è quella della formazione degli insegnanti. A differenza di altre discipline, l'informatica non fa parte del bagaglio culturale della maggior parte dei docenti italiani, che non l'hanno studiata né a scuola né all'università. L'esperienza britannica è illuminante: dopo aver introdotto l'insegnamento obbligatorio dell'informatica nel 2014, il Regno Unito ha dovuto constatare nel 2017 che le indicazioni curricolari rimanevano in gran parte inattuate per mancanza di insegnanti preparati. La risposta è stata la creazione, nel 2019, del National Centre for Computing Education, finanziato con 82 milioni di sterline e costantemente rifinanziato fino ad oggi, nonostante i tagli alla spesa pubblica.

L'Italia ha avuto accesso ai fondi del PNRR, ma i vincoli organizzativi e temporali hanno impedito di utilizzarli per creare un meccanismo efficiente per la formazione dei docenti all’insegnamento dell’informatica. Servirà quindi una forte volontà politica per garantire che questa riforma non rimanga lettera morta. La comunità accademica degli informatici, che da moltissimi anni porta le basi dell'informatica nelle scuole italiane, è pronta a contribuire: ricordiamo le numerose iniziative già in atto, quali ad esempio il progetto Programma il Futuro in collaborazione col Ministero dell’Istruzione e del Merito, e l’attività a livello di studio, ricerca e formazione esplicata in modo strutturato e organico attraverso il Laboratorio Nazionale “Informatica e Scuola” del CINI (Consorzio Interuniversitario Nazionale per l’Informatica).

Il percorso sarà lungo e non privo di ostacoli, ma il primo, fondamentale passo è stato compiuto. L'Italia ha finalmente riconosciuto che, in una società sempre più digitale, la conoscenza dei principi scientifici dell'informatica non è un lusso né una specializzazione tecnica, ma una componente essenziale della formazione di ogni cittadino. Solo così sarà possibile formare generazioni capaci non solo di utilizzare la tecnologia, ma di comprenderne le implicazioni, valutarne le conseguenze e mantenere il controllo democratico su sistemi che influenzano profondamente le nostre vite.

--
Versione originale pubblicata su "StartMAG" il 3 febbraio 2026.

mercoledì 19 novembre 2025

Informatics in schools: we’re there ... almost.

by Enrico Nardelli

(versione italiana qua)

The Council of State has just issued a favorable opinion on the New National Guidelines for early childhood education and the first cycle of schooling (i.e., primary and lower secondary school), in the version published by the Ministry of Education and Merit on July 7th. In September, the Council of State had requested clarifications—interpreted by some as a rejection, and by others as politically motivated obstruction. As I wrote when the initial draft was released in March 2025, which was then followed by a broad and in-depth consultation with social partners, the New National Guidelines represent a revision of the document originally issued in 2012 by the Ministry of Education, Universities and Research (Ministerial Decree 254 of November 16, 2012). That 2012 document establishes the common reference framework for educational provision, which each school then uses to define its own specific curriculum.

This is therefore a moment of real satisfaction for those who, like myself – with the support of outstanding colleagues, both Italian ones at the CINI National Laboratory "Informatics and Schools" and European ones within the international coalition Informatics for All – have been working for over a decade toward this goal. We are grateful to the Minister and the Administration for making it possible.

Why, then, the "almost" in the title? Because, as our British colleague Simon Peyton Jones – the architect of the introduction of computing education in the English school system – explained at the conference Teaching Informatics in Schools, held on October 19, 2023 at the Accademia dei Lincei, without a well-prepared teaching workforce in informatics, introducing the subject into the school curriculum risks even being counterproductive.

In fact, unlike any other subject taught in school – with the exception of the small number of teachers in a handful of specialized upper secondary tracks—none of the current teaching staff have ever studied informatics during their educational or university career. There is therefore no broadly shared cultural foundation to build on for professional development, as is the case, for example, with mathematics, which is taught in primary school by teachers who, although not specifically trained as mathematicians, have nonetheless studied the subject throughout their thirteen years of schooling.

With this in mind, as part of the Programma il Futuro project — which has been informally spreading the fundamentals of informatics across almost all Italian schools for 11 years — we will be hosting a webinar, led by our talented colleague Violetta Lonati, focused specifically on the curricular changes introduced by the inclusion of informatics in the New National Guidelines.

Looking ahead, I believe that the experience of the United Kingdom, as described by Peyton-Jones, points to the right path. After introducing compulsory computing education in 2014, it became clear that the curricular guidelines largely remained on paper due to the lack of adequately trained teachers. Consequently, in November 2018, the British government allocated £82 million over four years to fund an institute for teacher training in informatics education. This led to the 2019 establishment of the National Center for Computing Education, which developed teaching materials and training courses for teachers at all school levels and has been consistently re-funded ever since, most recently in 2025, despite public spending cuts.

This will therefore not be an easy task, and it will require strong political will, hopefully bipartisan, in the country’s strategic interest, since it is a process that will take at least a decade to become fully operational.

I am confident that such will can be found.

That said, while I understand the cautionary remarks expressed in the Council of State's opinion regarding the rationale for including informatics to address the challenges of digital transition: "the proposed approach could lead to an implicit and uncritical acceptance of the phenomenon as inevitable in its current form" (p. 27) and "the significant challenges arising from these transitions and their contested social and economic sustainability" (p. 28), I would like to offer some reassurance that this is not what is being proposed.

Having participated in the drafting of the New Guidelines as a member of the sub-commission responsible for integrated mathematical-scientific-technological education, I note that the text of the document is very clear on these aspects. With regard to the teaching of informatics in primary school, it states: "The acquisition of foundational elements of informatics enables pupils to begin developing, through exploration and experimentation, the cultural perspective this discipline offers, complementary to all others. In addition, it promotes a safe and responsible use of digital technologies" (p. 66 – my translation). The document further adds that in lower secondary school "... students move from a purely operational skill to a more critical and reflective understanding of the implications of technological choices and ... reflection skills on the social impact of information technologies are developed" (p.66 – my translation), clarifying that "Informatics provides an additional way to enrich the description of natural and artificial phenomena with a different perspective" (p.67 – my translation).

It is therefore clear that informatics education is grounded, from the outset, in the fundamental cultural dimensions of the discipline, precisely with a view to equipping students with a broad understanding of the complex social dynamics of contemporary life, and that the social criticality of digital technology use is explicitly emphasized. And that’s not all.

Since informatics appears in the New Guidelines partly as a more conceptual component embedded within Mathematics and partly as a more technological component within Technology, the description of the latter discipline clearly enunciates the critical issues to watch out for. Quoting verbatim from p.81 (my translation): «It is essential that pupils and students understand how systems based on digital technologies function, alongside their possibilities and limitations, so that they can grasp the enormous opportunities for improvement and development they offer to society while preventing them from becoming tools of exclusion or oppression. The teaching of informatics will therefore take into account interactions with civic education goals, emphasizing the importance of interacting with others respectfully, especially when using digital platforms. Students must learn how to identify and report problems in online social interactions, develop an understanding of the value of data – both at a personal and a broader level – and how the collection and processing of large amounts of data affects society. And it remains a guiding principle in the first cycle of education that human beings must retain control over decisions based on computer systems that may have a significant impact on people».

In short, the path is clearly marked: the person remains at the center of everything.

--
The original version (in italian) has been published by "StartMAG" on 16 November 2025.

Informatica a scuola: ci siamo ... quasi

di Enrico Nardelli

(english version here)

È stato appena emesso dal Consiglio di Stato il parere favorevole alle Nuove Indicazioni Nazionali per la scuola dell’infanzia e per il primo ciclo d’istruzione (cioè, primaria e secondaria di primo grado) nella versione pubblicata dal Ministero dell’Istruzione e del Merito il 7 luglio scorso. A settembre il Consiglio di Stato aveva formulato una richiesta di chiarimenti, che taluni avevano interpretato come bocciatura, mentre altri avevano letto come ostruzionismo in chiave politica. Come avevo scritto in occasione del rilascio della bozza iniziale a marzo 2025, sulla quale era stata poi avviata una larga ed approfondita consultazione con le parti sociali, le Nuove Indicazioni Nazionali sono una revisione di quel documento, originariamente rilasciato nel 2012 dal Ministero dell’Istruzione, dell’Università e della Ricerca con il DM 254 del 16/nov/2012, che stabilisce il quadro di riferimento comune per l’offerta educativa, che ogni scuola utilizza poi per definire il proprio specifico curricolo.

È quindi un momento di soddisfazione per chi, come me, con il supporto di validissimi colleghi, sia italiani nel Laboratorio Nazionale CINI “Informatica e Scuola” che europei nella coalizione internazionale Informatics for All, agisce ormai da più di dieci anni per raggiungere questo obiettivo, per il quale siamo grati al Ministro e all’Amministrazione.

Perché, quindi, il “quasi” nel titolo? Perché, come ci ha raccontato il collega inglese Simon Peyton-Jones, che ha curato l’introduzione dell’insegnamento dell’informatica nel sistema scolastico inglese, durante il convegno L’insegnamento dell’Informatica nella scuola, che si è svolto il 19 ottobre 2023 all’Accademia dei Lincei, senza una classe docente ben preparata sull’insegnamento dell’informatica, l’introduzione della disciplina nel curricolo scolastico rischia di essere addirittura controproducente.

Infatti, diversamente da quanto accade per ogni altra materia insegnata nella scuola, tranne il ristretto numero di docenti che insegna informatica in pochissimi indirizzi della scuola secondaria superiore, nessuno degli insegnanti ha mai studiato informatica nel corso della sua carriera, né scolastica né universitaria. Non vi è quindi un substrato culturale largamente diffuso su cui far leva per la formazione professionale come avviene, ad esempio, per la matematica, insegnata nella scuola primaria da docenti che, pur non avendo una specifica preparazione professionale sulla disciplina, l’hanno comunque studiata per tutti i 13 anni del loro percorso scolastico.

Proprio in quest’ottica, nell’ambito del progetto Programma il Futuro, che in modo informale diffonde ormai da 11 anni le basi dell’informatica in quasi tutte le scuole italiane, dedicheremo un webinar – tenuto dalla valente collega Violetta Lonati – proprio sulle novità curriculari introdotte dall’inserimento dell’informatica nelle Nuove Indicazioni Nazionali.

In prospettiva, ritengo che l’esperienza del Regno Unito, che ci ha illustrato Peyton-Jones, indichi una strada maestra. Infatti, dopo aver introdotto nel 2014 la formazione obbligatoria nell’informatica, ha dovuto constatare che le indicazioni curricolari rimanevano in gran parte lettera morta a causa dell’assenza di docenti adeguatamente preparati. Pertanto, il governo britannico ha stanziato nel novembre 2018 un fondo di 82 milioni di sterline per finanziare per 4 anni un istituto per la formazione dei docenti all’insegnamento dell’informatica nella scuola. È stato così istituito nel 2019 il National Center for Computing Education, che ha sviluppato materiali didattici e corsi di formazione per gli insegnanti per tutti i livelli di scuola, e che è stato successivamente sempre rifinanziato, l’ultima volta proprio nel 2025, nonostante i tagli alle spese nel settore pubblico.

Non sarà quindi un compito semplice e servirà una forte volontà politica, che auspico bipartisan nell’interesse strategico del Paese, dal momento che si tratta di un percorso che richiederà almeno una decina d’anni per andare a regime.

Confido che questa volontà potrà essere trovata.

D’altra parte, pur comprendendo le parole di cautela espresse nel parere del Consiglio di Stato a proposito della motivazione dell’inserimento dell’informatica per affrontare la complessità della transizione digitale: «l’impostazione proposta potrebbe indurre ad un’accettazione implicita ed acritica del fenomeno come inevitabile nella sua forma attuale» (p.27) e «le notevoli criticità che derivano dalle transizioni e della loro controversa sostenibilità sociale ed economica» (p.28), desidero rassicurare che non è questo il caso.

Avendo infatti partecipato alla stesura delle Nuove Indicazioni come componente della sotto-commissione responsabile per l’istruzione integrata matematico-scientifico-tecnologica, osservo che il testo del documento è molto chiaro su questi aspetti. Esso, infatti, a proposito dell’insegnamento dell’Informatica nella scuola primaria recita, testualmente «L’acquisizione dei primi elementi di informatica consente agli allievi di iniziare a sviluppare, attraverso l’esplorazione e la sperimentazione, la prospettiva culturale che questa disciplina offre, complementare rispetto alle altre. In aggiunta, favorisce un utilizzo sicuro e responsabile delle tecnologie informatiche» (p.66). Il documento poi aggiunge che nella scuola secondaria di primo grado «… gli alunni passano da un’abilità meramente operativa a una visione più critica e riflessiva in merito alle implicazioni delle scelte tecnologiche e … vengono sviluppate le capacità di riflessione sull’impatto sociale delle tecnologie informatiche» (p.66) e chiarisce che «L’informatica fornisce un’ulteriore modalità per arricchire la descrizione di fenomeni naturali e artificiali con una diversa prospettiva» (p.67).

È quindi evidente come l’istruzione sull’informatica sia radicata, sin dal principio, sugli aspetti culturali fondamentali della disciplina, proprio nell’ottica di una formazione complessiva dello studente alla comprensione delle complesse dinamiche sociali contemporanee, e come venga chiaramente sottolineata la criticità sociale dell’utilizzo delle tecnologie digitali.

E non è tutto.

Dal momento che l’informatica è presente nelle Nuove Indicazioni con una parte più concettuale calata nella Matematica ed una parte più tecnologica inserita nella Tecnologia, nella descrizione di quest’ultima disciplina sono chiarissimamente enunciate le criticità cui fare attenzione. Cito verbalmente da p.81: «È necessario che alunni e studenti acquisiscano la comprensione del funzionamento dei sistemi basati sulle tecnologie informatiche contestualmente a quella delle loro possibilità e dei loro limiti, così da cogliere le enormi possibilità di miglioramento e sviluppo offerte alla società evitando che diventino strumento di esclusione o di oppressione. Nell’insegnamento dell’informatica si terrà quindi conto delle interazioni con gli obiettivi dell’educazione civica sottolineando l'importanza di interagire con gli altri in modo rispettoso, soprattutto quando si utilizzano le piattaforme digitali. È necessario sapere come identificare e segnalare problemi nelle interazioni sociali che avvengono sulle piattaforme, sviluppare la comprensione del valore dei dati, sia dal punto di vista personale che generale, e di come la raccolta e l'elaborazione di grandi quantità di dati influisca sulla società. E resta dirimente, nella formazione del primo ciclo, il principio fondamentale che siano gli esseri umani a mantenere il controllo sulle decisioni basate su sistemi informatici che possono avere un impatto significativo sulle persone».

Insomma, la strada è indicata chiaramente: la persona rimane al centro di tutto.

--
Versione originale pubblicata su "StartMAG" il 16 novembre 2025.

giovedì 16 ottobre 2025

The slop of generative AI

by Enrico Nardelli

(versione italiana qua)

I am writing this article prompted by a very recent post by my excellent colleague Walter Quattrociocchi. It is – to be honest – yet another in a long series where he explains on social media the dangers posed by generative artificial intelligence tools (GenAI, hereafter) for those who lack a solid understanding of the subject they are asking about. In his post, Walter recalls two recent episodes of sloppiness resulting from the use of these tools.

The first involves a print newspaper article published including the text of that standard closing question GenAI tools offer at the end of their response, asking whether the user would like to expand or adjust the text for a different publication context (e.g., a popular science piece rather than an academic one).

The second is that a well-known international consulting firm included fabricated citations in a—highly paid—government report and was, consequently, forced to partially refund its fee.

Neither example is new: the inclusion of AI-hallucinated cases in legal briefs has been happening in the United States for at least a couple of years, and forgetting to remove boilerplate phrases generated by GenAI in scientific articles has also been happening with some regularity for quite some time.

What Walter rightly observes—and I completely agree with—is that the issue is now systemic, widespread across all sectors and at every level. In his words: "We have delegated judgment to a statistical language engine, mistaking textual coherence for factual truth. This is the heart of the epistemic problem: the confusion between linguistic consistency and epistemic truth." A point that resonates with what I wrote in April 2023, warning that the main danger of GenAI tools is that «They have no real understanding of the meaning of what they are producing, but (and this is a major problem on the social level) since they express themselves in a form that is meaningful to us, we project onto their outputs the meaning that is within us», and recalling, two years later, that «showing competence with the words that describe the world is not the same as having competence about the world itself».

Two recent studies offer further evidence of how GenAI tools fall short of their potential and why, therefore, great caution is needed instead of the uncritical praise hailing them as something everyone must absolutely know how to use.

The first is the State of AI in Business 2025 report by MIT, which aptly speaks of a “GenAI Divide”, the gulf between the high rates of corporate adoption of these tools and the low return on investment observed so far. According to the report, 95% of companies are seeing no return on their investment, despite widespread use of the tools themselves. At the individual level, there is an increase in productivity, but this is not translating into corporate profitability.

The causes of these failures are a lack of robustness in supporting work processes, a failure to learn context, and a misalignment with daily operations. The judgment on scalability is particularly interesting: «the core barrier to scaling is not infrastructure, regulation, or talent. It is learning. Most GenAI systems do not retain feedback, adapt to context, or improve over time». I had already addressed this difficulty three years ago in my book La rivoluzione informatica (published just as the first such systems were gaining traction). Writing more generally of "cognitive machines" (the term I use for all computing systems), I noted that they "lack both the flexibility and adaptability to change their mode of operation as contextual conditions shift." It is gratifying to see one's own assessments hold up over time.

The 5% of companies that are succeeding are doing so by asking vendors to tailor these tools to the specific needs of their workflows and their own proprietary data (as I have always advised those who have privately asked me how to use GenAI within their companies). They are also evaluating effectiveness not based on generic benchmarks (like passing standardized exams in various disciplines) but by considering the actual output produced.

A subsequent study by a team of researchers from Stanford and BetterUp Labs further investigated this situation. Specifically, 1,150 US workers from various sectors were interviewed to understand how GenAI output is used at work. It emerged that while some use these tools to refine work they have already produced, many use them to churn out low-quality output that then has to be corrected by someone else downstream. The term "workslop" is gaining currency – where "slop" is an informal word for watery, unappetising food – to describe AI-generated content that looks passable on the surface but lacks the substance needed to move a task forward effectively. More formally, we might call it "shoddy work," and the result is that corporate productivity suffers.

In this study, 40% of the workers interviewed revealed they had received "slop" in the last month that was practically unusable. While the phenomenon primarily concerns peer-to-peer interactions, in 18% of cases it also occurs hierarchically, in both directions. The most serious long-term impact is on trust between colleagues, which is eroded whenever someone receives shoddy work. As with all previous technological waves, what is needed first and foremost is a clear identification of the strategy through which these tools can improve work processes, followed by the selection of technology capable of supporting that strategy and appropriate workforce training. In short, GenAI does have potential; it all depends on how it is used.

The Roman orator Marcus Porcius Cato, known as Cato the Censor, is credited with the saying «rem tene, verba sequentur», i.e., master the subject matter, and the words will follow, an admonition about the importance of thoroughly mastering a topic to be able to argue its cause effectively. Similarly, we could say in this case: "rem tene, mens mechanica te sustinebit," where "mens mechanica" refers to what I call "mechanical intelligence" rather than the more common "artificial intelligence".

Only if you know your subject well will GenAI be able to enrich and enhance what you do. This is why I believe the foundations of any area of knowledge must still be acquired, as they always have been, by “the sweat of one's brow”. Only then will we be able to use GenAI tools in the best way possible.

--
The original version (in italian) has been published by "StartMAG" on 12 october 2025.

mercoledì 15 ottobre 2025

La “sbobba” dell’IA generativa

di Enrico Nardelli

(english version here)

Scrivo questo articolo mosso da un recentissimo post dell'eccellente collega Walter Quattrociocchi, l'ennesimo – a dire la verità – in cui spiega, come fa da molto tempo sui social, la pericolosità, per chi non conosce bene il tema su cui chiede spiegazioni, degli strumenti di intelligenza artificiale generativa (IAGen, nel seguito). Nel post Walter ricorda due recenti episodi di sciatteria derivanti dall'uso di questi strumenti. Il primo è un articolo di giornale cartaceo pubblicato includendo anche il testo della solita domanda finale che tutti gli strumenti di IAGen propongono al termine della loro risposta, se cioè l’utente voglia estendere o modificare quanto scritto in funzione di una diversa sede di pubblicazione (p.es., articolo divulgativo invece che scientifico). Il secondo è che una notissima casa di consulenza internazionale ha inserito in un rapporto governativo, tra l’altro molto ben pagato, citazioni inventate ed è stata, per questo, costretta a rimborsare parzialmente quanto ricevuto.

Nessuno dei due esempi è una novità: l’inserimento in memorie legali di casi inventati prodotti da IAGen è qualcosa che accade negli USA da almeno un paio di anni e il dimenticarsi, nel contesto di articoli scientifici, di togliere frasi di contorno prodotte dall’IAGen accade anche questo con una certa regolarità da un po’ di tempo.

Ciò che giustamente Walter osserva, e con cui sono completamente d’accordo, è che adesso il discorso è sistemico, diffuso in tutti i settori e a ogni livello. Queste le sue parole: «Abbiamo delegato il giudizio a un motore statistico del linguaggio, scambiando la coerenza di un testo per la verità di un contenuto. È questo il cuore dell’epistemia: la confusione tra consistenza linguistica e verità epistemica». Concetto che risuona con quanto avevo scritto nell’aprile 2023, avvertendo che il principale pericolo degli strumenti di IAGen è che essi «… non hanno alcuna reale comprensione del significato di ciò che stanno facendo, ma purtroppo (e questo è un problema di grande rilevanza sul piano sociale) poiché ciò che fanno lo esprimono in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi» e ricordando, due anni dopo, che «esibire competenza sulle parole che descrivono il mondo non equivale ad avere competenza sul mondo».

Ci sono due recenti ricerche che portano ulteriore evidenza di come gli strumenti di IAGen non riescano ad esprimere il loro potenziale e di come, quindi, sarebbe necessaria molta cautela invece che esaltarli acriticamente come qualcosa che tutti devono assolutamente saper usare.

La prima è il rapporto State of AI in Business 2025 del MIT che parla, appropriatamente, di “Divario dell’IAGen”, indicando quello che esiste tra gli alti tassi di adozione di questi strumenti nelle aziende e il basso ritorno sugli investimenti che è stato finora riscontrato. Secondo il rapporto, il 95% delle aziende sta ottenendo un ritorno nullo sugli investimenti, nonostante gli strumenti in sé siano largamente utilizzati. A livello del singolo individuo c’è un aumento di produttività, ma questo non trova riscontro nella redditività aziendale.

Le cause dei fallimenti sono la fragilità nel supportare i processi di lavoro, la mancanza di apprendimento del contesto e il disallineamento con l’operatività giornaliera. Interessante il giudizio sulla scalabilità: «la barriera principale non è costituita dall’infrastruttura, i regolamenti o il talento. È la capacità di apprendere. La maggior parte dei sistemi di IAGen non incorpora il feedback ricevuto, non si adatta al contesto, né migliora col tempo». Di questa difficoltà ne avevo parlato già tre anni fa nel mio libro La rivoluzione informatica (pubblicato proprio quando i primi sistemi si stavano diffondendo) in cui avevo scritto, parlando in generale di “macchine cognitive” (il termine che uso per indicare tutti i sistemi informatici), che queste «non hanno né flessibilità né adattabilità per cambiare il loro modo di operare al mutare delle condizioni di contesto». Fa piacere vedere le proprie valutazioni rimanere valide col passare del tempo.

Quel 5% di aziende che invece ha successo, lo sta ottenendo chiedendo ai fornitori di personalizzare questi strumenti sulle specifiche esigenze dei loro processi lavorativi e sui loro specifici dati (come ho sempre suggerito a chi privatamente mi ha chiesto come poter usare l’IAGen nella propria azienda) e valutandone l’efficacia non in base a generici indicatori di riferimento (tipo il superamento di esami standardizzati in varie discipline) ma considerando quanto effettivamente prodotto.

Una successiva ricerca di un team di ricercatori di Stanford e di BetterUp Labs ha investigato ulteriormente questa situazione. Nello specifico, 1.150 lavoratori USA di diversi settori sono stati intervistati per capire come viene utilizzato sul lavoro ciò che viene prodotto da IAGen. È emerso che mentre alcuni usano questi strumenti per raffinare ciò che hanno realizzato, molti li usano per produrre lavoro di bassa qualità che deve poi essere corretto da qualcun altro a valle. Si sta diffondendo il termine “workslop”, dove “slop” è un termine informale che vuol dire “brodaglia” o “sbobba”, per indicare contenuto generato dall’IA che sembra buono, ma manca della sostanza necessaria per proseguire efficacemente nello svolgimento di un compito. In modo più aulico possiamo tradurre “workslop” come “lavoro raffazzonato”, ed il suo risultato è che la produttività aziendale ne soffre.

In questa ricerca, il 40% dei lavoratori intervistati ha rivelato di aver ricevuto brodaglia nell’ultimo mese, praticamente inutilizzabile. Mentre il fenomeno riguarda soprattutto le interazioni tra pari, nel 18% dei casi si verifica anche gerarchicamente, in entrambi i versi. L’impatto più grave, sul lungo periodo, è quello sulle relazioni di fiducia tra colleghi, che vengono compromesse quando si riceve della sbobba. Anche in questo caso, come per tutte le precedenti ondate tecnologiche, è necessaria prima di tutto una chiara identificazione della strategia mediante la quale questi strumenti possono migliorare i processi lavorativi, seguita dalla scelta della tecnologia in grado di supportare questa strategia e da un’appropriata opera di formazione della forza-lavoro. Insomma, le potenzialità l’IAGen le ha, tutto dipende da come viene usata.

Al retore romano Marco Porcio Catone, detto il Censore, si attribuisce il detto «rem tene, verba sequentur» ovvero conosci bene il tuo argomento, e riuscirai a parlarne bene, per ammonire sull’importanza di padroneggiare a fondo un tema per poterne sostenere validamente la causa. Analogamente potremmo dire, in questo caso: «rem tene, mens mechanica te sustinebit», dove “mens mechanica” indica quella che io chiamo “intelligenza meccanica” invece del più usuale “intelligenza artificiale”.

Solo se si conosce bene ciò di cui si parla, l’IAGen sarà in grado di arricchire e potenziare ciò che uno fa. Per questo ritengo necessario che le basi di ogni conoscenza vadano acquisite, com’è sempre stato, col “sudore della fronte”. Solo così si sarà in grado di usare gli strumenti IAGen nel modo migliore possibile.

--
Versione originale pubblicata su "StartMAG" il 12 ottobre 2025.