Pagine

giovedì 19 febbraio 2026

Four reasons to scale back expectations for generative Artificial Intelligence

by Enrico Nardelli

(versione italiana qua)

«Artificial Intelligence (AI) is going to reproduce human intelligence. AI will eliminate disease. AI is the single biggest, most important invention in human history. You've likely heard it all—but probably none of these things are true».

This is the opening of a special issue titled Hype Correction, subtitled It's time to reset expectations, published in December 2025 by the Technology Review of the Massachusetts Institute of Technology (MIT), one of the most authoritative sources on scientific and technological research in the United States and worldwide.

I had anticipated back in April 2025 that things were heading in this direction, a trajectory now confirmed by the analysis of such a prestigious publication.

You certainly remember how the launch of ChatGPT-3.5 (Generative Pre-trained Transformer) at the end of 2022 captured the world's attention, prompting both private and public entities worldwide to invest heavily in the LLM (Large Language Model) technology that underpins Generative AI (GenAI) systems. Many believed this was the path toward achieving Artificial General Intelligence (AGI), an intelligence similar to human intelligence but even more powerful, versatile, and tireless, which would free us from labor and find solutions to all our problems. However, after three years of continuous promises, the launch of ChatGPT-5 in August 2025 – perceived as merely incremental rather than revolutionary – began to make the exaggeration behind that vision increasingly evident.

In October 2025, I pointed out the first signs of a course correction already underway.

Summarizing what has emerged from various reports and studies conducted in 2025, there are four key elements that explain the current state of affairs.

  1. LLM-based systems are not the path to AGI. This has been stated, among others, by Yann LeCun, who served as Meta’s chief scientist until November 2025 and left the company precisely because he disagreed with its continued insistence on LLMs. Ilya Sutskever, former Chief Scientist and co-founder of OpenAI (the company behind ChatGPT), has observed that LLMs' ability to generalize – that is, to extract general principles and apply lessons learned during training to new situations – is far more limited than that of human beings. In January 2026, The Atlantic (one of the oldest and most prestigious magazines in the US) published an article declaring "Large language models don't ‘learn’ – they copy," based on work by researchers from Stanford and Yale, who succeeded in getting four of the most widely used GenAI systems to reproduce nearly entire books or very large portions of them. A scientific review by researchers from Caltech and Stanford, published in January 2026, highlighted how even the most recent models, even those presented as "capable of reasoning," actually have significant problems reasoning correctly.
  2. GenAI systems remain prone to hallucinations (i.e., making things up) at a rate estimated between 15% and 25% — an unacceptable level for most consequential decisions and interactions, in both personal and professional life. This is especially troubling because, unlike a human being, these systems are incapable of self-correcting through experience. Any ordinary worker may make mistakes at first but usually learns and improves. This does not and cannot happen with GenAI systems, precisely because they are based on an essentially statistical learning of language, namely on how frequently words appear near one another, and they lack causal reasoning capabilities. The special issue cited at the beginning observes how surprising it is that this approach managed to create artificial systems that produce human-like expressions when prompted with any question, but the fact that we perceive them as intelligent is our own projection. See my first two articles on the subject from March 2023 and April 2023.
  3. For routine tasks, GenAI systems can outperform the average person, but because they fail to deliver expert-level performance reliably in real-world contexts, they have not managed to drive meaningful productivity gains at the enterprise level. We were misled when we saw successive versions of these systems pass professional qualification exams, but it later became clear that such performance was largely due to having “memorized” all available test materials in those fields rather than to any genuine understanding of their core concepts. In the words of Andrej Karpathy (inventor of the popular term vibe coding, which we will return to in a future article), these are "versatile but shallow and error-prone" tools capable of helping ordinary people accomplish things they would otherwise need an expert for (such as getting the gist of a legal or medical document), but not easily integrated into a productive workflow.
  4. Certainly, the majority of people now use GenAI systems daily, both personally and professionally, but in most cases they do so free of charge, given that at least a dozen companies make them available. The upshot is that, after a cumulative $600 billion in investment between 2021 and 2025, there is still no viable business model — and this is prompting investors to rethink their positions. It is no coincidence that talk of a bubble began circulating in 2025, including from prominent industry figures such as Sundar Pichai, CEO of Alphabet (Google's parent company), in November of that year. Daron Acemoglu, 2024 Nobel laureate in Economics, analyzed the influence of the entire AI sector on the US economy through 2035 and concluded that only about 5% of tasks will be effectively performed by AI, and GDP will increase by only 1.1% to 1.8%. One capability still lacking is the ability, given a specific work situation, to reliably provide context-dependent information to solve emerging problems. Indeed, in January 2026, a Washington Post article reported that «economic data shows the technology largely has not replaced workers», and the Remote Labor Index analysis, conducted jointly by the Center for AI Safety and Scale AI, confirmed Acemoglu's predictions for now: on average, only 2.5% of jobs posted on a platform offering paid tasks to independent workers were successfully completed by leading GenAI systems. Additionally, also in January 2026, a survey by Apollo Global Management (one of the world's largest investment management firms) of CFOs (Chief Financial Officers) showed that the majority of them in 2025 «are seeing no impact from AI on labor productivity, decision-making speed, customer satisfaction or time spent on high value-added tasks».

None of this means GenAI tools are useless — far from it. They do augment our cognitive capabilities, provided we scrutinize their outputs carefully. They are extremely useful for carrying out routine tasks in areas we already master (so that we can correct any mistakes). A very recent example is their use as evaluators of the scientific rigor of theoretical computer science papers, which according to 81% of authors helped increase clarity and readability. They will certainly continue to improve, although to achieve major leaps in quality, it will be necessary to integrate them with systems based on a symbolic approach, and it is far from clear when this will happen.

There is still a long road ahead. What do you think?

--
The original version (in italian) has been published by "StartMAG" on 16 February 2026.

Quattro motivi per ridimensionare le aspettative sull'Intelligenza Artificiale generativa

di Enrico Nardelli

(english version here)

«L'intelligenza artificiale (IA) riprodurrà l'intelligenza umana. L'IA sconfiggerà le malattie. L'IA è la più grande e più importante invenzione nella storia dell'umanità. Lo avete sentito ripetere mille volte – ma probabilmente nulla di tutto ciò è vero».

Inizia così il numero speciale intitolato Hype Correction, con sottotitolo It’s time to reset expectations, pubblicato a dicembre 2025 dalla Rivista di Tecnologia del Massachussets Institute of Technology (MIT), una delle fonti più attendibili della ricerca scientifica e tecnologica degli Stati Uniti e del mondo.

Avevo anticipato ad aprile 2025 che la situazione si stava evolvendo in tal modo, consistente con quest’analisi di una pubblicazione così autorevole.

Ricordate certamente come il lancio di ChatGPT-3.5 (Generative Pre-trained Transformer) alla fine del 2022 abbia catalizzato l’attenzione generale, spingendo in tutto il mondo sia soggetti privati che pubblici a investire pesantemente nella tecnologia degli LLM (Large Language Model = modelli linguistici di grandi dimensioni) che è alla base dei sistemi di Intelligenza Artificiale generativa (IAgen). Molti pensavano che fosse la strada per arrivare a un’intelligenza artificiale di natura generale (AGI = Artificial General Intelligence), simile a quella dell’uomo e ancora più potente, più versatile e infaticabile, che ci avrebbe liberato dal lavoro e trovato la soluzione a tutti i problemi. Però, dopo tre anni di continue promesse, il lancio di ChatGPT-5, avvenuto ad agosto 2025 e percepito come un semplice miglioramento incrementale e non certo rivoluzionario, aveva iniziato a rendere evidente l’esagerazione che c’era in tale visione.

A ottobre 2025 avevo indicato i primi segnali che mostravano la correzione di rotta in atto.

Sintetizzando adesso ciò che è emerso da diversi rapporti e studi realizzati nel 2025, vi sono quattro importanti elementi che spiegano il perché della situazione attuale.

  1. I sistemi basati sui LLM non sono la strada per arrivare all’AGI. Questo è stato dichiarato, tra gli altri, da Yann LeCun, che è stato fino a novembre 2025 il capo scienziato di Meta, da lui abbandonata proprio perché in disaccordo sull’insistere con gli LLM. Ilya Sutskever, già scienziato capo e co-fondatore di OpenAI (la società che ha realizzato ChatGPT) ha osservato che le capacità degli LLM di generalizzare (cioè di estrarre princìpi generali) e quindi applicare a situazioni diverse quanto appreso durante il loro addestramento sono molto più limitate di quelle degli esseri umani. A gennaio 2026 la rivista The Atlantic (una delle riviste più antiche e prestigiose degli USA) ha pubblicato un articolo che dichiara «I modelli linguistici di grandi dimensioni non “apprendono” – copiano», basandosi su un lavoro svolto da ricercatori di Stanford e Yale, che sono riusciti a far produrre a quattro tra i più usati sistemi di IAgen quasi l’intero testo o porzioni vastissime di molti libri. Una rassegna scientifica svolta da ricercatori di Caltech e Stanford, pubblicata a gennaio 2026, ha evidenziato come anche i più recenti modelli, perfino quelli presentati come “capaci di ragionamento” abbiano in realtà grossi problemi nel ragionare in modo corretto.
  2. I sistemi di IAgen tendono ancora ad essere soggetti ad allucinazioni (cioè, inventare cose che non esistono) in una misura valutata tra il 15% e il 25%, ovvero un livello inaccettabile nella maggior parte delle azioni e interazioni importanti sia nella vita privata che produttiva, soprattutto perché tali sistemi non sono in grado di auto-correggersi con l’esperienza, diversamente da una persona. Qualunque normale lavoratore può sbagliare all’inizio, ma poi, normalmente, impara e migliora. Questo non accade e non può accadere con i sistemi di IAgen, proprio in ragione del fatto che sono basati su un apprendimento essenzialmente di natura statistica del linguaggio, cioè relativo alla frequenza con cui le parole appaiono più o meno vicine e non hanno capacità di ragionamento causale. Il numero speciale citato in apertura osserva come sia sorprendente che quest’approccio sia riuscito a realizzare sistemi artificiali che producono espressioni simili a quelle degli esseri umani quando stimolate con una qualunque domanda, ma il fatto che li percepiamo come intelligenti è una nostra proiezione. Si vedano in proposito i miei primi due articoli sul tema a marzo 2023 e ad aprile 2023.
  3. Per compiti normali i sistemi di IAgen possono essere più efficaci della persona media, ma poiché non raggiungono prestazioni da esperti in modo affidabile in contesti reali non riescono ad essere davvero efficaci per aumentare la produttività a livello aziendale. Su questo ci siamo illusi quando abbiamo visto che le successive versioni di tali sistemi erano in grado di superare gli esami per accedere a professioni complicate, ma poi si è capito che queste prestazioni erano dovute semplicemente all’aver “memorizzato” tutti i test disponibili per le relative discipline, più che a una reale comprensione dei loro concetti fondamentali. Nelle parole di Andrea Karpathy (inventore del popolarissimo termine vibe coding, su cui ritorneremo in un prossimo articolo) si tratta di strumenti «versatili ma di scarsa profondità e soggetti a errori», che quindi possono mettere la persona media in grado di fare cose per le quali sarebbe altrimenti costretta a ricorrere a un esperto (ad esempio, capire il significato di massima di un documento legale o medico), ma che non possono essere così facilmente integrati in un contesto produttivo.
  4. Certamente la maggioranza delle persone usa ormai quotidianamente i sistemi di IAgen, sia a livello personale che professionale, ma nella maggior parte dei casi lo fa gratuitamente, dal momento che ci sono almeno una decina di aziende diverse che li rendono disponibili. Il risultato è che, dopo 600 miliardi di dollari complessivamente investiti dal 2021 al 2025, non c’è ancora un modello di business e questo sta facendo riconsiderare agli investitori le loro scelte. Non a caso, nel 2025 si è cominciato a parlare di bolla, anche da parte di autorevoli leader del settore, come Sundar Pichai, il CEO di Alphabet (la casa madre di Google) a novembre di quell’anno. Daron Acemoglou, premio Nobel per l’economia nel 2024, ha analizzato l’influenza di tutto il settore dell’IA sull’economia USA fino al 2035 e ha concluso che solo circa il 5% dei compiti verrà eseguito in modo efficace dall’IA e il PIL aumenterà solo di un valore compreso tra 1,1 e 1,8%. Una caratteristica che ancora manca è la capacità, data una specifica situazione lavorativa, di fornire in modo affidabile informazioni dipendenti dal contesto per risolvere determinati problemi che sono sorti. Proprio a gennaio 2026, un articolo del Washington Post ha riportato che «i dati economici dimostrano che la tecnologia in gran parte non ha sostituito i lavoratori» e l’analisi Remote Labor Index, svolta congiuntamente dal Center for AI Safety e da Scale AI, ha confermato per il momento le previsioni di Acemoglou: infatti mediamente solo il 2,5% dei lavori proposti su una piattaforma che offre a lavoratori in proprio compiti a pagamento è stato completato con successo dai migliori sistemi di IAgen. In aggiunta, sempre a gennaio 2026, un’indagine della società Apollo Global Management (una delle più grandi al mondo nella gestione di investimenti) sui CFO (Chief Financial Officer = Direttore Finanziario), ha mostrato che la maggioranza di loro nel 2025 «non ha visto alcun impatto sulla produttività del lavoro, velocità nel prendere decisioni, soddisfazione della clientela, tempo speso su compiti ad alto valore aggiunto».

Tutto questo non vuol dire che gli strumenti di IAgen siano inutili, tutt’altro. Potenziano le nostre capacità in ambito cognitivo, purché scrutiniamo con attenzione ciò che producono. Sono utilissimi per svolgere compiti di routine in settori che padroneggiamo (così da poter correggere gli eventuali errori): un recentissimo esempio è l’impiego come valutatori del rigore scientifico di articoli di informatica teorica, che secondo l’81% degli autori ha contribuito ad aumentare chiarezza e leggibilità. Certamente continueranno a migliorare, anche se per avere salti di qualità importanti sarà necessario integrarli con sistemi basati su un approccio simbolico e non è per niente chiaro quando questo accadrà.

La strada quindi è ancora lunga. Voi che ne pensate?

--
Versione originale pubblicata su "StartMAG" il 16 febbraio 2026.

venerdì 6 febbraio 2026

Informatics as a scientific discipline officially enters Italian schools: now the real challenge begins

by Enrico Nardelli

(versione italiana qua)

A historic step has been taken for the Italian school system. With the publication in the Official Gazette of January 27, 2026 of the new National Guidelines, informatics officially enters primary and lower secondary schools as a subject of study. This is no longer a matter of basic digital literacy or learning to use a computer – it marks the introduction of computer science as a fully-fledged scientific discipline.

This reform represents a highly significant milestone in a journey that began twenty years ago with the conference Informatics: Culture and Society. Informatics is being integrated into the curriculum through two complementary channels: the more abstract and conceptual aspects have been woven into Mathematics, while the more concrete and applied elements find their place within Technology. Although this solution does not establish informatics as a standalone subject—which would have required a more complex legislative process—it now provides the legal framework needed to offer students a comprehensive education in the scientific principles underlying the digital world.

The shift in perspective is a radical one. As the official documents make clear, the goal is not to produce passive users of technology, but informed citizens capable of critically understanding how the computing systems that permeate every aspect of contemporary society actually work. The reform aims to develop fundamental skills in young people, not just to use digital technology, but to understand, evaluate, and, when necessary, create it.

This turning point aligns with broader European Union (EU) directives. In November 2023, the Council of the EU published Recommendation C/2024/1030, calling on member states to improve the provision of digital skills training. With this reform, Italy aligns itself with countries such as the United Kingdom, which introduced compulsory computing education as early as 2014, and responds to the strategic need to close the skills gap in an era shaped by artificial intelligence (AI).

The rise of generative AI itself raises new questions. Some might wonder whether, in a world where systems capable of writing software autonomously are already available, teaching this subject still makes sense. The experts' answer is unequivocal: even in the most advanced scenarios, AI tools will only be able to support — not replace — the people involved in developing and managing software systems. Strategic direction, understanding context and objectives, and the ability to adapt systems to changing needs will remain human tasks. These require that symbolic and abstract understanding of the world that only humans possess, and the conceptual and technical ability to develop complex digital systems that only the study of informatics can provide. We will return to this issue in a future article.

The risk, however, is that a lack of public understanding of these dynamics could lead policymakers to withdraw their support for computer science education at the very moment when this competency is becoming most critical. For this reason, cross-party support for this reform is essential to ensure the continuity of a project that will take at least a decade to fully bear fruit.

The new National Guidelines also address the ethical and social challenges associated with technology. The text explicitly stresses the need for students to acquire «an understanding of how systems based on digital technologies function, together with an awareness of their possibilities and limitations, so as to grasp the enormous opportunities for improvement and development they offer society while preventing them from becoming instruments of exclusion or oppression». It reaffirms the fundamental principle that «human beings must maintain control over decisions based on computer systems that can have a significant impact on people».

The real challenge now lies in teacher training. Unlike other disciplines, informatics is not part of the cultural background of most Italian teachers, who studied it neither in school nor at university. The British experience is instructive: after introducing compulsory computing education in 2014, the United Kingdom had to acknowledge in 2017 that much of the curriculum guidance remained unimplemented due to a shortage of adequately trained teachers. The response was the creation, in 2019, of the National Centre for Computing Education, funded with £82 million and continuously refinanced to this day, despite cuts to public spending.

Italy has had access to funds under the National Recovery and Resilience Plan (PNRR), but organizational and time constraints prevented their use in establishing an efficient system for training teachers in informatics education. Strong political will is therefore needed to ensure that this reform does not remain a dead letter. The academic informatics community, which has been bringing the foundations of the field into Italian schools for many years, is ready to contribute. We recall the numerous initiatives already in place, such as the Programma il Futuro project in collaboration with the Ministry of Education and Merit, and the structured research and training activities carried out by the National Laboratory "Informatics and School" of CINI (National Inter-University Consortium for Informatics).

The road will be long and not without obstacles, but the first, fundamental step has been taken. taly has finally recognized that, in an increasingly digital society, the knowledge of the scientific principles of computer science is neither a luxury nor a narrow technical specialization, but rather an essential component of every citizen’s education. Only in this way will it be possible to shape generations capable not only of using technology, but of understanding its implications, assessing its consequences, and maintaining democratic control over systems that profoundly shape our lives.

--
The original version (in italian) has been published by "StartMAG" on 3 February 2026.

L'informatica come disciplina scientifica entra nella scuola: adesso inizia la vera sfida

di Enrico Nardelli

(english version here)

È stato compiuto un passo storico per il sistema scolastico italiano. Con la pubblicazione sulla Gazzetta Ufficiale del 27 gennaio 2026 delle nuove Indicazioni Nazionali, l'informatica fa il suo ingresso ufficiale come materia di studio nella scuola primaria e secondaria di primo grado. Non si tratta più di semplice alfabetizzazione digitale o di imparare a usare il computer, ma dell'introduzione dell'informatica come vera e propria disciplina scientifica.

Questa riforma rappresenta un risultato assai significativo di un percorso intrapreso venti anni fa, con il convegno Informatica: Cultura e Società. L'informatica viene inserita nel curriculum attraverso due canali complementari: gli aspetti più astratti e concettuali sono stati integrati nell'insegnamento della Matematica, mentre quelli più concreti e applicativi trovano spazio nella Tecnologia. Tale soluzione, anche se non introduce l'informatica come materia autonoma – che avrebbe richiesto un iter normativo più complesso – costituisce adesso il quadro legislativo di riferimento per poter fornire agli studenti una formazione completa sui principi scientifici alla base del mondo digitale.

Il cambiamento di prospettiva è radicale. Come evidenziato nei documenti ufficiali, l'obiettivo non è formare utilizzatori passivi di tecnologia, ma cittadini consapevoli, capaci di comprendere criticamente il funzionamento dei sistemi informatici che permeano ogni aspetto della società contemporanea. La riforma si propone di sviluppare nei giovani competenze fondamentali non solo per usare la tecnologia digitale, ma per comprenderla, valutarla e, quando necessario, crearla.

Questa svolta si inserisce nel contesto più ampio delle indicazioni dell'Unione Europea (UE). Nel novembre 2023, il Consiglio dell'UE ha pubblicato la Raccomandazione C/2024/1030 che invita gli Stati membri a migliorare l'offerta formativa in materia di competenze digitali. L'Italia, con questa riforma, si allinea a paesi come il Regno Unito, che già dal 2014 ha introdotto l'insegnamento obbligatorio dell'informatica, e risponde all'esigenza strategica di colmare il divario di competenze in un'epoca dominata dall'intelligenza artificiale (IA).

Proprio l'avvento dell'IA generativa pone nuove questioni. Alcuni potrebbero chiedersi se, in uno scenario in cui sono già disponibili sistemi in grado di scrivere autonomamente programmi informatici, avrà ancora senso insegnare questa materia. La risposta degli esperti è chiara: anche negli scenari più avanzati, gli strumenti di IA potranno solo supportare, non sostituire, le persone coinvolte nello sviluppo e nella gestione dei sistemi software. La direzione strategica, la comprensione del contesto e degli obiettivi, la capacità di adattare i sistemi alle mutevoli esigenze rimarranno compiti umani, che richiedono proprio quella comprensione simbolica e astratta del mondo che solo le persone hanno e quella capacità concettuale e tecnica di sviluppare sistemi digitali complessi che solo lo studio dell'informatica può fornire. Riprenderemo questo tema in un successivo articolo.

Il rischio, tuttavia, è che la scarsa comprensione di queste dinamiche da parte del grande pubblico possa portare i decisori politici a ritirare il sostegno all'insegnamento dell'informatica, proprio nel momento in cui questa competenza diventa sempre più cruciale. Per questo, il supporto bipartisan a questa riforma è fondamentale per garantire la continuità di un progetto che richiederà almeno un decennio per andare a regime.

Le nuove Indicazioni Nazionali affrontano anche le criticità etiche e sociali legate alla tecnologia. Il testo sottolinea esplicitamente la necessità che gli studenti acquisiscano "la comprensione del funzionamento dei sistemi basati sulle tecnologie informatiche contestualmente a quella delle loro possibilità e dei loro limiti, così da cogliere le enormi possibilità di miglioramento e sviluppo offerte alla società evitando che diventino strumento di esclusione o di oppressione". Viene ribadito il principio fondamentale che "siano gli esseri umani a mantenere il controllo sulle decisioni basate su sistemi informatici che possono avere un impatto significativo sulle persone".

La vera sfida, ora, è quella della formazione degli insegnanti. A differenza di altre discipline, l'informatica non fa parte del bagaglio culturale della maggior parte dei docenti italiani, che non l'hanno studiata né a scuola né all'università. L'esperienza britannica è illuminante: dopo aver introdotto l'insegnamento obbligatorio dell'informatica nel 2014, il Regno Unito ha dovuto constatare nel 2017 che le indicazioni curricolari rimanevano in gran parte inattuate per mancanza di insegnanti preparati. La risposta è stata la creazione, nel 2019, del National Centre for Computing Education, finanziato con 82 milioni di sterline e costantemente rifinanziato fino ad oggi, nonostante i tagli alla spesa pubblica.

L'Italia ha avuto accesso ai fondi del PNRR, ma i vincoli organizzativi e temporali hanno impedito di utilizzarli per creare un meccanismo efficiente per la formazione dei docenti all’insegnamento dell’informatica. Servirà quindi una forte volontà politica per garantire che questa riforma non rimanga lettera morta. La comunità accademica degli informatici, che da moltissimi anni porta le basi dell'informatica nelle scuole italiane, è pronta a contribuire: ricordiamo le numerose iniziative già in atto, quali ad esempio il progetto Programma il Futuro in collaborazione col Ministero dell’Istruzione e del Merito, e l’attività a livello di studio, ricerca e formazione esplicata in modo strutturato e organico attraverso il Laboratorio Nazionale “Informatica e Scuola” del CINI (Consorzio Interuniversitario Nazionale per l’Informatica).

Il percorso sarà lungo e non privo di ostacoli, ma il primo, fondamentale passo è stato compiuto. L'Italia ha finalmente riconosciuto che, in una società sempre più digitale, la conoscenza dei principi scientifici dell'informatica non è un lusso né una specializzazione tecnica, ma una componente essenziale della formazione di ogni cittadino. Solo così sarà possibile formare generazioni capaci non solo di utilizzare la tecnologia, ma di comprenderne le implicazioni, valutarne le conseguenze e mantenere il controllo democratico su sistemi che influenzano profondamente le nostre vite.

--
Versione originale pubblicata su "StartMAG" il 3 febbraio 2026.

mercoledì 19 novembre 2025

Informatics in schools: we’re there ... almost.

by Enrico Nardelli

(versione italiana qua)

The Council of State has just issued a favorable opinion on the New National Guidelines for early childhood education and the first cycle of schooling (i.e., primary and lower secondary school), in the version published by the Ministry of Education and Merit on July 7th. In September, the Council of State had requested clarifications—interpreted by some as a rejection, and by others as politically motivated obstruction. As I wrote when the initial draft was released in March 2025, which was then followed by a broad and in-depth consultation with social partners, the New National Guidelines represent a revision of the document originally issued in 2012 by the Ministry of Education, Universities and Research (Ministerial Decree 254 of November 16, 2012). That 2012 document establishes the common reference framework for educational provision, which each school then uses to define its own specific curriculum.

This is therefore a moment of real satisfaction for those who, like myself – with the support of outstanding colleagues, both Italian ones at the CINI National Laboratory "Informatics and Schools" and European ones within the international coalition Informatics for All – have been working for over a decade toward this goal. We are grateful to the Minister and the Administration for making it possible.

Why, then, the "almost" in the title? Because, as our British colleague Simon Peyton Jones – the architect of the introduction of computing education in the English school system – explained at the conference Teaching Informatics in Schools, held on October 19, 2023 at the Accademia dei Lincei, without a well-prepared teaching workforce in informatics, introducing the subject into the school curriculum risks even being counterproductive.

In fact, unlike any other subject taught in school – with the exception of the small number of teachers in a handful of specialized upper secondary tracks—none of the current teaching staff have ever studied informatics during their educational or university career. There is therefore no broadly shared cultural foundation to build on for professional development, as is the case, for example, with mathematics, which is taught in primary school by teachers who, although not specifically trained as mathematicians, have nonetheless studied the subject throughout their thirteen years of schooling.

With this in mind, as part of the Programma il Futuro project — which has been informally spreading the fundamentals of informatics across almost all Italian schools for 11 years — we will be hosting a webinar, led by our talented colleague Violetta Lonati, focused specifically on the curricular changes introduced by the inclusion of informatics in the New National Guidelines.

Looking ahead, I believe that the experience of the United Kingdom, as described by Peyton-Jones, points to the right path. After introducing compulsory computing education in 2014, it became clear that the curricular guidelines largely remained on paper due to the lack of adequately trained teachers. Consequently, in November 2018, the British government allocated £82 million over four years to fund an institute for teacher training in informatics education. This led to the 2019 establishment of the National Center for Computing Education, which developed teaching materials and training courses for teachers at all school levels and has been consistently re-funded ever since, most recently in 2025, despite public spending cuts.

This will therefore not be an easy task, and it will require strong political will, hopefully bipartisan, in the country’s strategic interest, since it is a process that will take at least a decade to become fully operational.

I am confident that such will can be found.

That said, while I understand the cautionary remarks expressed in the Council of State's opinion regarding the rationale for including informatics to address the challenges of digital transition: "the proposed approach could lead to an implicit and uncritical acceptance of the phenomenon as inevitable in its current form" (p. 27) and "the significant challenges arising from these transitions and their contested social and economic sustainability" (p. 28), I would like to offer some reassurance that this is not what is being proposed.

Having participated in the drafting of the New Guidelines as a member of the sub-commission responsible for integrated mathematical-scientific-technological education, I note that the text of the document is very clear on these aspects. With regard to the teaching of informatics in primary school, it states: "The acquisition of foundational elements of informatics enables pupils to begin developing, through exploration and experimentation, the cultural perspective this discipline offers, complementary to all others. In addition, it promotes a safe and responsible use of digital technologies" (p. 66 – my translation). The document further adds that in lower secondary school "... students move from a purely operational skill to a more critical and reflective understanding of the implications of technological choices and ... reflection skills on the social impact of information technologies are developed" (p.66 – my translation), clarifying that "Informatics provides an additional way to enrich the description of natural and artificial phenomena with a different perspective" (p.67 – my translation).

It is therefore clear that informatics education is grounded, from the outset, in the fundamental cultural dimensions of the discipline, precisely with a view to equipping students with a broad understanding of the complex social dynamics of contemporary life, and that the social criticality of digital technology use is explicitly emphasized. And that’s not all.

Since informatics appears in the New Guidelines partly as a more conceptual component embedded within Mathematics and partly as a more technological component within Technology, the description of the latter discipline clearly enunciates the critical issues to watch out for. Quoting verbatim from p.81 (my translation): «It is essential that pupils and students understand how systems based on digital technologies function, alongside their possibilities and limitations, so that they can grasp the enormous opportunities for improvement and development they offer to society while preventing them from becoming tools of exclusion or oppression. The teaching of informatics will therefore take into account interactions with civic education goals, emphasizing the importance of interacting with others respectfully, especially when using digital platforms. Students must learn how to identify and report problems in online social interactions, develop an understanding of the value of data – both at a personal and a broader level – and how the collection and processing of large amounts of data affects society. And it remains a guiding principle in the first cycle of education that human beings must retain control over decisions based on computer systems that may have a significant impact on people».

In short, the path is clearly marked: the person remains at the center of everything.

--
The original version (in italian) has been published by "StartMAG" on 16 November 2025.

Informatica a scuola: ci siamo ... quasi

di Enrico Nardelli

(english version here)

È stato appena emesso dal Consiglio di Stato il parere favorevole alle Nuove Indicazioni Nazionali per la scuola dell’infanzia e per il primo ciclo d’istruzione (cioè, primaria e secondaria di primo grado) nella versione pubblicata dal Ministero dell’Istruzione e del Merito il 7 luglio scorso. A settembre il Consiglio di Stato aveva formulato una richiesta di chiarimenti, che taluni avevano interpretato come bocciatura, mentre altri avevano letto come ostruzionismo in chiave politica. Come avevo scritto in occasione del rilascio della bozza iniziale a marzo 2025, sulla quale era stata poi avviata una larga ed approfondita consultazione con le parti sociali, le Nuove Indicazioni Nazionali sono una revisione di quel documento, originariamente rilasciato nel 2012 dal Ministero dell’Istruzione, dell’Università e della Ricerca con il DM 254 del 16/nov/2012, che stabilisce il quadro di riferimento comune per l’offerta educativa, che ogni scuola utilizza poi per definire il proprio specifico curricolo.

È quindi un momento di soddisfazione per chi, come me, con il supporto di validissimi colleghi, sia italiani nel Laboratorio Nazionale CINI “Informatica e Scuola” che europei nella coalizione internazionale Informatics for All, agisce ormai da più di dieci anni per raggiungere questo obiettivo, per il quale siamo grati al Ministro e all’Amministrazione.

Perché, quindi, il “quasi” nel titolo? Perché, come ci ha raccontato il collega inglese Simon Peyton-Jones, che ha curato l’introduzione dell’insegnamento dell’informatica nel sistema scolastico inglese, durante il convegno L’insegnamento dell’Informatica nella scuola, che si è svolto il 19 ottobre 2023 all’Accademia dei Lincei, senza una classe docente ben preparata sull’insegnamento dell’informatica, l’introduzione della disciplina nel curricolo scolastico rischia di essere addirittura controproducente.

Infatti, diversamente da quanto accade per ogni altra materia insegnata nella scuola, tranne il ristretto numero di docenti che insegna informatica in pochissimi indirizzi della scuola secondaria superiore, nessuno degli insegnanti ha mai studiato informatica nel corso della sua carriera, né scolastica né universitaria. Non vi è quindi un substrato culturale largamente diffuso su cui far leva per la formazione professionale come avviene, ad esempio, per la matematica, insegnata nella scuola primaria da docenti che, pur non avendo una specifica preparazione professionale sulla disciplina, l’hanno comunque studiata per tutti i 13 anni del loro percorso scolastico.

Proprio in quest’ottica, nell’ambito del progetto Programma il Futuro, che in modo informale diffonde ormai da 11 anni le basi dell’informatica in quasi tutte le scuole italiane, dedicheremo un webinar – tenuto dalla valente collega Violetta Lonati – proprio sulle novità curriculari introdotte dall’inserimento dell’informatica nelle Nuove Indicazioni Nazionali.

In prospettiva, ritengo che l’esperienza del Regno Unito, che ci ha illustrato Peyton-Jones, indichi una strada maestra. Infatti, dopo aver introdotto nel 2014 la formazione obbligatoria nell’informatica, ha dovuto constatare che le indicazioni curricolari rimanevano in gran parte lettera morta a causa dell’assenza di docenti adeguatamente preparati. Pertanto, il governo britannico ha stanziato nel novembre 2018 un fondo di 82 milioni di sterline per finanziare per 4 anni un istituto per la formazione dei docenti all’insegnamento dell’informatica nella scuola. È stato così istituito nel 2019 il National Center for Computing Education, che ha sviluppato materiali didattici e corsi di formazione per gli insegnanti per tutti i livelli di scuola, e che è stato successivamente sempre rifinanziato, l’ultima volta proprio nel 2025, nonostante i tagli alle spese nel settore pubblico.

Non sarà quindi un compito semplice e servirà una forte volontà politica, che auspico bipartisan nell’interesse strategico del Paese, dal momento che si tratta di un percorso che richiederà almeno una decina d’anni per andare a regime.

Confido che questa volontà potrà essere trovata.

D’altra parte, pur comprendendo le parole di cautela espresse nel parere del Consiglio di Stato a proposito della motivazione dell’inserimento dell’informatica per affrontare la complessità della transizione digitale: «l’impostazione proposta potrebbe indurre ad un’accettazione implicita ed acritica del fenomeno come inevitabile nella sua forma attuale» (p.27) e «le notevoli criticità che derivano dalle transizioni e della loro controversa sostenibilità sociale ed economica» (p.28), desidero rassicurare che non è questo il caso.

Avendo infatti partecipato alla stesura delle Nuove Indicazioni come componente della sotto-commissione responsabile per l’istruzione integrata matematico-scientifico-tecnologica, osservo che il testo del documento è molto chiaro su questi aspetti. Esso, infatti, a proposito dell’insegnamento dell’Informatica nella scuola primaria recita, testualmente «L’acquisizione dei primi elementi di informatica consente agli allievi di iniziare a sviluppare, attraverso l’esplorazione e la sperimentazione, la prospettiva culturale che questa disciplina offre, complementare rispetto alle altre. In aggiunta, favorisce un utilizzo sicuro e responsabile delle tecnologie informatiche» (p.66). Il documento poi aggiunge che nella scuola secondaria di primo grado «… gli alunni passano da un’abilità meramente operativa a una visione più critica e riflessiva in merito alle implicazioni delle scelte tecnologiche e … vengono sviluppate le capacità di riflessione sull’impatto sociale delle tecnologie informatiche» (p.66) e chiarisce che «L’informatica fornisce un’ulteriore modalità per arricchire la descrizione di fenomeni naturali e artificiali con una diversa prospettiva» (p.67).

È quindi evidente come l’istruzione sull’informatica sia radicata, sin dal principio, sugli aspetti culturali fondamentali della disciplina, proprio nell’ottica di una formazione complessiva dello studente alla comprensione delle complesse dinamiche sociali contemporanee, e come venga chiaramente sottolineata la criticità sociale dell’utilizzo delle tecnologie digitali.

E non è tutto.

Dal momento che l’informatica è presente nelle Nuove Indicazioni con una parte più concettuale calata nella Matematica ed una parte più tecnologica inserita nella Tecnologia, nella descrizione di quest’ultima disciplina sono chiarissimamente enunciate le criticità cui fare attenzione. Cito verbalmente da p.81: «È necessario che alunni e studenti acquisiscano la comprensione del funzionamento dei sistemi basati sulle tecnologie informatiche contestualmente a quella delle loro possibilità e dei loro limiti, così da cogliere le enormi possibilità di miglioramento e sviluppo offerte alla società evitando che diventino strumento di esclusione o di oppressione. Nell’insegnamento dell’informatica si terrà quindi conto delle interazioni con gli obiettivi dell’educazione civica sottolineando l'importanza di interagire con gli altri in modo rispettoso, soprattutto quando si utilizzano le piattaforme digitali. È necessario sapere come identificare e segnalare problemi nelle interazioni sociali che avvengono sulle piattaforme, sviluppare la comprensione del valore dei dati, sia dal punto di vista personale che generale, e di come la raccolta e l'elaborazione di grandi quantità di dati influisca sulla società. E resta dirimente, nella formazione del primo ciclo, il principio fondamentale che siano gli esseri umani a mantenere il controllo sulle decisioni basate su sistemi informatici che possono avere un impatto significativo sulle persone».

Insomma, la strada è indicata chiaramente: la persona rimane al centro di tutto.

--
Versione originale pubblicata su "StartMAG" il 16 novembre 2025.

giovedì 16 ottobre 2025

The slop of generative AI

by Enrico Nardelli

(versione italiana qua)

I am writing this article prompted by a very recent post by my excellent colleague Walter Quattrociocchi. It is – to be honest – yet another in a long series where he explains on social media the dangers posed by generative artificial intelligence tools (GenAI, hereafter) for those who lack a solid understanding of the subject they are asking about. In his post, Walter recalls two recent episodes of sloppiness resulting from the use of these tools.

The first involves a print newspaper article published including the text of that standard closing question GenAI tools offer at the end of their response, asking whether the user would like to expand or adjust the text for a different publication context (e.g., a popular science piece rather than an academic one).

The second is that a well-known international consulting firm included fabricated citations in a—highly paid—government report and was, consequently, forced to partially refund its fee.

Neither example is new: the inclusion of AI-hallucinated cases in legal briefs has been happening in the United States for at least a couple of years, and forgetting to remove boilerplate phrases generated by GenAI in scientific articles has also been happening with some regularity for quite some time.

What Walter rightly observes—and I completely agree with—is that the issue is now systemic, widespread across all sectors and at every level. In his words: "We have delegated judgment to a statistical language engine, mistaking textual coherence for factual truth. This is the heart of the epistemic problem: the confusion between linguistic consistency and epistemic truth." A point that resonates with what I wrote in April 2023, warning that the main danger of GenAI tools is that «They have no real understanding of the meaning of what they are producing, but (and this is a major problem on the social level) since they express themselves in a form that is meaningful to us, we project onto their outputs the meaning that is within us», and recalling, two years later, that «showing competence with the words that describe the world is not the same as having competence about the world itself».

Two recent studies offer further evidence of how GenAI tools fall short of their potential and why, therefore, great caution is needed instead of the uncritical praise hailing them as something everyone must absolutely know how to use.

The first is the State of AI in Business 2025 report by MIT, which aptly speaks of a “GenAI Divide”, the gulf between the high rates of corporate adoption of these tools and the low return on investment observed so far. According to the report, 95% of companies are seeing no return on their investment, despite widespread use of the tools themselves. At the individual level, there is an increase in productivity, but this is not translating into corporate profitability.

The causes of these failures are a lack of robustness in supporting work processes, a failure to learn context, and a misalignment with daily operations. The judgment on scalability is particularly interesting: «the core barrier to scaling is not infrastructure, regulation, or talent. It is learning. Most GenAI systems do not retain feedback, adapt to context, or improve over time». I had already addressed this difficulty three years ago in my book La rivoluzione informatica (published just as the first such systems were gaining traction). Writing more generally of "cognitive machines" (the term I use for all computing systems), I noted that they "lack both the flexibility and adaptability to change their mode of operation as contextual conditions shift." It is gratifying to see one's own assessments hold up over time.

The 5% of companies that are succeeding are doing so by asking vendors to tailor these tools to the specific needs of their workflows and their own proprietary data (as I have always advised those who have privately asked me how to use GenAI within their companies). They are also evaluating effectiveness not based on generic benchmarks (like passing standardized exams in various disciplines) but by considering the actual output produced.

A subsequent study by a team of researchers from Stanford and BetterUp Labs further investigated this situation. Specifically, 1,150 US workers from various sectors were interviewed to understand how GenAI output is used at work. It emerged that while some use these tools to refine work they have already produced, many use them to churn out low-quality output that then has to be corrected by someone else downstream. The term "workslop" is gaining currency – where "slop" is an informal word for watery, unappetising food – to describe AI-generated content that looks passable on the surface but lacks the substance needed to move a task forward effectively. More formally, we might call it "shoddy work," and the result is that corporate productivity suffers.

In this study, 40% of the workers interviewed revealed they had received "slop" in the last month that was practically unusable. While the phenomenon primarily concerns peer-to-peer interactions, in 18% of cases it also occurs hierarchically, in both directions. The most serious long-term impact is on trust between colleagues, which is eroded whenever someone receives shoddy work. As with all previous technological waves, what is needed first and foremost is a clear identification of the strategy through which these tools can improve work processes, followed by the selection of technology capable of supporting that strategy and appropriate workforce training. In short, GenAI does have potential; it all depends on how it is used.

The Roman orator Marcus Porcius Cato, known as Cato the Censor, is credited with the saying «rem tene, verba sequentur», i.e., master the subject matter, and the words will follow, an admonition about the importance of thoroughly mastering a topic to be able to argue its cause effectively. Similarly, we could say in this case: "rem tene, mens mechanica te sustinebit," where "mens mechanica" refers to what I call "mechanical intelligence" rather than the more common "artificial intelligence".

Only if you know your subject well will GenAI be able to enrich and enhance what you do. This is why I believe the foundations of any area of knowledge must still be acquired, as they always have been, by “the sweat of one's brow”. Only then will we be able to use GenAI tools in the best way possible.

--
The original version (in italian) has been published by "StartMAG" on 12 october 2025.

mercoledì 15 ottobre 2025

La “sbobba” dell’IA generativa

di Enrico Nardelli

(english version here)

Scrivo questo articolo mosso da un recentissimo post dell'eccellente collega Walter Quattrociocchi, l'ennesimo – a dire la verità – in cui spiega, come fa da molto tempo sui social, la pericolosità, per chi non conosce bene il tema su cui chiede spiegazioni, degli strumenti di intelligenza artificiale generativa (IAGen, nel seguito). Nel post Walter ricorda due recenti episodi di sciatteria derivanti dall'uso di questi strumenti. Il primo è un articolo di giornale cartaceo pubblicato includendo anche il testo della solita domanda finale che tutti gli strumenti di IAGen propongono al termine della loro risposta, se cioè l’utente voglia estendere o modificare quanto scritto in funzione di una diversa sede di pubblicazione (p.es., articolo divulgativo invece che scientifico). Il secondo è che una notissima casa di consulenza internazionale ha inserito in un rapporto governativo, tra l’altro molto ben pagato, citazioni inventate ed è stata, per questo, costretta a rimborsare parzialmente quanto ricevuto.

Nessuno dei due esempi è una novità: l’inserimento in memorie legali di casi inventati prodotti da IAGen è qualcosa che accade negli USA da almeno un paio di anni e il dimenticarsi, nel contesto di articoli scientifici, di togliere frasi di contorno prodotte dall’IAGen accade anche questo con una certa regolarità da un po’ di tempo.

Ciò che giustamente Walter osserva, e con cui sono completamente d’accordo, è che adesso il discorso è sistemico, diffuso in tutti i settori e a ogni livello. Queste le sue parole: «Abbiamo delegato il giudizio a un motore statistico del linguaggio, scambiando la coerenza di un testo per la verità di un contenuto. È questo il cuore dell’epistemia: la confusione tra consistenza linguistica e verità epistemica». Concetto che risuona con quanto avevo scritto nell’aprile 2023, avvertendo che il principale pericolo degli strumenti di IAGen è che essi «… non hanno alcuna reale comprensione del significato di ciò che stanno facendo, ma purtroppo (e questo è un problema di grande rilevanza sul piano sociale) poiché ciò che fanno lo esprimono in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi» e ricordando, due anni dopo, che «esibire competenza sulle parole che descrivono il mondo non equivale ad avere competenza sul mondo».

Ci sono due recenti ricerche che portano ulteriore evidenza di come gli strumenti di IAGen non riescano ad esprimere il loro potenziale e di come, quindi, sarebbe necessaria molta cautela invece che esaltarli acriticamente come qualcosa che tutti devono assolutamente saper usare.

La prima è il rapporto State of AI in Business 2025 del MIT che parla, appropriatamente, di “Divario dell’IAGen”, indicando quello che esiste tra gli alti tassi di adozione di questi strumenti nelle aziende e il basso ritorno sugli investimenti che è stato finora riscontrato. Secondo il rapporto, il 95% delle aziende sta ottenendo un ritorno nullo sugli investimenti, nonostante gli strumenti in sé siano largamente utilizzati. A livello del singolo individuo c’è un aumento di produttività, ma questo non trova riscontro nella redditività aziendale.

Le cause dei fallimenti sono la fragilità nel supportare i processi di lavoro, la mancanza di apprendimento del contesto e il disallineamento con l’operatività giornaliera. Interessante il giudizio sulla scalabilità: «la barriera principale non è costituita dall’infrastruttura, i regolamenti o il talento. È la capacità di apprendere. La maggior parte dei sistemi di IAGen non incorpora il feedback ricevuto, non si adatta al contesto, né migliora col tempo». Di questa difficoltà ne avevo parlato già tre anni fa nel mio libro La rivoluzione informatica (pubblicato proprio quando i primi sistemi si stavano diffondendo) in cui avevo scritto, parlando in generale di “macchine cognitive” (il termine che uso per indicare tutti i sistemi informatici), che queste «non hanno né flessibilità né adattabilità per cambiare il loro modo di operare al mutare delle condizioni di contesto». Fa piacere vedere le proprie valutazioni rimanere valide col passare del tempo.

Quel 5% di aziende che invece ha successo, lo sta ottenendo chiedendo ai fornitori di personalizzare questi strumenti sulle specifiche esigenze dei loro processi lavorativi e sui loro specifici dati (come ho sempre suggerito a chi privatamente mi ha chiesto come poter usare l’IAGen nella propria azienda) e valutandone l’efficacia non in base a generici indicatori di riferimento (tipo il superamento di esami standardizzati in varie discipline) ma considerando quanto effettivamente prodotto.

Una successiva ricerca di un team di ricercatori di Stanford e di BetterUp Labs ha investigato ulteriormente questa situazione. Nello specifico, 1.150 lavoratori USA di diversi settori sono stati intervistati per capire come viene utilizzato sul lavoro ciò che viene prodotto da IAGen. È emerso che mentre alcuni usano questi strumenti per raffinare ciò che hanno realizzato, molti li usano per produrre lavoro di bassa qualità che deve poi essere corretto da qualcun altro a valle. Si sta diffondendo il termine “workslop”, dove “slop” è un termine informale che vuol dire “brodaglia” o “sbobba”, per indicare contenuto generato dall’IA che sembra buono, ma manca della sostanza necessaria per proseguire efficacemente nello svolgimento di un compito. In modo più aulico possiamo tradurre “workslop” come “lavoro raffazzonato”, ed il suo risultato è che la produttività aziendale ne soffre.

In questa ricerca, il 40% dei lavoratori intervistati ha rivelato di aver ricevuto brodaglia nell’ultimo mese, praticamente inutilizzabile. Mentre il fenomeno riguarda soprattutto le interazioni tra pari, nel 18% dei casi si verifica anche gerarchicamente, in entrambi i versi. L’impatto più grave, sul lungo periodo, è quello sulle relazioni di fiducia tra colleghi, che vengono compromesse quando si riceve della sbobba. Anche in questo caso, come per tutte le precedenti ondate tecnologiche, è necessaria prima di tutto una chiara identificazione della strategia mediante la quale questi strumenti possono migliorare i processi lavorativi, seguita dalla scelta della tecnologia in grado di supportare questa strategia e da un’appropriata opera di formazione della forza-lavoro. Insomma, le potenzialità l’IAGen le ha, tutto dipende da come viene usata.

Al retore romano Marco Porcio Catone, detto il Censore, si attribuisce il detto «rem tene, verba sequentur» ovvero conosci bene il tuo argomento, e riuscirai a parlarne bene, per ammonire sull’importanza di padroneggiare a fondo un tema per poterne sostenere validamente la causa. Analogamente potremmo dire, in questo caso: «rem tene, mens mechanica te sustinebit», dove “mens mechanica” indica quella che io chiamo “intelligenza meccanica” invece del più usuale “intelligenza artificiale”.

Solo se si conosce bene ciò di cui si parla, l’IAGen sarà in grado di arricchire e potenziare ciò che uno fa. Per questo ritengo necessario che le basi di ogni conoscenza vadano acquisite, com’è sempre stato, col “sudore della fronte”. Solo così si sarà in grado di usare gli strumenti IAGen nel modo migliore possibile.

--
Versione originale pubblicata su "StartMAG" il 12 ottobre 2025.

domenica 12 ottobre 2025

ITADINFO: una comunità che cresce

di Enrico Nardelli

Continua il successo di ITADINFO, il convegno italiano sulla didattica dell'informatica nella scuola, che, dopo aver avuto a Bari il suo battesimo nel 2023 e a Genova nel 2024 la conferma, quest’anno a Salerno, dal 3 al 5 ottobre ha visto crescere del 20% la partecipazione di docenti di scuola e ricercatori universitari.

Fin dalla giornata iniziale ho percepito una positiva sensazione di rinnovato entusiasmo da parte dei partecipanti, in coda al banco della registrazione. Probabilmente ci sarà stato un effetto delle Nuove Indicazioni Nazionali per la scuola dell’infanzia e per il primo ciclo d’istruzione (cioè, primaria e secondaria di primo grado), che hanno finalmente inserito l’informatica come oggetto di studio a partire dai primi anni di scuola, ma penso abbia influito anche l’abbassamento dell’età media degli iscritti: quest’anno circa la metà di loro aveva al più 50 anni, mentre in passato questa percentuale si attestava intorno al 40%.

Per noi del Laboratorio Nazionale CINI “Informatica e Scuola” che abbiamo fondato il convegno e lo organizziamo ogni anno, questa volta in collaborazione con il Dipartimento di Informatica dell’Università di Salerno, l’associazione di promozione sociale “APS Programma il Futuro” e il Progetto Nazionale “Informatica” del Piano Lauree Scientifiche, si è trattato di un bel risultato.

Tre giornate di incontri, nei quali insegnanti di scuola e universitari hanno discusso relazioni scientifiche, presentato le loro esperienze sul campo e approfondito attraverso laboratori formativi il vasto campo della didattica dell’informatica. Vi sono stati in totale oltre 60 contributi, già disponibili negli atti online, risultato di una selezione ottimamente condotta dalle colleghe Veronica Rossano e Maria Angela Pellegrino, le coordinatrici del comitato scientifico del convegno. Particolarmente vive le sessioni di presentazione mediante poster, una novità introdotta quest’anno che è stata apprezzatissima sia dagli autori che dal pubblico. Numerose le discussioni sull’intelligenza artificiale e sul suo uso nella scuola, un tema particolarmente caldo e dibattuto e su cui certamente le interazioni e le iniziative continueranno, sia nel laboratorio che nel progetto Programma il Futuro. La presenza fisica degli sponsor espositori: Axios, Bimed, CeRICT, Edizioni Themis, Robotics 3D, con le loro interessanti proposte di prodotti e servizi è stata un ulteriore motivo di interesse per i partecipanti, oltre aver contributo alla possibilità di realizzare il convegno, unitamente allo sponsor SeeWeb.

La sessione di saluti istituzionali è stata coordinata dalla collega di Salerno, Filomena Ferrucci, che insieme agli altri colleghi Vittorio Scarano, Maria Angela Pellegrino e Fabio Palomba (e gli studenti volontari) hanno svolto un eccellente lavoro di organizzazione locale e preparato un ottimo programma sociale, al quale la bellissima città di Salerno che ha contribuito con le sue bellezze naturali e artistiche.

I saluti sono stati aperti da Massimo Bisogno, il Direttore Generale dell’Ufficio Speciale per l'Amministrazione Digitale della Regione Campania, ha sostenuto l’importanza – per un mondo sempre più digitale – di insegnare l’informatica fin dalla scuola. Su questa linea ha proseguito Massimiliano Natella, l’Assessore alle Politiche Ambientali del Comune di Salerno, ribadendo che l’informatica è una materia formativa di importanza generale che deve essere presente nel percorso educativo di tutti i cittadini. Ho osservato con piacere che, per la prima volta in un incontro pubblico su questi temi, mi son trovato a dialogare con due rappresentanti delle istituzioni che non parlavano genericamente di digitale per “sentito dire” ma perché si erano laureati in Informatica (o meglio, in “Scienze dell’Informazione”, il nome che il corso di laurea ha avuto fino al cambio di millennio).

Ha poi proseguito Ilaria Peano, la Program Manager “Ricerca e Istruzione” della Fondazione CRT, che attraverso il suo progetto Diderot ha sostenuto quest’anno in maniera significativa l’organizzazione del convegno, osservando come gli studenti, a tutti i livelli dell’istruzione, ci pongono continuamente sfide, con la loro curiosità e apertura alle novità, che sono particolarmente impegnative nel nostro settore. Stefano Russo, dell’Università di Napoli e neo-eletto Presidente del CINI (il Consorzio Interuniversitario Nazionale per l’Informatica, di cui fa parte il laboratorio nazionale “Informatica e Scuola”) ha ricordato come, tra i laboratori nazionali del CINI, quello sulla scuola sia soprattutto un investimento sul futuro, perché formerà i cittadini che costruiranno la società tra vent’anni. Nel mio ruolo di Direttore del laboratorio, io ho ricordato come, con colleghi che erano attivi da prima di me nel settore della didattica dell’informatica, abbiamo fatto partire nel 2014 un gruppo di lavoro su questo tema all’interno del CINI, che a quel tempo stava preparando l’avvio dei laboratori nazionali. Nel dicembre 2017 abbiamo poi pubblicato la nostra proposta di indicazioni nazionali per l’insegnamento dell’informatica nella scuola, che è stata un base importante di partenza per l’inserimento dell’informatica nelle Nuove Indicazioni Nazionali. Il Laboratorio – fondato nel 2020 – è al suo secondo triennio di attività. A questo si è affiancata un’attività a livello europeo che ha portato, nel novembre 2023, alla raccomandazione del Consiglio dell’Unione Europea per l’inserimento dell’informatica nella scuola dell’obbligo, che il Ministero dell’Istruzione e del Merito ha realizzato quest’anno.

Un ulteriore elemento di novità è stata la sessione finale, che diversamente da quanto normalmente accade ha visto la partecipazione della quasi totalità degli iscritti al convegno, attivi anche sulla pagina social del convegno con complimenti e inviti a continuare. La sessione è stata dedicata a un dibattito sull’importanza della divulgazione dei concetti scientifici dell’informatica verso i giovani adolescenti anche mediante video, uno strumento che sembra diventato il canale di riferimento per la loro ricerca di informazioni, e al quale ha dato il suo contributo il personaggio virtuale di Proxy, protagonista di una miniserie animata per guidare alla scoperta dell’informatica.

Ci rivedremo a Padova nel 2026 per festeggiare il quarto compleanno di ITADINFO!

--
Versione originale pubblicata su "StartMAG" il 9 ottobre 2025.

mercoledì 10 settembre 2025

Che senso ha parlare di educazione digitale?

di Enrico Nardelli

Mi è stato segnalato il recente articolo La preistoria digitale di Massimo Mantellini, uno dei pionieri dell’utilizzo degli ambienti digitali e degli opinionisti più ascoltati in tema di cultura digitale. Quindi certamente una persona che conosce questo mondo fino, appunto, dalla preistoria. Sono però sobbalzato sulla sedia quando ho letto questo passaggio: «L’educazione digitale non funziona. E non funziona non perché non sia un’idea opportuna necessaria e ragionevole, al contrario, ma perché i tempi di una sua eventuale ricaduta nelle consuetudini sociali dei cittadini (di tutti i cittadini) sono incompatibili con la velocità con la quale, dall’altro lato, la tecnologia impone sé stessa

Certamente, come afferma Mantellini, la tecnologia evolve con una velocità che è incompatibile con l’evoluzione delle consuetudini sociali. Ma al tempo stesso devo sviluppare alcune riflessioni critiche sull’uso del termine “educazione digitale”, purtroppo spesso usato in Italia e in Europa, che è del tutto incongruo come obiettivo.

Lo è prima di tutto linguisticamente, perché è un calco scorretto dall’inglese education, che però vuol dire "istruzione" e non “educazione”.

Poi è male indirizzato, perché è almeno dagli inizi del “secolo breve” che sappiamo che la tecnologia si evolve più rapidamente della società, e proprio per questo tutti i sistemi di istruzione del mondo occidentale hanno ritenuto opportuno e necessario organizzare i loro sforzi attorno all’insegnamento dei princìpi soggiacenti alla tecnologia, allo scopo di consentire alle persone di ottenere una formazione duratura. Poi, certo, abbiamo anche le scuole di tipo tecnico, che hanno però un orizzonte temporale più limitato.

Infine, è impreciso contenutisticamente, perché parlare di "digitale" implica parlare di un tutto indistinto in cui non si coglie ciò che è rilevante, cioè che tutte le tecnologie e i dispositivi digitali sono basati sul linguaggio dell'Informatica. Ma se non si conosce questo linguaggio, tutto diventa una “diavoleria” incomprensibile. Così come se non si conosce matematica e fisica e chimica ogni macchina o dispositivo industriale è magia. E se non si conosce matematica e biologia e chimica ogni essere vivente è magia (poi la vita è ben più di un semplice meccanismo, ma non è questo il punto). Se si vogliono far capire le macchine digitali bisogna insegnare l'informatica (ho scritto un intero libro su questo tema: La rivoluzione informatica).

È l'informatica che è un linguaggio, così come lo è la matematica, è l'informatica che deve essere insegnata, senza perseguire una fantomatica e irragionevole “educazione digitale”. Allo stesso modo in cui, se si vuole elevare il livello di cultura scientifica, sostenere che serve l’educazione scientifica non vuol dire niente in pratica (e non funziona) perché è un obiettivo che si può raggiungere solo se si insegnano le specifiche discipline scientifiche e i loro specifici linguaggi.

Quindi è vero che “L’educazione digitale non funziona” ma perché è un obiettivo senza senso. Tanti opinionisti in Italia e in Europa hanno purtroppo scritto in lungo e in largo di digitale senza capire molto di cosa andava fatto per preparare le persone a comprenderlo e il nostro Paese e l’Europa hanno perso decenni.

I concetti dell'informatica sono ormai stabili da quasi un secolo e spiegano il funzionamento di tutte le tecnologie digitali, anche quelle dell’intelligenza artificiale, anche quelle quantistiche, solo per usare i due termini alla moda di cui tutti adesso parlano. Però serve tempo per capirli ed assimilarli. Quanto tempo ci mettono i ragazzi a scuola per capire il significato della matematica e delle leggi di fisica, chimica e biologia che spiegano la componente scientifico-tecnologica del mondo intorno a noi? Almeno i 10 anni dell'istruzione obbligatoria, e bastano appena. Certo, se però poi qualche opinionista o politico pensa che basti fare un po' di coding o imparare un po' di prompt per l'IA generativa per padroneggiare "il linguaggio del digitale", poi è chiaro che le cose non funzionano.

Negli Stati Uniti si parla solo di computer science education cioè di "insegnamento dell'informatica" fin dall'inizio della scuola. Non hanno mai pensato di parlare di digital education, e forse negli USA qualcuno la conosce la valenza strategica della tecnologia digitale, no? Che ne dite?

In Europa sono serviti 10 anni per convincere la Commissione Europea a preparare una risoluzione che il Parlamento Europeo ha poi approvato in cui finalmente si parla di "insegnamento dell'informatica". In Italia, dopo 12 anni di attività del progetto Programma il Futuro, nelle nuove Indicazioni Nazionali per il primo ciclo dell'istruzione scolastica si parla finalmente di insegnamento dell'informatica.

Sono tanti anni che faccio divulgazione sull’informatica e l’importanza del suo insegnamento per preparare i cittadini alla società digitale. A chi volesse iniziare a capire qualcosa di più di questa disciplina raccomando di iniziare con la serie A passeggio con l'informatica che ho scritto per l'Osservatorio sullo Stato Digitale dell'Istituto di Ricerche sulla Pubblica Amministrazione.

--
Versione originale pubblicata su "StartMAG" il 7 settembre 2025.