Pagine

martedì 12 dicembre 2017

MIUR calls, CINI answers: but don't just call it coding !

by Enrico Nardelli

(versione italiana qua)

Not long ago, the Minister of Education, Valeria Fedeli, announced that from 2018 coding (that is, computer programming) would be introduced into primary schools.

There is widespread attention in the media and public opinion to the importance of introducing children to the "digital" world from an early age, but also a great deal of confusion. On one hand, people are seduced by the English term (I wrote about this recently) as though it promised some kind of extraordinary competence for our children; on the other, no distinction is drawn between the scientific, lasting, and formative aspects, and the technological-instrumental ones, which are interesting but transient. I discussed this in the original version (in italian) of this post, whose title — chosen by the editorial team — probably misled readers. While the intention was to highlight the importance of teaching informatics (and not just computer programming), and of calling it by its proper name rather than a fashionable anglicism, the result was the opposite. Several readers objected to the idea of teaching children a skill they associated with the workplace. I return to this point below.

Precisely because of the rather widespread confusion surrounding the teaching of digital skills, we at CINI (the consortium of more than 40 universities engaged in informatics research and teaching) had already been working for some time on how to incorporate informatics education into Italian schools. This is an area in which some countries — the UK, USA, France, and Germany, for example — are already in the implementation phase. In our own country, CINI has been running (now in its fourth year) the Programma il Futuro project, which to date has altogether introduced almost 3 million students to a "serious" informatics education (which we call computational thinking, to avoid the extremely common misunderstanding that teaching informatics means teaching how to use digital tools).

At a recent conference held at the Chamber of Deputies, organised together with the Innovation Inter-group — a cross-party group of Italian MPs (both Deputies and Senators) committed to the country's development beyond ideological divides — we made public our community's proposal, representing more than 1,500 professors and researchers in informatics and informatics engineering, in the presence of MIUR representatives. It is an articulated document, the fruit of a lengthy consultation process that involved not only our own community, but also educationalists and teachers who have long been engaged in teaching informatics in schools.

The document was discussed at the conference alongside educationalists and philosophers, as well as representatives of the business world, given that informatics education has both a cultural and a professional impact. I invite readers to watch the video of the event (in italian) to appreciate the multidisciplinary nature of the contributions, all of an excellent standard.

Before the discussion of the proposal, I presented a recent report on the state of informatics teaching in European schools, prepared by the two principal associations of European informaticians: Informatics Europe (which brings together university departments and corporate research centres) and the ACM Europe Council (the governing body of the European chapter of ACM, the world's largest association of computing professionals and researchers).

Its first and most important recommendation is that all students must have curricular access in school to informatics education (preferably beginning at primary level), since this scientific discipline must form part of the cultural toolkit of every citizen in the digital society. The second is that, to this end, it is essential to provide adequate training for teachers, naturally in different ways depending on the level of schooling. The matter will be discussed again on 15 March 2018 in Brussels with the European Commission.

Let me now return briefly to what teaching informatics in schools actually means, and why it matters. A more detailed treatment can be found in this article published in the journal Communication of the ACM. First of all, let us be clear that it does NOT mean teaching programming. Any more than teaching mathematics means teaching arithmetic. Take primary schools, where the study of mathematics begins with learning the times tables: the aim is not so much to know by heart that 3×2=6 or 12÷4=3, but to understand that if 3 girls have 2 sweets each the total number of sweets is obtained by multiplication, while if 12 biscuits are to be shared among 4 girls the number of biscuits per girl is obtained by division. We are not, therefore, teaching an operational tool so much as a key to understanding reality — "mathematical thinking."

Informatics is a discipline that, like other sciences, has its own particular perspective on the world — its own "conceptual paradigm" through which it describes and explains phenomena. This particular "perspective" is that of "automatic processes of information manipulation." So, just to give a few examples: just as quantity and its relationships are essential concepts for a mathematician, or molecules and reactions for a chemist, so algorithm, language, and automaton are essential concepts for a computer scientist.

It is never superfluous to point out that each of the great scientific paradigms — the human and social sciences, the life sciences, the physical sciences — can be used to describe the same reality, and depending on the case and context, one of them may be the most useful for understanding and explanation, or it may be their combination. Informatics adds a fourth great paradigm, that of "automatic processes of information manipulation," which opens up new and useful ways of explaining what happens across many domains, from biology to economics, from social relations to medicine.

Informatics is therefore not just programming — that is, using a language to give instructions to a computer. It also means understanding how the machine is built — the automaton — that must comprehend our instructions. It means understanding how to express those instructions (the programming language). It means knowing how to develop algorithms capable of expressing those instructions effectively. Our proposal sets out a comprehensive framework for introducing the teaching of this discipline into Italian schools.

Let us now return to the event at the Chamber of Deputies, where the importance of informatics both in schools and in the world of work was discussed.

Some highlights from the first round table on the CINI proposal: it was shown how informatics leads to the creation of tools that change our perception of reality (Simone Martini); the importance of teaching informatics in a way that does not allow the use of tools to erode our sense of "community" and "reality" was stressed (Italo Fiorin); and it was noted that learning tools which make things easy, without understanding how and why they work, is nothing more than an illusion of education (Giovanni Salmeri).

In the second round table, the legislative action taken to support the digital development of Italian businesses was acknowledged and welcomed, while agreement was reached on establishing a forum for dialogue between universities and industry — so that, while respecting the different time horizons within which each operates, educational solutions can be defined that prepare people for an active professional life throughout their entire careers, while at the same time helping companies navigate this epochal social transformation without delay.

I always emphasise that the productive automation brought about by informatics (the so-called "digital enterprise") is radically different from traditional industrial automation. The latter was essentially the replacement of people's physical actions with the power of machines, under the guidance of human cognitive faculties. Digital automation, by contrast, is the replacement of human cognitive capacities with a machine — one that, however, will never be as intelligent as a human being, even if it processes data far more quickly.

This is a cultural problem: unless we truly grasp how deeply this is true, no digital innovation will ever produce the results we hope for.

--
The original version (in italian) has been published by "Il Fatto Quotidiano" on 20 December 2017.

MIUR chiama, CINI risponde: ma non chiamatelo coding !

di Enrico Nardelli

(english version here)

Poco tempo fa la ministra dell'Istruzione, Valeria Fedeli, ha dichiarato che dal 2018 il coding (cioè la programmazione informatica) verrà introdotto nelle scuole primarie.

Sull'importanza di educare i bambini fin da piccoli al "digitale" c'è vasta attenzione sui media e nella pubblica opinione, ma anche molta confusione. Da un lato ci si fa affascinare dal termine inglese (ne ho scritto recentemente) come se promettesse chissà quale mirabolante competenza ai nostri figli, dall'altro non si distingue tra gli aspetti scientifici, duraturi e formativi, e quelli tecnologici-strumentali, interessanti ma temporanei. Ne ho discusso nella versione iniziale di questo post, il cui titolo – deciso dalla redazione – ha probabilmente fuorviato il lettore. Mentre infatti l’intento era di mettere in rilievo l’importanza di insegnare l’informatica (e non soltanto la programmazione informatica), e chiamandola col suo nome e non con l’inglesismo di moda, il risultato è stato l’opposto. Diversi lettori hanno infatti contestato la necessità di insegnare a bambini e ragazzi un’abilità tipicamente lavorativa. Ritorno nel seguito su questo aspetto.

Proprio per la confusione un po’ dilagante in materia di insegnamento delle competenze digitali, avevamo già da tempo iniziato a ragionare come CINI (il consorzio delle più di 40 università che fanno ricerca e didattica in informatica) su come inserire la formazione informatica nella scuola italiana. Si tratta di un aspetto su cui alcuni paesi, per esempio UK, USA, Francia, Germania sono già in fase realizzativa. Nel nostro paese, il CINI sta portando avanti (questo è il quarto anno) il progetto Programma il Futuro, che finora ha complessivamente avvicinato quasi 3 milioni di studenti ad una formazione informatica "seria" (che chiamiamo pensiero computazionale per evitare l’equivoco in cui moltissimi incorrono che insegnare l’informatica significhi insegnare l’uso degli strumenti digitali).

In un recente convegno presso la Camera dei Deputati, organizzato con l'Intergruppo Innovazione, un gruppo bipartisan di deputati e senatori che hanno a cuore lo sviluppo del Paese al di là degli steccati ideologici, abbiamo reso pubblica la proposta della nostra comunità (più di 1500 tra professori e ricercatori in informatica e ingegneria informatica) alla presenza del MIUR. Si tratta di un documento articolato e frutto di una lunga fase di consultazione, che ha coinvolto non soltanto la nostra comunità, ma anche pedagogisti e docenti da tempo impegnati nell'insegnamento dell'informatica nella scuola.

Il documento è stato discusso durante il convegno con pedagogisti e filosofi, nonché con rappresentanti del mondo imprenditoriale, dal momento che la formazione informatica ha un impatto sia culturale che professionale.  Invito a rivedere il video dell'evento per cogliere la multidisciplinarietà degli interventi, tutti di eccellente livello.

Prima della discussione della proposta ho presentato un recente rapporto sullo stato dell’insegnamento dell’informatica nelle scuole europee, preparato dalle due principali associazioni di informatici europei: Informatics Europe (che raggruppa dipartimenti universitari e centri di ricerca aziendali) e ACM Europe Council (Consiglio Direttivo della sezione europea dell'ACM, la maggiore associazione mondiale di professionisti e studiosi).

La sua prima e più importante raccomandazione  è che tutti gli studenti devono avere accesso curriculare nella scuola alla formazione in Informatica (iniziando preferibilmente alla primaria), dal momento che questa disciplina scientifica deve far parte del bagaglio culturale di ogni cittadino della società digitale. La seconda è che, a questo scopo, è necessario formare adeguatamente gli insegnanti, ovviamente in modo diverso per i diversi ordini di scuola. Se ne riparlerà il 15 marzo 2018 a Bruxelles con la Commissione Europea.

Ritorno adesso a discutere brevemente cosa vuol dire insegnare informatica nella scuola e perché sia importante. Potete trovare una trattazione più estesa in questo articolo apparso sulla rivista Mondo Digitale dell’AICA. Prima di tutto chiariamo che NON vuol dire insegnare la programmazione. Non più di quanto insegnare la matematica voglia dire insegnare a fare i conti. Prendiamo le scuole elementari in cui si inizia a studiare matematica imparando la tavola pitagorica: il fine non è tanto sapere a memoria che 3x2=6 o 12:4=3, quanto capire che se 3 bambine hanno 2 caramelle ciascuna il numero totale di caramelle si ottiene con la moltiplicazione, mentre se 12 biscotti devono essere distribuiti a 4 bambine il numero di biscotti per bambina si ottiene con la divisione. Non stiamo quindi tanto insegnando uno strumento operativo, quanto una chiave di comprensione della realtà (“il pensiero matematico”).

L’informatica è una disciplina che, come altre scienze, ha il suo particolare punto di vista sul mondo, il suo “paradigma concettuale” in base al quale descrive e spiega i fenomeni. Tale particolare “punto di vista” è quello dei “processi automatici di manipolazione dell’informazione”. Quindi, giusto per fare alcuni esempi, così come sono concetti essenziali per un matematico la quantità e le loro relazioni o per un chimico le molecole e le reazioni, così sono concetti essenziali per un informatico quelli di algoritmo, linguaggio, automa, e così via.

Non è mai inutile sottolineare che ognuno dei grandi paradigmi scientifici (scienze umane e sociali, scienze della vita, scienze fisiche) può essere usato per descrivere la stessa realtà, ed a seconda dei casi e dei contesti uno di essi può essere quello più utile per la comprensione e la spiegazione oppure può esserlo la loro combinazione. L’informatica aggiunge un quarto grande paradigma, quello dei “processi automatici di manipolazione dell’informazione”, che permette di aggiungere nuovi e utili modi per spiegare quanto accade in molti ambiti, dalla biologia all’economia, dalle relazioni sociali alla medicina.

Informatica non è quindi solo programmazione: questa è usare un linguaggio per dare istruzioni ad un computer. Serve capire com’è fatta questa macchina (l’automa) che deve comprendere la nostre istruzioni. Serve anche capire in che modo esprimere queste istruzioni (il linguaggio di programmazione). Serve sapere come elaborare algoritmi in grado di esprimere efficacemente queste istruzioni. La nostra proposta indica uno scenario completo per l’inserimento dell’insegnamento di questa disciplina nella scuola italiana.

Ritorniamo adesso a parlare dell’evento presso la Camera dei Deputati in cui si è discusso dell’importanza dell’informatica sia nella scuola che nel mondo del lavoro.

Alcune istantanee della prima tavola rotonda sulla proposta CINI: si è evidenziato come l'informatica conduca a costruire strumenti che cambiano la percezione della realtà (Simone Martini), richiamato l'importanza di insegnare informatica senza che poi l'uso degli strumenti conduca a perdere la dimensione del "noi" e della "realtà" (Italo Fiorin), ricordato che apprendere strumenti che rendono facili le cose senza faticare per apprendere il come e il perché essi funzionino sia solo un'illusione di formazione (Giovanni Salmeri).

Nella seconda, si è da un lato ricordata ed apprezzata l’azione legislativa di supporto allo sviluppo digitale delle imprese italiane, e dall’altro convenuto di avviare un tavolo di confronto tra università e imprese affinché, nel rispetto del diverso orizzonte temporale con cui esse operano, si definiscano soluzioni formative che preparino ad essere attivi professionalmente per tutta la vita lavorativa e, al tempo stesso, aiutino rapidamente le aziende in questa epocale trasformazione sociale.

Ricordo sempre che l’automazione produttiva derivante dall’informatica (la cosiddetta “impresa digitale”) è radicalmente diversa dalla tradizionale automazione industriale. Quest’ultima è stata essenzialmente la sostituzione dell’azione fisica delle persone con la forza delle macchine, sotto la guida delle facoltà cognitive delle persone. L’automazione digitale è invece la sostituzione delle capacità cognitive dell’uomo con una macchina, che però non sarà mai intelligente come un essere umano, anche se elabora dati molto più velocemente.

È un problema culturale: se non si capisce quanto profondamente questo è vero, nessuna innovazione digitale produrrà davvero gli effetti sperati.

-----
Versione originale pubblicata sul "Il Fatto Quotidiano" il 20 dicembre 2017

mercoledì 1 novembre 2017

Digital hygiene: basic rules of prevention

di Isabella Corradini e Enrico Nardelli

Digital hygiene, a weird title. If taken literally, it would imply cleaning our digital instruments. Maybe we should talk about it, as mobile phones, smartphones and tablets are now part of the human body and we take them everywhere, since we both need them and are addicted to them (worthless to deny it), and their cleaning is not always treated with the same attention we use for ourselves.

Actually, we are talking about hygiene in the traditional sense. Hygiene rules have been taught since our childhood and they are one of the prevention measures that have most contributed over the last two centuries to lengthen the average life span. But in the digital world it is not so usual to hear these words. People sometimes use the expression digital hygiene to refer to how they relate to others in social networks or how not to become slaves of their own devices, but that’s not our interpretation.

In our view, this expression has instead to be used in a way similar to what happens in the physical world, where hygiene norms are appropriate for preventing illness. Here, the discovery by Hungarian physician Ignaz Semmelweis was crucial in the mid-nineteenth century, and thousands of women’s lives were saved. He observed that, washing his hands after an autopsy and before assisting women in labour, the frequency of their mortality was enormously reduced. Hence, washing one’s own hands became the fundamental ritual before starting surgical operations. This didn’t happen overnight, though, since it took a few decades – as is sometimes the case – for this discovery to be accepted and spread.

By extension, it became one of the basic tenets taught to all children: “Wash your hands ” is still the rule before going to the table and, more generally, whenever one comes home. The fundamental motivation is that “out there” there is a world that can be hostile because of microbes and infections, and it’s important to take countermeasures.

While in the physical case this message is widely accepted and socially shared, unfortunately the digital version of the same prevention message is less immediate. For example, how many people are still inserting unknown USB sticks or opening unknown attachments on their devices (PCs, tablets, or smartphones) without being aware that they can be infected?

The analogy is entirely true: the digital world is populated by “life forms” that are not always benign towards our “digital self”. Viruses and worms, for example, continue to spread at an alarming rate, and current precautions do not seem to be sufficiently effective.

A partial justification is that the evolution of these digital organisms has proceeded at an elusive speed for humans. For traditional physical hygiene rules the present generation has benefitted from their parents’ education, while for digital hygiene we have not yet developed the adequate “sensors”.

Of course, digital hygiene rules can be annoying, and even limit our range. Some people would say that they are obvious and it is pointless to repeat them. Not so, since there are still people who insert pen drives into their computers without thinking.

Terminology used in the digital context does not help to understand the importance of these rules. In fact, using words like “virtual” or prefixes like “cyber” drives people away from a real perception of physical dangers, so they think that digital hygiene standards are irrelevant.

Probably the best way to make people understand, accept and apply the digital hygiene rules is to establish a connection to the analogous hygiene rule in the physical world. People could thus better understand that what happens in their PCs and their mobile devices is not virtual but real, as its consequences are.

People’s awareness could just start from here.


----
Article first published on BroadBand4Europe, October 18th, 2017 (archived copy, the original site is no more available).

There is also an italian version.

venerdì 20 ottobre 2017

From coding to Borges

by Enrico Nardelli

(versione italiana qua)

As schools and universities resume their activities this autumn, the idea that coding (that is, computer programming) is the new English is gaining ground across the education system.

Bocconi University led the way, making a programming exam compulsory for all undergraduate students. More than three years ago I criticised the linguistic laziness of using an English term in place of its Italian equivalent. I was neither the first nor the last to do so, but I want to reiterate that using our own language means upholding our social and cultural identity. And identities matter for respecting differences. Biology and physics have been teaching us for millions of years that richness in systems emerges only from differentiation.

Several newspapers picked up and amplified this concept — communicatively very simple, but conceptually entirely wrong — and called for the introduction of coding in schools as well. I will explain briefly why this framing is mistaken.

Since computer programming consists of giving instructions to a computer, it can seem as though learning a programming language is the same as learning a new language. Just as it makes sense to learn Chinese or English given that around a billion people speak each, so — with several billion technological objects in the world that are computers — it seems useful to learn "the language of computers."

The problem is that language is merely the tool through which thought is expressed. Not being a linguist, I will not weigh in on whether the Sapir-Whorf hypothesis (the idea that spoken language shapes the speaker's cognitive system) is true or not. But it is perfectly clear to everyone that what determines the success of an entrepreneur or a professional is not so much knowing English as their skills and abilities in their specific field.

Knowing a programming language is therefore not enough to understand the digital world. It is an illusion to think otherwise. Just as a linguistic expression is only a representation of thought, so a computer program is merely the form through which we give concrete shape to "the way a computer scientist thinks" — that is, computational thinking.

What should therefore be taught, in schools even before universities, is the discipline that fosters the development of this way of thinking — that is, informatics. This is necessary for understanding the scientific foundations of the digital world, and for navigating today's society in a more informed and competent way.

However, the loyal reader — or the critical one who asks "let's see what Nardelli has written on this subject" and does a little research — might object: "but you yourself have spoken of computational thinking as a new language for describing the world and of Informatics: the new Latin that everyone loves. Aren't those languages?"

Human communication is, unfortunately, extremely slippery terrain. An expression can in some cases be a chisel that carves exactly the desired profile, but in others it can take on entirely different meanings. The latter can be an advantage that makes it possible to achieve broad consensus, but it becomes a weakness when it comes to establishing shared foundations and agreeing on common action. The world of scientific knowledge uses mathematical language precisely because it is the only one that brings only benefits, without drawbacks. In communication between people, there is no alternative to calm, reasoned discussion.

In those earlier articles I used the term "language" in the sense in which "mathematics" is often used to denote a "language" capable of describing quantities and relationships with absolute precision. To use somewhat philosophical terms, I used "language" as a synonym for "epistemological paradigm" — or, in plain words, as a synonym for "a key to reading reality." So when I say that "computational thinking provides a new language for describing the world," I am saying that through it we can describe certain phenomena "as if" they were computations. This does not necessarily mean that they actually are, but informatics offers new and useful ways of analysing and explaining reality. A prime example is the description of biological processes at the molecular level: the mechanism of DNA replication can also be viewed "as if" it were a computation, and this has offered enormous advantages for understanding it. Examples of the usefulness of the informatics approach can also be found in economics and sociology.

Let me return to the importance of teaching "how a computer scientist thinks" from school age onwards, with an example drawn from mathematics. In primary school we teach children "to do sums" — not so much because the goal is to learn that 3×2=6 or 12÷4=3, that is, the times table, but because it is important for children to understand that if 3 girls have 2 sweets each the total number of sweets is obtained by multiplication, while if 12 biscuits are to be shared among 4 girls the number of biscuits per girl is obtained by division. We are not, therefore, teaching an operational tool so much as a key to understanding reality — "mathematical thinking."

And why should it be taught in schools? other readers might ask, pointing out that children today are all digital natives who already speak "the language of computers." I have already explained that what is at stake is not teaching a language but a way of thinking.

Moreover, as Giorgio Israel had already noted, the expression "digital natives" simply refers to those who were born into a digital society. Extending this term to imply an "innate" capacity for understanding that world is one of the pitfalls of communication that we must be alert to — especially when we are talking about the majority of the school-age population, and not letting ourselves be dazzled by the exceptions that most easily find space in the mass media.

Young people, partly thanks to the greater amount of time available to them compared to adults, and to a curiosity that is still very much alive, often manage to surprise us with these devices. Yet without adequate education, their understanding of a technology more complex than anything else ever built by human hands remains only superficial. Ask in schools what the difference is between Google (the search engine) and the Internet, and you will see. Of course, human beings are intelligent enough to navigate the world around them without a complete rational explanation of how it works — but in this case we are not dealing with a "book of nature" that is hard to read, but with an extremely complex technological infrastructure, built by people for people, where the choice is between shaping your own future or having it imposed on you.

Added to this is the difficulty — the result of deliberate market choices by the manufacturers of modern computing devices — of "getting one's hands dirty" to "see what happens if." In the decades following the Second World War, the country's productive fabric was rebuilt partly because enterprising young people could dismantle, study, and reassemble machinery in order to reproduce and improve it. All of this is impossible with today's plug-and-play smart devices, which is one of the reasons why open solutions both at the hardware level (such as Arduino) and the software level (such as Linux) should be the absolute standard for schools.

I will close by observing that it is not only the complexity of technology that eludes so-called "digital natives" and cannot be acquired through a simple coding course. "Thinking like a computer scientist" (to quote Jeannette Wing) — that is, possessing the intellectual tools that remain after studying informatics — is necessary for understanding that the productive automation brought about by informatics (the so-called "digital enterprise") is radically different from traditional industrial automation.

The latter was essentially the replacement of people's physical actions with the power of machines, under the guidance of human cognitive faculties. Digital automation is the replacement of human intelligence with a machine: this is a dramatic paradigm shift that contemporary society has not yet fully absorbed or understood. One of the essential capacities of human intelligence is adaptability to changes in the environment — the flexibility to handle new or modified requirements. People have an innate ability to evolve in response to change and to learn from their mistakes. Computer systems do not.

To borrow a metaphor introduced by Umberto Eco, computer systems are like that "Funes el memorioso" described by Jorge Luis Borges — a character capable of remembering and correlating every last detail of his existence, yet almost incapable of general ideas, of actual thought. In a world where it is no longer necessary to remember, because any piece of information is easily retrievable; where the manipulation of symbols can be repeated at fantastic speed and negligible cost — the ability to ask the right questions and find innovative solutions is what will make the difference. Informatics (the science, not the technology) is one — though not the only — powerful gymnasium for this. A humanities education is another.

Without either glorifying or demonising the use of digital technologies in the classroom — a complex scenario to be approached with a critical and questioning mindset — it is worth noting that there is scientific evidence that the availability of devices that keep us constantly connected impairs cognitive abilities (the so-called brain drain effect). It is no coincidence that in Silicon Valley — whose inventions have brought the future into the present — the children of the ruling class have for many years now been educated in schools with no smartphones or tablets, but with paper books and laboratories.

--
The original version (in italian) has been published by "Il Fatto Quotidiano" on 17 October 2017.

Dal coding a Borges

di Enrico Nardelli

(english version here)

In questa ripresa autunnale delle attività del mondo dell’istruzione si va diffondendo, dalla scuola all’università, il concetto che il coding (cioè la programmazione informatica) sia il nuovo inglese.

Ha iniziato la Bocconi, imponendo a tutti gli studenti della triennale l’esame di programmazione. Ho stigmatizzato più di tre anni fa la sciatteria linguistica dell’usare un termine inglese al posto dell’equivalente italiano. Non sono stato né il primo né l’ultimo, ma ci tengo a ribadire che usare la nostra lingua significa sostenere la nostra identità sociale e culturale. E le identità sono importanti per rispettare le differenze. La biologia e la fisica da milioni di anni ci insegnano che solo dalla differenziazione nasce la ricchezza dei sistemi.

Diversi giornali hanno ripreso e rilanciato questo concetto, comunicativamente molto semplice, ma concettualmente del tutto sbagliato, ed hanno invocato l’introduzione del coding anche nelle scuole. Spiegherò in modo sintetico perché questa formulazione sia errata.

Poiché la programmazione informatica consiste nel dare istruzioni ad un computer, può sembrare che imparare un linguaggio di programmazione sia la stessa cosa dell’imparare una nuova lingua. Così come con circa un miliardo di persone che parlano cinese o inglese ha senso imparare una di queste lingue, così con diversi miliardi di oggetti tecnologici al mondo che sono computer sembra utile imparare “la lingua dei computer”.

Il problema è che la lingua è solo lo strumento mediante il quale viene espresso il pensiero. Non essendo un linguista, non discuto se l’ipotesi di Sapir-Worf (la lingua parlata condiziona il sistema cognitivo del parlante) sia vera o meno. Ma è ben chiaro a tutti che non è tanto il sapere l’inglese che determina il successo di un imprenditore o di un professionista, quanto le sue competenze e abilità nel suo specifico campo.

Non basta quindi conoscere un linguaggio di programmazione per capire e comprendere il mondo digitale. È illusorio e sbagliato pensarlo. Così come un’espressione linguistica è solo una rappresentazione del pensiero, così un programma informatico è solo la forma mediante cui rendiamo concreto il “modo di pensare di un informatico”, cioè il pensiero computazionale.

Ciò che quindi dovrebbe essere insegnato, nelle scuole ancor prima che nelle università, è la disciplina che favorisce lo sviluppo di questo modo di pensare, cioè l’informatica. Questo è necessario per comprendere le basi scientifiche del mondo digitale, per sapersi orientare nella società odierna in modo più informato e competente.

Però il lettore fedele, o quello critico che si pone la domanda «ma vediamo un po’ che ha scritto il Nardelli su questo tema» e fa un po’ di ricerca, potrebbero obiettare: «scusa, ma tu stesso hai parlato del Pensiero computazionale come nuovo linguaggio per la descrizione del mondo e di Informatica: il nuovo latino che tutti amano». Non sono linguaggi?

Purtroppo la comunicazione umana è terreno estremamente scivoloso. Un’espressione può essere in certi casi uno scalpello che incide esattamente il profilo voluto, ma in altri casi può assumere significati estremamente diversi. Quest’ultimo può essere un vantaggio che permette di ottenere un vasto consenso, ma si trasforma in debolezza quando si tratta di assumere basi condivise e concordare azioni comuni. Il mondo della conoscenza scientifica utilizza un linguaggio matematico proprio perché è l’unico che apporta solo benefici, senza danni. Nella comunicazione tra persone non c’è alternativa alla discussione serena ed argomentata.

In quei precedenti articoli ho usato il termine “linguaggio” nel significato con cui spesso si usa il termine “matematica” per denotare un “linguaggio” in grado di descrivere con assoluta esattezza quantità e relazioni. Per usare termini un po’ filosofici, ho usato “linguaggio” come sinonimo di “paradigma epistemologico”. Detto in parole povere, come sinonimo di “chiave per la lettura della realtà”. Quindi dicendo che “il pensiero computazionale fornisce un nuovo linguaggio per la descrizione del mondo” sto dicendo che mediante di esso è possibile descrivere alcuni fenomeni “come se” fossero delle computazioni. Non è detto che lo siano effettivamente, ma attraverso l’informatica si hanno nuovi e utili modi per analizzare e spiegare la realtà. Un esempio lampante è la descrizione dei processi biologici a livello molecolare: il meccanismo di replicazione del DNA può anche essere visto “come se” fosse una computazione, e questo ha offerto enormi vantaggi per la sua comprensione. Anche in economia e in sociologia si trovano esempi dell’utilità dell’approccio informatico.

Ritorno sull’importanza di insegnare già nella scuola “come pensa un informatico” con un esempio preso dalla matematica. Nelle elementari insegniamo “a far di conto” non tanto perché il fine sia imparare 3x2=6 o 12:4=3, cioè la tavola pitagorica, quanto perché è importante che il bambino capisca che se 3 bambine hanno 2 caramelle ciascuna il numero totale di caramelle si ottiene con la moltiplicazione, mentre se 12 biscotti devono essere distribuiti a 4 bambine il numero di biscotti per bambina si ottiene con la divisione. Non stiamo quindi tanto insegnando uno strumento operativo, quanto una chiave di comprensione della realtà (“il pensiero matematico”).

E perché andrebbe insegnata nella scuola? potrebbero chiedere altri lettori, osservando che bambine e bambini sono ormai tutti nativi digitali che già parlano “la lingua dei computer”. Ho già spiegato che non si tratta di insegnare un linguaggio ma un modo di pensare.

Inoltre, come aveva già evidenziato Giorgio Israel, l’espressione “nativi digitali” indica semplicemente coloro che sono nati in una società digitale. Estendere tale denotazione a suggerire una loro capacità di comprensione “innata” di tale mondo è una delle insidie della comunicazione di cui dobbiamo essere avvertiti. Soprattutto se parliamo della maggioranza della popolazione scolastica e non ci facciamo abbagliare dalle eccezioni che sono quelle che più facilmente trovano spazio sui mass media.

I ragazzi, grazie anche alla maggiore quantità di tempo a disposizione rispetto agli adulti e ad una curiosità ancora vivissima, spesso riescono con questi dispositivi a sorprenderci. Però, la comprensione che hanno di una tecnologia più complessa di qualunque altra costruita dall’uomo è solo apparente, in assenza di un’adeguata istruzione. Chiedete nelle scuole la differenza tra Google (il motore di ricerca) ed Internet e vedrete. Per carità, gli esseri umani sono così intelligenti che possono usare il mondo intorno a loro anche senza una spiegazione razionale completa di come funziona, ma in questo caso non si tratta di un “libro della natura” difficile da leggere, ma di un’infrastruttura tecnologica estremamente complessa, costruita da persone per le persone, in cui l’alternativa è tra creare il proprio futuro o farselo imporre.

A questo si aggiunge la difficoltà, per precise scelte di mercato dei produttori dei dispositivi informatici moderni, di “mettere le mani in pasta” per “vedere che accade se”. Nei decenni successivi alla seconda guerra mondiale, il tessuto produttivo del Paese è stato riscostruito anche grazie al fatto che una gioventù intraprendente poteva smontare, studiare e rimontare macchinari, per riprodurli e migliorarli. Tutto questo è impossibile con le soluzioni “chiavi in mano” degli strumenti smart di oggi ed è uno dei motivi per i quali, invece soluzioni “aperte” sia a livello hardware (tipo Arduino) che software (tipo Linux) dovrebbero essere lo standard assoluto per la scuola.

Concludo osservando che non è solo la complessità della tecnologia che sfugge ai cosiddetti “nativi digitali” e non può essere conseguita da un semplice corso di coding. Il “pensare come un informatico”, cioè il possedere quegli strumenti intellettuali che rimangono dopo aver studiato informatica, è necessario per capire che l’automazione produttiva derivante dall’informatica (la cosiddetta “impresa digitale”) è radicalmente diversa dalla tradizionale automazione industriale.

Quest’ultima è stata essenzialmente la sostituzione dell’azione fisica delle persone con la forza delle macchine, sotto la guida delle facoltà cognitive delle persone. L’automazione digitale è la sostituzione dell’intelligenza umana con una macchina: si tratta di un drammatico cambiamento di paradigma che la società contemporanea non ha ancora pienamente assorbito e compreso. Una delle capacità essenziali dell’intelligenza umana è l’adattabilità ai cambiamenti dell’ambiente, la flessibilità nel gestire esigenze nuove o modificate. Le persone hanno una capacità innata di evolversi per fronteggiare l’evoluzione e di imparare dagli errori. I sistemi informatici non ce l’hanno.

Riprendendo una metafora introdotta da Umberto Eco, i sistemi informatici sono come quel “Funes el memorioso” descritto da Jorge Luis Borges, che era in grado di ricordare e correlare ogni più minimo dettaglio della sua esistenza ma quasi incapace di idee generali, di pensare. In un mondo in cui non è più necessario ricordare, perché ogni informazione è facilmente reperibile, in cui la manipolazione di simboli può essere ripetuta a velocità fantastica ed a costi irrisori, la capacità di porsi le giuste domande e di trovare soluzioni innovative è ciò che farà la differenza. L’informatica (la scienza, non la tecnologia) è una (non l’unica) palestra potente. L’istruzione umanistica è un’altra.

Senza esaltare né demonizzare l’uso delle tecnologie digitali in classe, scenario complesso da affrontare con un approccio critico-problematico, è bene ricordare che vi sono evidenze scientifiche che la disponibilità di strumenti che ci consentono di essere sempre connessi disturba le capacità cognitive (il cosiddetto effetto brain drain). Non è un caso che in quella Silicon Valley le cui invenzioni hanno reso il futuro presente, da molti anni ormai i figli della classe dirigente studiano in scuole senza smartphone né tablet ma con libri di carta e laboratori.


-----
Versione originale pubblicata su "Il Fatto Quotidiano" il 17 ottobre 2017.

sabato 15 luglio 2017

Quanto ne sanno i consumatori di intelligenza artificiale?

di Isabella Corradini

Non c’è dubbio che il tema dell’Intelligenza Artificiale (IA) sia oggetto di grande interesse e di numerosi dibattiti. Le sue potenzialità sono di particolare attrattività per il mondo aziendale in quanto potrebbero rivoluzionare il modo di erogare i servizi alla clientela, e non solo. Ma cosa ne pensano i consumatori?

Nell’ambito di uno studio globale condotto su 6.000 soggetti adulti da Pegasystems, società operante nell’ambito delle soluzioni di Customer Engagement, è emerso un quadro interessante. In particolare, prevale un sentimento di “confusione” nell’interagire con l’IA. Ad esempio, solo il 34% del campione ha dichiarato di averne avuto esperienza diretta, per poi scoprire che in realtà fa già uso nel quotidiano di diversi dispositivi e servizi basati sull’Intelligenza Artificiale.
In questo modo la percentuale sale all’84%. In generale, comunque, dallo studio





emerge, allo stato attuale, una scarsa consapevolezza dei consumatori su cosa sia effettivamente l’Intelligenza Artificiale e sulle sue funzionalità. Se ne parla molto, ma un conto è parlarne da esperti, un conto è spiegare l’IA agli utenti, non sempre padroni del linguaggio tecnologico.

Si tratta di un punto basilare, dal quale può dipendere il comportamento di diffidenza o di apertura verso l’Intelligenza Artificiale. Da un lato, infatti, più del 70% del campione intervistato nutre un certo timore nei confronti dell’AI, dall’altro invece, il 68% dichiara la disponibilità a sperimentarne di più, se ciò dovesse facilitare la vita di tutti i giorni, ad esempio facendo risparmiare tempo e denaro. Diventa dunque indispensabile informare correttamente i consumatori sul tema; e magari dovrebbero essere proprio le imprese a farlo, sia per il fatto che stanno investendo molto in questo campo, sia perché la diffusione di prodotti e servizi è comunque legata al senso di fiducia dei consumatori.

A questo punto, però, sarebbe opportuno attivarsi per una maggiore chiarezza non solo riguardo ai vantaggi dell’IA, ma anche ai possibili rischi. Insomma, far conoscere la reale portata del cambiamento permetterebbe alle persone di decidere, e questa volta con consapevolezza.

Pubblicato su Bancaforte l'8 giugno 2017.

lunedì 29 maggio 2017

"The great beauty" of Informatics

by Enrico Nardelli

(versione italiana qua)

All science is built on abstractions: explaining phenomena through models that describe them. When a physicist writes the equation representing the motion of a body, or a chemist the reaction that explains the formation of a substance, or a biologist describes the developmental process of an organism, they are all constructing a model — that is, a representation of reality.

They are therefore using abstraction: focusing on what is essential from the perspective adopted, and what is common to all the specific examples described by the model itself.

Thus, under certain conditions that must be clearly specified — since abstractions are not always valid in 100% of possible scenarios — what the material of the moving bodies is made of is not decisive for the physicist, nor is the colour of the reacting substances for the chemist, nor the country in which the developing organism is found for the biologist.

Abstraction is generally formulated in mathematical language, since that discipline is indispensable wherever precision and rigour are required. Scientific reasoning must necessarily conform to the logical canons of consistency and consequentiality, or it steps outside this paradigm of knowledge.

Informatics too makes extensive use of abstraction, but in doing so it is distinguished by a characteristic that it alone possesses — and which constitutes, in my view, the reason for its "great beauty." The abstractions of informatics can be executed mechanically. This means they can be brought to life — one can "animate them and see what happens" — without having to build a new physical representation of the abstraction itself each time. In other disciplines too, abstractions can be brought to life through physical objects that express the modelled phenomena, thereby giving substance to their logical-mathematical expression. But for each model, a dedicated set of objects must be constructed.

In informatics, thanks to its foundational abstraction — whose technical name is the "Universal Turing Machine" (UTM) — we have a single, unique mechanism through which, always in the same way, any model can be "mechanically" (that is, in a fully automatic manner) "executed" (that is, brought to life), without any further human intervention. The PCs, smartphones, and tablets that surround us are nothing other than technologically very sophisticated realisations of the UTM.

In describing this uniqueness of informatics, I obviously do not mean to argue that it is more important than, or can replace, other scientific disciplines. Anyone who ventures down that path invites childish and sterile controversy. I simply want to reiterate the necessity of informatics being taught in schools, as other countries are already doing — because it offers a new, complementary, and useful perspective for describing natural and artificial phenomena.

In Italy we use the term "computational thinking" for this purpose, sometimes provoking reactions that are more emotional than rational. But the expression, as I have often discussed, is simply a way of making clear that we are talking about informatics as a science — its ideas, principles, concepts, methods, and approaches — and not about systems, technologies, and tools. In other countries this need does not arise, because one can speak of "computer science" and "information technology" as distinct things. In Italy, both are "informatica."

Computational thinking is the capacity, acquired by those who have studied and practised informatics, to recognise the computational aspects of natural and artificial phenomena. It means describing certain aspects of these phenomena "as if" they were computations. This does not necessarily mean that they actually are, but in any case this approach offers new and useful ways of analysing and explaining reality. A prime example is the description of biological processes at the molecular level: the mechanism of DNA replication can also be viewed "as if" it were a computation, and this has offered enormous advantages for understanding it. Examples of the usefulness of this approach can also be found in economics and sociology.

Reality, then, can be described in many ways, and the informatics approach, thanks to its ability to capture the computational dimension of phenomena, is certainly one of them.

--
The original version (in italian) has been published by "Il Fatto Quotidiano" on 27 May 2017.

La "grande bellezza" dell'informatica

di Enrico Nardelli

(english version here)

Tutta la scienza è basata su astrazioni: spiegare fenomeni mediante modelli che li descrivono. Quando un fisico scrive l’equazione che rappresenta il moto di un corpo, o un chimico la reazione che spiega la formazione di una sostanza, o un biologo descrive il processo di sviluppo di un organismo, stanno tutti costruendo un modello, cioè una rappresentazione della realtà.

Stanno quindi usando l’astrazione: il concentrarsi su ciò che è essenziale per il punto di vista assunto ed è comune a tutti gli specifici esempi descritti dal modello stesso.

Così, sotto certe condizioni che vanno specificate chiaramente, dal momento che le astrazioni non sono sempre valide nel 100% dei possibili scenari, per il fisico non è determinante la materia di cui sono fatti i corpi che si muovono, o per il chimico il colore delle sostanze che reagiscono o per il biologo la nazione in cui si trova l’organismo che si sviluppa.

Generalmente l’astrazione viene formulata in un linguaggio matematico, dal momento che tale disciplina è necessaria ovunque servano precisione e rigore. Un ragionamento scientifico deve necessariamente rientrare nei canoni logici di coerenza e consequenzialità, pena la sua uscita da questo paradigma della conoscenza.

Anche l’informatica usa estesamente l’astrazione, ma in questo suo utilizzo si distingue per una caratteristica che essa sola possiede e che ne costituisce, a mio parere, la ragione che spiega la sua “grande bellezza”. Le astrazioni dell’informatica sono eseguibili in modo meccanico. Vuol dire che possono essere animate, cioè si può “dar loro vita e vedere che accade” senza dover ogni volta costruire una nuova rappresentazione fisica dell’astrazione stessa. Anche nelle altre discipline si può dar vita alle astrazioni mediante oggetti fisici che esprimono i fenomeni modellati, sostanziandone così la loro espressione logico-matematica. Ma per ogni modello va realizzato ad hoc un insieme di oggetti.

Nell’informatica, grazie alla sua astrazione fondamentale, il cui termine tecnico è “Macchina Universale di Turing” (MUT), abbiamo un unico meccanismo unico mediante il quale, sempre allo stesso modo, qualunque modello può essere “meccanicamente” (cioè in modo del tutto automatico) “eseguito” (cioè reso vivo), senza necessità di ulteriore intervento umano. I PC, gli smartphone e i tablet di cui siamo circondati non sono nient’altro che realizzazioni tecnologicamente molto sofisticate della MUT.

Descrivendo questa unicità dell’informatica non intendo ovviamente sostenere che sia più importante o possa sostituire altre discipline scientifiche. Chi si avventura su questa strada apre polemiche infantili e sterili. Voglio solo ribadire la necessità che l’informatica sia insegnata nella scuola, come in altri paesi stanno facendo. Perché offre un nuovo, complementare ed utile punto di vista per la descrizione dei fenomeni naturali ed artificiali.

In Italia usiamo a questo scopo il termine “pensiero computazionale”, suscitando a volte reazioni più emotive che razionali. Ma l’espressione, come ho spesso discusso, è solo un modo di far capire che stiamo parlando dell’informatica come scienza, delle sue idee, princìpi, concetti, metodi ed approcci e non di sistemi, tecnologie e strumenti. In altri paesi questa necessità non c’è, perché si può parlare di “computer science” e di “information technology”. In Italia entrambe sono “informatica”.

Il pensiero computazionale è la capacità, acquisita da chi ha studiato e praticato l’informatica, di riconoscere gli aspetti computazionali dei fenomeni naturali ed artificiali. Vuol dire descrivere alcuni aspetti di questi fenomeni “come se” fossero delle computazioni. Non è detto che lo siano effettivamente, ma in ogni caso offrono nuovi e utili modi per analizzare e spiegare la realtà. Un esempio lampante è la descrizione dei processi biologici a livello molecolare: il meccanismo di replicazione del DNA può anche essere visto “come se” fosse una computazione, e questo ha offerto enormi vantaggi per la sua comprensione. Anche in economia e in sociologia si trovano esempi dell’utilità di questo approccio.

La realtà, dunque, può essere descritta in diversi modi e l’approccio informatico, grazie alla sua capacità di coglierne la sfaccettatura computazionale, certamente è uno di questi.



-----
Versione originale pubblicata su "Il Fatto Quotidiano" il 27 maggio 2017.

lunedì 15 maggio 2017

Chi ha paura del pensiero computazionale? (un anno dopo)

di Enrico Nardelli

A distanza di oltre un anno dal precedente articolo “Chi ha paura del pensiero computazionale?” continuo ad incontrare sulla rete espressioni immotivatamente critiche a proposito di questo termine: «Il pensiero computazionale non esiste» oppure «… è una truffa concettuale» o in alternativa «… è una truffa pedagogica e didattica». Altre posizioni lo descrivono come «… passione pedagogica fondata sul nulla» o, se vogliono concedere qualcosa, come «… piccola e preesistente frazione del pensiero scientifico e tecnologico».

È evidente, leggendo più in dettaglio le critiche, che alcune di queste derivano da opinioni politiche in disaccordo con l’attuale gestione della scuola. Idee del tutto lecite, ma che sviluppandosi su un piano politico non tratto in questa sede.

Qui invece analizzo le considerazioni sull’adeguatezza scientifica e/o didattica del termine “pensiero computazionale”. In genere osservo sempre, come ho fatto su questa rubrica e su questa e su questa, che esso ha il solo scopo di far capire che si parla degli aspetti scientifici e culturali dell’informatica, indipendenti dalla tecnologia. Esso quindi fa riferimento alle idee, ai concetti ed ai princìpi dell’informatica e non a sistemi, tecnologie e strumenti. L’obiettivo strategico per cui viene usato in Italia è arrivare a far sì che nella scuola si insegni l’informatica. Non ovviamente quella delle varie patenti di guida o degli applicativi o di specifici linguaggi di programmazione, ma quella che tutto il mondo riconosce come disciplina scientifica autonoma. Ecco una trattazione più estesa di questo punto. In altri paesi questa necessità non c’è, perché si può parlare di “computer science ” e di “information technology ”. In Italia entrambe sono “informatica ”.

Chiedo sempre a chi è in disaccordo di esplicitare in modo esteso e argomentato posizioni di critica non tanto a ciò che scrivo io, perché non si tratta di una questione personale, ma a quello che hanno scritto prestigiose società scientifiche internazionali. Invito quindi a discutere direttamente il cuore del problema, cioè la necessità dell’insegnamento nelle scuole dell’informatica, sostenuta in questi rapporti: The Royal Society, Shut down or restart? The way forward for computing in UK schools (2012) e Académie des Science, L’enseignement de l’informatique en France. Il est urgent de ne plus attendre (2013), anche in inglese.

Ad oggi non ho letto una critica di questi rapporti fondata su di un’analisi approfondita e motivata.

Tornando alle critiche sopra citate, esse sono generalmente basate sulla tecnica dell’ “argomento fantoccio ” (“straw man ” in inglese). Viene cioè criticata non la definizione generalmente accettata di pensiero computazionale (cioè la modalità di pensiero che ha acquisito ed usa per descrivere e spiegare i fenomeni chi ha studiato e praticato l'informatica come disciplina scientifica) ma una propria definizione scelta ad hoc (p.es: «… come pensano i computer»).

Ribadisco che questa non è una mia definizione ma quella usata da eminenti scienziati nei rapporti sopra citati e in altri documenti ancora. Dal momento che gli informatici esistono, il loro specifico punto di vista sul mondo e il loro particolare modo di pensare esistono. Quindi ritengo esagerato e scorretto dire che “il pensiero computazionale non esiste”.

Certamente vi sono perplessità sulla mancanza di una chiara attività di indirizzo su come insegnare informatica nella scuola. I miei colleghi ed io esercitiamo un'azione di stimolo in questa direzione, ma la situazione è ancora in divenire.

Criticare inoltre – come taluni fanno – l’affermazione che il pensiero computazionale abbia una sua posizione di preminenza rispetto ad altre modalità di lettura della realtà è nuovamente usare un argomento fantoccio. L’attività di pensiero assume differenti modalità o sfumature a seconda della formazione della persona. I modi di pensare e di riflettere sul mondo di un letterato, di un musicista, di un fisico, di un biologo, etc., sono tutti ugualmente validi, diversi l'uno dall'altro e complementari. Contribuiscono tutti alla comprensione del mondo.

Il pensiero computazionale, cioè il modo di descrivere la realtà che hanno gli informatici, apporta qualcosa di nuovo e diverso da quello delle altre discipline scientifiche? Sì, come illustrato dagli scienziati nei rapporti sopra citati. Esso è una nuova, distinta ed utile variante del pensiero scientifico e tecnologico, non certo un piccolo sottoinsieme preesistente.

Va insegnato nella scuola come tale? No, va insegnata a scuola la disciplina che lo sviluppa, cioè l'informatica. È quello che si fa negli USA, in UK e in Francia.

Possiamo confrontarci su come farlo, invece che discutere sulle definizioni?

-----
Pubblicato su "Il Fatto Quotidiano" il 3 maggio 2017.

mercoledì 26 aprile 2017

Igiene digitale, norme base di prevenzione

di Isabella Corradini e Enrico Nardelli

Un titolo eccentrico, quello di questo articolo. Farebbe pensare alla pulizia degli strumenti digitali. Forse anche di questo bisognerebbe parlare, visto che cellulari, smartphone e tablet sono ormai parte integrante del corpo umano, vuoi per necessità, vuoi per ragioni di dipendenza (inutile negarlo), e la loro pulizia non è sempre curata con la stessa attenzione.


In realtà stiamo parlando di “igiene digitale” in sé e non di quella degli strumenti. Ed il perché è chiaro pensando all’igiene in senso tradizionale. Le sue regole vengono insegnate fin da bambini e sono tra le misure che più hanno contribuito negli ultimi due secoli ad allungare la durata della vita media. Invece nel mondo digitale (che appare virtuale ma a tutti gli effetti è reale) non si sente mai parlare di “norme d’igiene”. C’è chi con il termine “igiene digitale” si riferisce a come ci si relaziona con gli altri sui social oppure a come non diventare schiavi dei propri dispositivi. Invece, per noi si tratta proprio di norme analoghe a quelle dell’igiene fisica, opportune per prevenire malattie.

In questo ambito fu fondamentale la scoperta del medico ungherese Ignaz Semmelweis intorno alla metà dell’ottocento, grazie alla quale vennero salvate le vite di migliaia di donne. Egli osservò che, lavandosi le mani dopo aver fatto l’autopsia e prima di assistere le partorienti, la frequenza della loro mortalità diminuiva fortemente. Lavarsi le mani diventò il rito fondamentale con cui iniziare le operazioni chirurgiche. Non da subito purtroppo, dal momento che questa scoperta – come a volte avviene – richiese ancora qualche decina d’anni per essere accettate e diffondersi.

Per estensione, divenne la norma fondamentale insegnata a tutti i bambini: “làvati le mani”, era ed è l’intimazione dei genitori prima di mettersi a tavola, ed in generale ogni volta che si rientra a casa. L’assunto igienico fondamentale è che “là fuori” c’è un mondo che può essere ostile in termini di microbi e, a maggior ragione quando si tratta di far entrare qualcosa nel nostro corpo, è opportuno prendere delle contromisure.

Se però nel caso fisico può essere semplice far osservare ad un bambino riottoso lo sporco “sotto le unghie” e quindi convincerlo, per il mondo digitale, purtroppo, il passaggio è molto meno immediato. Quante persone, ad esempio, ancora oggi fanno entrare sul proprio dispositivo (PC, tablet, o smartphone) oggetti fisici (p.es., chiavette USB) o virtuali (p.es., allegati) senza la consapevolezza del loro poter essere “infetti”? È anche vero che l’evoluzione di questi “organismi digitali” è avvenuta con una velocità che l’umanità non ha mai incontrato finora: mentre per gli aspetti fisici la generazione degli attuali genitori ha potuto beneficiare dell’educazione in termini di igiene da parte dei loro genitori, per l’igiene digitale siamo stati tutti immersi di colpo nel giro di neanche vent’anni in un mondo per il quale non abbiamo i sensi adatti.

L’analogia comunque vale interamente: il mondo digitale è popolato di “forme di vita” (lasciateci passare questo termine) che non sempre sono benigne nei confronti nel nostro “io digitale”. Virus e worm ad esempio, continuano a diffondersi a ritmi impressionanti, e le precauzioni non sembrano essere mai sufficienti.

Certo, le regole d’igiene digitale possono essere fastidiose, limitare in alcuni casi il nostro raggio d’azione. Qualcuno dirà che possono apparire scontate e che è inutile stare a ripeterle. In realtà non sono pochi coloro che ancora oggi inseriscono chiavette altrui nei propri dispositivi informatici senza opportune verifiche.

Probabilmente il modo migliore per far capire, accettare ed applicare queste regole al contesto digitale è proprio quello di agganciarle concettualmente al mondo fisico: in questo modo le persone riuscirebbero a comprendere meglio che quello che accade nei loro pc e nei loro dispositivi mobili è reale e non virtuale.

In questi casi, c’è però da osservare che la terminologia impiegata non aiuta. Usare parole come “virtuale” o prefissi come “cyber” allontana le persone dalla reale percezione dei pericoli rispetto al mondo fisico, e fa erroneamente ritenere che le norme d’igiene digitale siano irrilevanti.

Ed è forse proprio da questo che si dovrebbe iniziare.

-----
Pubblicato su "Key4Biz" il 19 aprile 2017.

mercoledì 1 marzo 2017

Passeggeri, marinai o navigatori dell'oceano digitale?

di Enrico Nardelli

Chiunque abbia un po’ di ore di esperienza attiva in barca a vela, sa bene che una cosa è conoscere cosa vuol dire “poggiare” o “mollare la scotta” oppure sapere come fare per “dare volta alla cima sulla bitta” o “dare una mano di terzaroli”. Cosa diversa è stabilire la rotta e far arrivare alla sua destinazione un’imbarcazione a vela con tutto il suo equipaggio superando gli imprevisti. I primi sono “i marinai”, i secondi sono “i navigatori di lungo corso”. Tutti gli altri sono “passeggeri”, che pure devono essere informati su dove mettere mani e piedi e come affrontare il viaggio in sicurezza.

Ritengo che nella società contemporanea il “digitale” rivesta il ruolo che fino a due secoli fa rivestiva la navigazione a vela. Era una componente essenziale della prosperità di una società ed ogni nazione grande (in senso commerciale o militare) aveva di norma una grande flotta (commerciale o militare) di velieri, e viceversa. Avere bravi marinai e navigatori competenti era vitale. Il benessere della nazione dipendeva dall'averne in buon numero sia dei primi che dei secondi ed era ben chiara l’importanza di addestrare sia gli uni che gli altri.

In un post di ormai 3 anni fa avevo introdotto una distinzione tra alfabetizzazione digitale ed educazione digitale, che qui riprendo ed estendo utilizzando il contesto di questo parallelo con la marineria.

L’alfabetizzazione digitale (digital literacy in inglese) dovrebbe essere completamente compiuta, come l’alfabetizzazione propriamente detta, al più tardi al termine della scuola primaria. Così come la parte di alfabetizzazione che ha a che vedere con i numeri è basata sulla matematica, così la sua componente che ha a che vedere con il digitale deve essere basata sull’informatica. Nel paragone marinaresco, essa forma i passeggeri, perché comunque, per cavarsela a bordo di una nave, bisogna essere consapevoli del fatto che non si è più sulla terraferma. Detto così appare banale, perché non appena saliamo a bordo di un’imbarcazione tutti i nostri sensi ce lo dicono. Ma nel mondo digitale ci mancano "i sensi" adeguati. L’alfabetizzazione digitale fornisce le “competenze digitali di base” (basic digital skills fa più figo ma è la stessa cosa), essenziali per potersi orientare in quell'“oceano digitale” che è la società attuale.

L’educazione digitale, chiamata anche cittadinanza digitale e nota nel mondo anglosassone come digital fluency, è la capacità di muoversi del tutto a proprio agio in una comunità sociale pervasa di strumenti e dati digitali. La formazione di cittadini digitali, così come la formazione di cittadini tout court, dovrebbe essere completamente conclusa al più tardi al termine della scuola secondaria. A maggior ragione, essa è basata sull’insegnamento del nucleo scientifico-culturale dell’informatica, quello che chiamiamo pensiero computazionale. Questo livello di formazione produce i marinai, cioè quelli che nell’oceano digitale posseggono la digital fluency.

Una nota di cautela: spesso nelle discussioni mediatiche e politiche si usa il termine “competenze digitali” (digital skills) senza qualificare se si parli di quelle di base, prodotto dell’alfabetizzazione, o di quelle che rendono uno studente un vero “cittadino digitale”, ottenute al termine del percorso scolastico.

Voglio anche evidenziare il pericolo di affrontare la formazione delle competenze digitali senza fondarle sul pensiero computazionale. Temo che un tale approccio conduca a formare marinai che come diceva Leonardo da Vinci:

“… sono come i nocchieri che entrano in naviglio senza timone o bussola, che mai hanno certezza dove si vadano.”

Infine sottolineo l’importanza del terzo livello di formazione: quello dei navigatori, cioè degli specialisti. La loro formazione è compito del livello terziario dell’educazione (cioè dell’Università). A causa della pervasività delle tecnologie dell’informazione, per poter far sì che ci siano abbastanza studenti (e soprattutto studentesse) che vogliano diventare specialisti, è importante che l’informatica come disciplina scientifica sia correttamente introdotta nella scuola, in modo che tutti gli studenti possano acquisire confidenza con i suoi princìpi di base fin dai primi livelli di istruzione. Questo argomento, si badi bene, è aggiuntivo rispetto a quello che sostiene l’importanza di insegnare informatica nella scuola perché è la base scientifica sulla quale costruire il “cittadino digitale”.

Entrambi gli argomenti son ben chiari ai decisori politici negli USA che, al netto dell’enfasi mediatica sul coding, si sono mossi di conseguenza: si veda, ad esempio, l’iniziativa Informatica per tutti di Obama che ha inserito la “computer science” (cioè l’informatica) tra i well rounded subjects cioè nell’insieme delle materie che devono far parte dei programmi educativi scolastici e dei programmi di formazione professionale degli insegnanti.

E in Europa?

-----
Pubblicato su "Il Fatto Quotidiano" il 9 febbraio 2017.

domenica 29 gennaio 2017

Sicurezza informatica: non vediamo e non vogliamo accettarlo

di Isabella Corradini e Enrico Nardelli

La vita alle volte è dura. Può accadere che un grave incidente ti privi di qualcosa di prezioso, come la vista. È una situazione difficile da accettare e infatti tu, testardamente, ti ostini a far finta di vederci ancora. Ovviamente, guai ed inciampi sono all’ordine del giorno e ti ricopri di ferite e bernoccoli. Corri ai ripari con protezioni e bendaggi, ma gli incidenti non diminuiscono. Cos’è che non funziona?

In un caso di questo genere pensiamo sia abbastanza evidente per tutti cos’è che non va: rifiutarsi di accettare che non c’è più un organo di senso essenziale per orientarsi e capire il mondo intorno a noi.

Solo passando attraverso questa consapevolezza ed introiettandola è possibile poi riuscire ad adottare i comportamenti più adeguati alla nuova situazione.

La situazione discussa in questo esempio è il punto di partenza per discutere altre situazioni in cui “ci ostiniamo” a non vedere o a non voler vedere cosa succede intorno a noi, pur sottolineando che le implicazioni umane ed emotive non sono paragonabili.

Quella di cui parliamo in questo post è relativa a ciò che sta accadendo da una decina d’anni rispetto alla sicurezza informatica.

La crescente ed ormai ubiqua digitalizzazione della società, che per certi versi è una benedizione per i vantaggi che apporta, ha come contropartita quella di averci trasportato in un mondo per il quale non abbiamo organi di senso. Come nell’esempio sopra riportato, ci ostiniamo a far finta che non sia accaduto niente.

La sicurezza informatica, così come la stiamo gestendo, non funziona.

Non ne siete convinti? Guardiamo i dati degli ultimi 12 anni sul fenomeno data breaches, si “vede” chiaramente cosa dicono.


Questo grafico è un’elaborazione realizzata dal laboratorio Link&Think sui dati disponibili alla pagina http://www.informationisbeautiful.net/visualizations/worlds-biggest-data-breaches-hacks/, nella quale sono riportati i singoli eventi di data breach superiori ai 30.000 record persi/sottratti in ogni evento.

Nel nostro grafico vengono esposti in tre modi diversi gli eventi aggregati per anno:
  • la linea in grigio (Volume) mostra la semplice quantità totale, in milioni, di record persi/sottratti ogni anno;
  • la linea in celeste (Valore lineare) mostra il valore complessivo, in milioni, dei record persi in ogni anno, pesando record di tipo diverso con una funzione a crescita lineare;
  • la linea in rosso (Valore esponenziale) mostra il valore complessivo, in milioni, dei record persi in ogni anno, pesando i record di tipo diverso con una funzione a crescita esponenziale.

I tipi di record sono classificati sul sito sorgente in 5 tipologie di crescente gravità, caratterizzate dai seguenti esempi:
  1. indirizzi mail o informazioni relative all’interazione online delle persone (ma non pubblicamente disponibili)
  2. codice fiscale o dati personali
  3. dati della carta di credito (numero, scadenza, …)
  4. password non crittate o dati sanitari
  5. dati bancari completi
Vale la pena fare qualche riflessione.

Dal 2004, caratterizzato dall’attacco alla multinazionale AOL, specializzata nel campo delle comunicazioni e dei mass media, c’è stato un crescendo di incidenti che hanno riguardato grandi aziende operanti nei più svariati settori. Sono state coinvolte, a titolo di esempio, organizzazioni dall’area tecnologica (Sony nel 2011, Dropbox nel 2012) a quella bancaria (J.P. Morgan nel 2014), dall’area social (Yahoo nel 2013) a quella legale (Mossack Fonseca nel 2016), nonché strutture governative (l’Office of Personnel Management del governo USA nel 2015).

I dati, dunque, sia personali che aziendali, continuano a rappresentare una risorsa di grande interesse per i cybercriminali, i quali possono utilizzarli per ottenere un immediato profitto economico o per compiere altri reati.

Da un punto di vista aggregato, si osserva chiaramente nel grafico come dal 2012 il fenomeno sia esploso, peggiorando notevolmente sia in volume che in valore rispetto agli 8 anni precedenti, e non riusciamo a contenerlo. Nonostante negli anni 2014-2015 il grafico mostri infatti un miglioramento della situazione, i dati del 2016 evidenziano che si è trattato di un successo effimero. Per rimanere agli esempi, basti pensare al furto di e-mail che ha riguardato lo staff della candidata alle presidenziali Hillary Clinton nel giugno del 2016.

A fronte di questo scenario insistiamo con contromisure tecnologiche che dovrebbero risolvere tutti i problemi degli attacchi cibernetici e delle violazioni dei dati, ma i risultati non arrivano. Anzi, continuano a verificarsi incidenti di sicurezza sempre più gravi, con vittime più o meno illustri, come testimoniano i dati.

Cosa succederà con il diffondersi sempre più capillare dell’uso delle tecnologie dell’informazione (si pensi, ad esempio, all’Internet of Things) che moltiplica i dati digitali nella Rete?

Sembra proprio che, come nella situazione descritta all’inizio del post, ci si rifiuti di prendere consapevolezza del fatto che ci mancano i sensori adeguati per questo scenario e, dunque, non si mettano in atto strategie opportune, continuando invece a delegare alle sole tecnologie il compito di realizzare soluzioni efficaci.

mercoledì 18 gennaio 2017

Di cosa parliamo quando parliamo di pensiero computazionale

di Enrico Nardelli

Nota: Questo articolo è stato pubblicato anche su rivista (PDF scaricabile).

Risposta super-breve: del fatto che l’informatica è fondamentale e trasversale.

La risposta lunga inizia spiegando il perché del titolo: si tratta di un omaggio a Raymond Carver, scrittore americano che è considerato l’iniziatore della corrente del minimalismo (cito dalla Treccani on line). Il motivo è che provo a spiegare con parole semplici (come, appunto, si dice Carver facesse nelle sue opere) cosa intendiamo quando parliamo di pensiero computazionale.

1. Introduzione: le discipline di valore generale


Inizio ribadendo che col termine “pensiero computazionale” indichiamo gli aspetti culturali e scientifici dell’informatica, a prescindere da qualunque aspetto strumentale o tecnologico. Ne ho fornito alcuni approfondimenti su questo blog, illustrando alcuni termini chiave e discutendo una definizione in dettaglio.

Ritorno adesso sul perché usiamo questa espressione, ovvero “di cosa parliamo quando parliamo di pensiero computazionale”. Comincio con un paio di citazioni.

Donald Knuth, scienziato conosciutissimo sia dai matematici che dagli informatici, nel 1974 ha scritto (p.327) «In realtà una persona non ha davvero capito qualcosa fino a che non è in grado di insegnarla ad un computer».

George Forsythe, analista numerico ed uno dei padri della formazione universitaria in informatica (è stato tra i fondatori del Dipartimento di Computer Science di Stanford – uno dei primi a nascere e tuttora tra i migliori al mondo), nel 1968 ha scritto (p.456): «Le acquisizioni più valide nell’educazione scientifica e tecnologica sono quegli strumenti mentali di tipo generale che rimangono utili per tutta la vita. Ritengo che il linguaggio naturale e la matematica siano i due strumenti più importanti in questo senso, e l’informatica sia il terzo».


Linguaggio naturale e matematica sono, giustamente, insegnati fin dal primo anno delle elementari, perché costituiscono delle competenze “fondamentali e trasversali”, cioè utili sia in sé e per sé che nell’applicazione a qualunque altra materia.

È infatti evidente che per qualunque relazione sociale serve conoscere il linguaggio naturale ed è altrettanto evidente che per discutere di quantità è necessario sapere la matematica: soltanto con “niente”, “poco” e “tanto” non si fanno molti progressi. Linguaggio e matematica sono quindi fondamentali.

Inoltre, per riuscire bene in storia, geografia, scienze, arte, il linguaggio naturale è indispensabile, altrimenti non riusciremmo a spiegare e descrivere i soggetti che stiamo trattando, ed è altrettanto necessaria la matematica, pena l'impossibilità – nel discutere di questi soggetti –di confrontare quantità, stabilire relazioni numeriche, ordinare valori. Linguaggio e matematica hanno quindi un valore trasversale, cioè un’utilità ed un’applicabilità interdisciplinari.

Non accade – però – che si insegnino il “pensiero linguistico” o il “pensiero matematico” unicamente per il loro valore interdisciplinare. Si insegnano, giustamente, “italiano” e “matematica” come materie di base, e poi le competenze linguistiche e matematiche vengono naturalmente travasate e messe in gioco quando si parla – ad esempio – di arte o di storia.

Nel seguito spiegherò perché anche l’informatica è una disciplina fondamentale e con un valore trasversale, come italiano e matematica.

Devo però prima spiegare perché usiamo il termine “pensiero computazionale” parlando di insegnamento dell’informatica nella scuola.

Questo dipende essenzialmente dal fatto che se si usa il termine “informatica”, si possono intendere concetti che vanno dalla “teoria della complessità computazionale” a “quale formato ha il file system sulla pennetta USB”. Questa è una maledizione da cui forse solo l'informatica è afflitta. Nessuno confonde più ormai il medico con l'infermiere, l'ingegnere con il meccanico, tutti mestieri nobilissimi ed ugualmente rispettabili, ma che hanno ovviamente diverse aree di competenza.

Usiamo quindi questa espressione affinché tutti abbiano ben chiaro che, che quando parliamo della necessità di “insegnare informatica nella scuola”, l’obiettivo non è insegnare l’uso di un certo strumento o applicazione o di una determinata tecnologia e sistema, quanto l’apprendimento dei concetti scientifici di base. Esattamente come a tutti è chiaro che insegnare matematica nella scuola non vuol dire insegnare a diventare esperti nel fare i conti, ma far sviluppare competenze relative alle quantità ed alle loro relazioni e manipolazioni.

2. Perché l’informatica è una disciplina fondamentale


Oltre alle due citazioni precedentemente riportate fornisco argomenti già articolati in altri paesi.

Una prima risposta è quanto si sta facendo negli Stati Uniti (non certo una nazione di secondario rilievo). A dicembre del 2015 sia la Camera che il Senato, con un appoggio bipartisan ed a larghissima maggioranza, hanno approvato l’ “Every Student Succeeds Act” (ESSA). Questa legge, firmata dal Presidente Obama il 10 dicembre scorso, riconosce che l’informatica (computer science) è un soggetto fondamentale per l’educazione scolastica K-12 (negli USA si usa quest’espressione per indicare i 12 anni di educazione dalla prima elementare all’ultimo anno delle superiori, la cui durata è di 4 anni).

La legge riconosce che l’informatica è un’abilità fondamentale per fornire a tutti gli studenti un’educazione bilanciata e adeguata al 21-mo secolo. Di conseguenza la inserisce, a pari merito con discipline più tradizionali (quali la madrelingua, la matematica, le scienze, solo per citarne alcune) nell’insieme delle materie (well rounded education subjects) che dovranno far parte dei programmi educativi che i singoli stati dovranno definire e che saranno obiettivo di programmi di sviluppo professionale degli insegnanti.

Aver aggiunto l’informatica all’insieme dei well rounded education subjects significa che il legislatore americano ha ritenuto necessario esporre gli studenti da subito e con continuità a questo soggetto di studio, in modo integrato con le altre parti del curriculum, allo scopo di apportare benefici durevoli alla società e all’economia.

Successivamente, nel Gennaio 2016, il Presidente Obama ha proposto un piano da 4 miliardi di dollari affinché «tutti gli studenti americani dall’asilo al liceo imparino l’informatica e acquisiscano la competenza di pensiero computazionale necessaria per essere creatori, e non semplici consumatori, nell’economia digitale, e cittadini attivi di una società sempre più tecnologica».

Una seconda risposta viene dall'Académie des Sciences, l’accademia nazionale degli scienziati della Francia, che nel Maggio 2013 ha prodotto un rapporto (L’enseignement de l’informatique en France. Il est urgent de ne plus attendre) che osserva che la maggior parte degli avanzamenti tecnologici più innovativi degli ultimi decenni sono il risultato diretto dell’informatica (dai motori di ricerca, alle reti di comunicazione, ai computer miniaturizzati presenti in ogni oggetto).

Il documento poi ricorda che la capacità dell’informatica di elaborare simboli di qualunque tipo la rende utile per tutte le altre discipline scientifiche alle quali l’informatica fornisce nuovi modi di pensare ed argomenta la necessità di insegnare l'informatica nelle scuole, a tutti i livelli, al di là dell’insegnamento a livello utente degli strumenti di base hardware e software. L’approccio suggerito è quello di iniziare esponendo i bambini alle nozioni fondamentali dell’informatica come scienza nella scuola primaria, proseguendo nella secondaria inferiore con l’acquisizione e l’approfondimento dei concetti – che conduca gli studenti ad un loro uso in autonomia, e sviluppando ulteriormente la formazione nella secondaria superiore.

Il rapporto francese sottolinea l’importanza che tutti i cittadini ricevano un’adeguata formazione sull’informatica, in modo da fornire loro le chiavi per comprendere un futuro in cui tutto sarà sempre più digitalizzato. Questa comprensione è necessaria per capire e prendere attivamente parte alla sua evoluzione invece di consumare e subire ciò che è stato deciso altrove. Il rapporto ricorda anche che in tutte le professioni, da quelle letterarie a quelle sociali, scientifiche o artistiche, l’interazione con strumenti digitali sta diventando la norma e la comprensione dei principi scientifici di base – che sono sempre gli stessi indipendentemente dai settori applicativi – è fondamentale.

In questi mesi tali indicazioni stanno diventando in Francia documenti che saranno operativi a partire dal prossimo anno scolastico.

Infine, una terza risposta è stata data dalla Royal Society, l’ente nel Regno Unito analogo dell’Académie des Sciences francese, che a Gennaio 2012 ha messo nero su bianco (Shut down or restart? The way forward for computing in UK schools) che ogni bambino dovrebbe avere la possibilità di imparare i concetti e i principi dell'informatica, sia per il proprio beneficio personale che nell’ottica della prosperità della nazione. Il rapporto rimarca l’importanza di apprendere concetti e principî dell’informatica sin dall’inizio della scuola primaria.

Anche per la Royal Society le motivazioni per insegnare l’informatica sono l’importanza per gli studenti di comprendere il mondo digitale che ci circonda e la possibilità di giocare un ruolo attivo e non essere consumatori passivi di una tecnologia misteriosa ed opaca. Inoltre osserva che cittadini che conoscono le basi scientifiche della tecnologia informatica sono in grado di partecipare in modo più informato e razionale di argomenti come i brevetti software, furti d’identità, ingegneria genetica, votazioni elettroniche.

Sulla base di questo rapporto, a partire da settembre 2014 ogni scuola del Regno Unito, ad ogni livello, deve insegnare i principî base dell'informatica.

3. Perché l’informatica ha un valore trasversale


L'informatica ha una caratteristica, nuova e sua specifica, che la rende ancora più interessante in un’ottica interdisciplinare rispetto alla lingua naturale ed alla matematica.

La lingua naturale è il mezzo base di espressione, ed in quanto tale permette di trattare qualunque soggetto, dai più concreti a quelli più rarefatti. Ovviamente ha un enorme “potere evocativo” ma purtroppo, o meglio per fortuna, possiede una sua intrinseca “ambiguità”, che non gli consente quella precisione che però in alcuni casi è necessaria. Quando leggiamo “I tre moschettieri” è la nostra fantasia che dà vita ai dettagli. Infatti, ogni regista che si è confrontato con l’opera ha dato vita alla sua rappresentazione del romanzo.

A compensare questa caratteristica della lingua naturale interviene la matematica, che fa del rigore e dell'esattezza la sua forza. Se si vuole descrivere qualcosa con precisione assoluta, allora il formalismo matematico è la soluzione giusta, ed una formula matematica ha sempre un preciso significato nel contesto della sua teoria di riferimento. Ma questa forza può essere inadeguata, in molti casi della vita. Perché non sempre ciò che trattiamo è suscettibile di quella formulazione così rigorosa di cui la matematica ha bisogno per esplicare il suo potere descrittivo. Appunto, non è possibile descrivere “I tre moschettieri” in formule.

La matematica è certamente in grado di definire simboli che rappresentano, ad opportuno livello di astrazione, concetti del mondo. Però, se non ha teorie, cioè teoremi, in grado di dedurne conseguenze, tale formalizzazione non è poi così produttiva. Ne abbiamo un esempio lampante nella biologia, in cui diversi aspetti erano stati modellati matematicamente già molti decenni fa. Ma è stato solo quando ad essi si è applicata l’informatica, con le sue peculiari caratteristiche sopra ricordate, che in quest’area “formale” della biologia è scoppiata una fioritura di risultati senza precedenti.

Un esempio più articolato è relativo alla manipolazione del linguaggio naturale. Non si può costruire una teoria matematica precisa del linguaggio naturale, perché troppe sono le eccezioni e le sfumature. Ma l'informatica, che come lo stesso Knuth ricorda (p.326), eccelle nel trattare sia casi particolari ed eccezioni che relazioni che cambiano subito dopo che sono state definite, riesce a gestire queste situazioni. Infatti gli impressionanti avanzamenti degli ultimi anni nella comprensione del linguaggio da parte dei calcolatori sono concretamente possibili solo grazie all’informatica, anche se basati su teorie matematiche molto sofisticate.

La forza dell’informatica in un contesto educativo è costituita dalla capacità di concretizzare mondi virtuali, grazie alle sue possibilità apparentemente illimitate di elaborare simboli di qualunque tipo ed in qualunque modo. Perché niente è utile per apprendere un concetto come farne esperienza concreta.

Con l'informatica è possibile costruire qualunque mondo vogliamo esplorare e dargli senso, definire un insieme di regole e dar loro vita, animandole mediante un'esecuzione su di un appropriato dispositivo automatico. Con l’informatica è possibile costruire una simulazione di fenomeni fisici, biologici o sociali di cui si conoscano (anche in modo parziale ed approssimato) le leggi, osservare cosa accade e “cosa accadrebbe se…”. Ed estendendo queste simulazioni è possibile costruire quelle “realtà virtuali” di cui stiamo vedendo l’incalzante diffusione ed alle quali è comunque necessario fare attenzione per le possibili conseguenze sulla vita reale.

4. Conclusioni


Questi sono i motivi per cui parliamo di “pensiero computazionale” nella scuola. Ma non chiediamo che sia questo il nome della materia, non ha senso. Non chiediamo che in tutte le materie ci sia “il momento del coding”, non ha senso, Bisogna insegnare “informatica”, così come si insegna “italiano” e “matematica”. E poi, se questo viene fatto in modo adeguato, da docenti che sono stati adeguatamente preparati a questo scopo, allora i benefici verranno.

Il nostro Paese, in cui già 25.000 insegnanti hanno portato più di un milione di studenti a svolgere quasi 10 ore a testa di informatica, ha dimostrato di essere pronto ed interessato a seguire questa strada.

Non perdiamo quest’occasione.


-----
Una sintetica versione preliminare di questo articolo è stata pubblicata su "Il Fatto Quotidiano" il 23 gennaio 2017.

Ringrazio i lettori che con i loro commenti alla versione preliminare hanno contribuito a estendere e migliorare la presentazione.