venerdì 28 settembre 2018

Coding o informatica: questo è il problema

di Enrico Nardelli

All'inizio di quest'anno la Commissione Europea ha lanciato un ambizioso piano d'azione per l'istruzione digitale. Partendo dalla giustissima premessa che “istruzione e formazione sono i migliori investimenti nel futuro dell'Europa” propone, per adeguare la formazione all'era digitale, di intervenire lungo tre linee di azione:
  1. migliorare l'utilizzo della tecnologia digitale per l'insegnamento e l'apprendimento;
  2. sviluppare le competenze e le capacità digitali pertinenti ai fini della trasformazione digitale;
  3. migliorare l'istruzione mediante un'analisi dei dati e una previsione migliori.

Nulla da dire sulla prima linea: è noto che un uso ben calibrato delle tecnologie digitali può migliorare sia l'insegnamento che l'apprendimento. Certo, le difficoltà sono tutte nella buona calibrazione, ma confido che la nuova direzione politica del MIUR e l'esperienza della nostra classe docente (tra le migliori al mondo) saranno in grado di indicare e trovare le giuste soluzioni.

Anche la terza è estremamente valida: viviamo nell'era dei dati, che raccogliamo a tutti i livelli. Se ben analizzati ci possono dire molto sulla situazione attuale, ad un livello di granularità mai raggiunto prima. Anche qui il diavolo è nelle minuzie realizzative: da un lato la garanzia di privacy verso le persone, dall'altro la consapevolezza che tra ciò che misuro e la realtà c'è una distanza che non va mai dimenticata. I generali che hanno confuso la mappa con il territorio non hanno mai brillato nelle campagne militari.

Vorrei spendere qualche parola sulla seconda linea, perché per la sua attuazione, oltre a misure di accompagnamento relative alla sensibilizzazione, comunicazione e riduzione del divario di genere (tutte importantissime!) l'azione concreta che viene proposta è quella di “introdurre classi di programmazione in tutte le scuole". Qui con “programmazione” si intende “programmazione informatica", ovvero ciò che gli inglesi chiamano coding, termine che ormai anche in Italia gode di una certa notorietà. Ho già scritto (qui e qui) sul perché non ritengo saggio usare il termine inglese, ma nel resto di quest'articolo lo userò per brevità espositiva.

La mia tesi di fondo è che questa impostazione della Commissione Europea, centrata sull'insegnamento del coding invece che sull'insegnamento dell'informatica è riduttiva. Confronto l'insegnamento del coding con quello dell'informatica perché insegnare il coding vuol dire, per fare un paragone con l'ingegneria, insegnare a costruire un ponte, mentre insegnare l'informatica vuol dire insegnare a progettare e costruire il ponte.

Progettare significa operare in uno spazio di necessità e di vincoli e “creare” la soluzione, inventare la sintesi tra esigenze contrastanti. Questo richiede un bagaglio di conoscenze che non possono essere quelle soltanto finalizzate a costruire. Essendo un ingegnere di formazione, so bene di cosa parlo. Due anni del mio percorso universitario li ho passati nello studio di matematica, fisica e chimica ed altre materie fondazionali, che non avevano nessuna diretta applicazione alla costruzione di un qualunque manufatto complesso. Un medico o un avvocato potranno sicuramente confermare che la differenza tra l'operatore ed il progettista è tutta nella larghezza e profondità della sua formazione di base.

Costruire significa seguire un piano più o meno definito che qualcun altro ha creato. Non è richiesto di sapere molto al di là di questo, perché ci pensa (o ci ha pensato o ci penserà) qualcun altro. Parlare solo di “insegnare il coding” è quindi un approccio riduttivo, perché ci si focalizza solo sulla parte finale ed operativa di tutto un processo progettuale molto più complesso. Significa addestrare una manovalanza tecnicamente sofisticata, ma che sarà comunque una classe operaia sottoposta alle direttive di chi decide cosa costruire, per chi farlo e quando.

Noto di passaggio (perché entreremmo in una sfera politica e sociale che va certamente considerata, ma non in questa sede) che la storia (ora più che mai magistra vitae) ha evidenziato come i livelli base della manovalanza sono i primi che vengono sostituiti dalle macchine. Se vogliamo quindi che i nostri giovani acquisiscano competenze utili per tutto l'arco della loro vita lavorativa, è bene formarli a competenze da progettisti e non solo da esecutori.

Non nego che la programmazione possa essere un’attività altamente creativa, ma se parliamo di istruzione di massa e se insegniamo solo a programmare, senza educare i ragazzi su tutti gli altri aspetti che rendono l’informatica quella disciplina articolata e profonda che è, allora rischiamo davvero di formare solo un esercito di operai, che sarà facilmente messo fuori gioco dall’avanzamento della tecnologia o di un “esercito industriale di riserva”.

Per far sì che ragazzi e ragazze abbiano possibilità di scegliere una strada per loro soddisfacente nella società digitale, in un contesto lavorativo in continua evoluzione, vanno loro esposte da subito le idee scientifiche alla base del digitale, in modo che ne capiscano la valenza complessiva.

Si potrà obiettare che vi sono molti esempi di start-up di successo nate da idee di ragazzini che certamente non avevano svolto regolari studi da informatici. Ma, se si guardano i numeri complessivi, questi sono soltanto le eccezioni che confermano la regola. Prima di tutto, se chi ha creato Facebook non era certamente laureato in informatica, Google è nato dalle idee di due dottorandi in informatica di Stanford (una delle cattedrali della ricerca informatica). Inoltre, per ogni start-up che ce la fa, ce ne sono almeno mille che vanno a spasso, e quindi a livello macro-economico, cioè per far crescere un Paese, puntare tutto sulle start-up non rappresenta una scelta sensata (anche questo è un discorso di politica dello sviluppo da affrontare).

Analogamente, si tende spesso a considerare come tipico ciò che invece è un’eccezione. Per la programmazione, si citano geni come Linus Torvalds (creatore di Linux) o Guido van Rossum (creatore di Python) che hanno realizzato da soli dei veri e propri capolavori. Prima di tutto la genialità è qualità estremamente rara e ciò che va bene per un genio non può essere usato come metodo didattico per l'istruzione di massa. Secondo, anche chi è geniale progetta: lo fa nella sua testa, e molto velocemente, mentre sviluppa, ma è una fase comunque presente. Terzo, è ovvio che ogni progetto, nel momento in cui viene espresso ha bisogno di un linguaggio per la sua espressione, che rappresenta la “codifica” del progetto. Ma questo non implica che il termine più appropriato per chi progetta sia “coder” o che nel termine “coding” rientri tutta l’area della progettazione e sviluppo del software.

Attenzione, l’inserimento della formazione informatica nella scuola è importante per la formazione di ogni cittadino, anche se deciderà di fare il medico o l’avvocato, il musicista o lo scrittore. La società digitale è qui: non insegnare nella scuola la scienza alla base dei suoi meccanismi sarebbe come insegnare che i bambini nascono sotto i cavoli, la peste è trasmessa dagli untori e le pietre si muovono per horror vacui.

Ciò che fa grande un Paese sul lungo periodo non sono le eccellenze, ma la qualità della formazione di massa. Lo sviluppo digitale dell'Europa richiede l'insegnamento dell'Informatica nella scuola, a partire dalla primaria. Questa è la strada che hanno iniziato a seguire nel Regno Unito, queste sono le tendenze in molti paesi avanzati, sia ad oriente che ad occidente, questo è quello che abbiamo proposto come associazioni europee di Informatici.

--
Versione originale pubblicata su "Il Fatto Quotidiano" il "17 settembre 2018".

giovedì 3 maggio 2018

Informatics: the third “power” revolution

di Enrico Nardelli

Everyone agrees on the importance of Digital Education for all citizens. But too often action plans to implement it fail to approach the issue appropriately and put an excessive emphasis on technological side of it.

The main problem, in my view, behind these difficulties is conceptual. People consider information technology as just another technology, while Informatics has brought about in the world the third “power” revolution [1], empowering human capabilities to a degree never conceivable before.

The invention of the printing press has been the first “power” revolution, since by making it possible to very easily reproduce texts allowed to bring knowledge everywhere and gave everyone the possibility to access it. It was no more needed to be in certain place at a certain time to learn something from the voice of the master. His knowledge could be reproduced by a book, far away and at a later time, whenever needed. Knowledge is still power, but now this power can be distributed and replicated: the seeds of modern society had been planted. Books, produced by hundreds of millions, changed societies and spread science and technology all over Europe.

The second “power” revolution is the industrial revolution: machines can do the physical work of people and allows mankind to overcome its own intrinsic physical limits. Machines can produce objects days and nights without becoming tired, and machines can produce other machines boosting the physical capabilities of human beings. A single person can move huge earth piles with a bulldozer, quickly transfer with a car, speak at long distance with a telephone, and so on. Mankind is no more powerless in front of the nature and starts dominating earth, sea and air, even if many times forgets our planet still remains very powerful.

Then, in the second half of the last century, after the building of hundreds of billions of machines, the third “power” revolution, the informatics revolution, slowly starts. In the beginning it appears like just another embodiment of the industrial revolution, but after the turn of millennium it becomes apparent it is much more than that. What is replicated now is not the passive and static knowledge of books, what is empowered here is not the physical strength of people, now we have the amplification of the cognitive capabilities of humankind. Digital artifacts, that is software programs, represent and store “knowledge in action” [1, 2] or “actionable knowledge” (“actionable”: ready to be put in action).

As hinted before, there are two critical elements distinguishing the actionable knowledge in digital artifacts from the one of human beings: learning and adaptability. People are intrinsically able to learn what is unknown to them (while digital machines can only learn what they have been designed for) and have learned over million years of evolution to adapt to unforeseen changes in the environment (while digital machines – once again – can adapt only to the foreseen changes).

Therefore, while certainly people can take advantage from the always improving actionable knowledge stored in digital artifacts (the very recent progresses of Artificial Intelligence clearly show this) it is of the utmost importance that everybody is appropriately educated in the science making this digital artifacts possible: Informatics.

That is why Informatics Europe, the association of European departments and research centers in Informatics I am the president of, together with the ACM Europe Council, has presented last March in Brussels to the European Commission the report “Informatics for All” advocating Informatics is taught to all students in school, starting in the primary school.

We suggested a two-tier approach: both
  1. to introduce teaching of informatics as specialized subject, starting in primary and all the way up to secondary, and
  2. to teach informatics (integrated in other subjects) as a method and a language capable to offer an additional and specific way to describe and explain phenomena.

The former is required to prepare citizens able to actively participate in the digital society in an informed way and to more safely and critically navigate and contribute to a fast expanding info-sphere consisting more and more of algorithms that may be biased or information that may be flawed or incomplete. The latter provides new and additional viewpoints in many scientific fields, by building and manipulating visible representations of physical laws and/or natural/social phenomena. Interactive simulations (i.e., modeling a situation and exploring its possible evolution) made possible by informatics offer a very powerful tool to improve understanding and informatics is unique in its capability of making concrete the abstract models defined by a simulation.

To this purpose, we have argued in our report, it is needed to work in three areas:
  1. Curriculum, to develop both school curricula for all levels, and effective learning materials.
  2. Teachers, to appropriately educate them and provide them supporting tools and content to be effective in their action.
  3. Research, to understand what to teach, when to teach, how to teach (mathematics and other sciences had centuries to discover these, we need to know very soon).

This a grand educational challenge like one could have if Mathematics existed only at the university and – having understood the importance of the capability of exactly defining quantities and their relations – one had to plan to introduce it into all school levels.



I will now further dwell on consequences of this third power revolution in terms of digital education. In the past, an excessive emphasis has been put on technological skills (for example with the European Computer Driving License), that are certainly important, but which in this area risk to spoil the educational efforts.

More recently, on the one side we hear about introducing “coding” in all schools, since “coding” is the “new English” (needed to work everywhere) or the “new Latin” (needed to reason in any field). On the other side, they say what needs to be taught in all schools is “computational thinking”, the new discipline needed for every student, whichever will be the field she will work in.

Both approach are partly right, but cannot be considered definitive, since they provide only a partial view of the issues at stake. I have to say that this situation is more typical of Europe, since in other countries, e.g. USA or China or Japan, people speaks about teaching “Computer Science” and not “coding” or “computational thinking”.

First of all let us consider “coding”. Informatics is not (just) coding, as Mathematics is not (just) "table of Pythagoras". Multiplication is (just a) part of Arithmetic, which is (just a) part of Mathematics, together with Geometry, Algebra, Probability, Statistics, Analysis, and so on. Similarly, coding (or programming) is (just a) part of the software development process (which includes Analysis, Design, Coding (Programming) – Testing, Debugging) and software is (just a) part of Informatics, together with Data Representation, Algorithms, Programming Languages, Computing Systems, Distributed Computing, Human-Computer Interaction, and so on.

Also, the purpose of teaching "table of Pythagoras" in primary school is not at all that children knows by heart that 3x2=6 o 12:4=3. The purpose is that children understand that when 3 girls have 2 sweets each the total number of sweets is obtained by a multiplication, while if 12 biscuits have to be distributed to 4 girls the number of biscuits per girl is obtained through a division. We are not teaching a tool but a way of understanding and operating in the world: we can call it “mathematical thinking”.

Well, somebody may say, let’s then teach “computational thinking” (CT) in schools. Speaking about teaching CT is a very risky attitude: philosophers, rightly, ask what do we mean by “teaching thinking”; mathematicians appropriately observe that many characteristics of CT (e.g., abstraction, recursivity, problem solving, …) are also proper of mathematics (which they do not call “mathematical thinking”); pedagogists ask how can we be sure CT is really effective in education; teachers want to know which are the methods and the tools for teaching this new discipline and how they can learn to teach it; and parents are on one side happy because it appears school has finally started to align itself to the digital society, but are on the other side worried what will happen to their kids in the future if they just learn to code with the language of today.

I am convinced this approach is misleading: in the long run it will do more harm than benefit to informatics. In schools they do not teach “linguistic thinking” or “mathematical thinking” and they do not have “body of knowledge” or “assessment methods” for these subjects. They just teach (and assess competences in) “English ” and “Mathematics”. Subsequently, the various linguistic (resp. mathematical) competences gained by study of English (resp. Mathematics), beyond being used in themselves, find additional uses in other disciplines. Between CT and Informatics there exists the same relation. Therefore we should discuss what to teach and how to evaluate competences regarding Informatics in primary/ middle/ secondary schools.

The main problem, in my view, behind these difficulties in appropriately approaching digital education is conceptual. People consider information technology as just another technology, which is wrong [3]. Automation supported by Informatics substitutes human intelligence with machine intelligence: this is a radical change of paradigm in the entire history of industrialization, which never happened before. Notwithstanding the success of Artificial Intelligence , informatics systems do not have the flexibility and adaptability to successfully tackle an ever changing reality and to learn by one’s own mistakes, like human beings do.

Actually, speaking about CT has the purpose to explain people why informatics need to be taught in all schools. We aim at teaching the scientific and cultural aspects of Informatics: not system and tools, but principles and methods. Differently from what happens with language and maths, we are forced to explicit this distinction since computers are what embodies informatics for most of people.

On these grounds, for example, in the USA Computer Science (their name for Informatics) has been added, on par with other scientific disciplines, to the “well rounded subjects” that students have to learn in schools. This is not because they think the “computer scientists’ way of thinking” (a simple explanation of what CT is) is better than others, bust just that it offers a complementary and useful conceptual paradigm to describe reality. Informatics provides cognitive insights and a common language for all subjects and professions.

Every discipline has its own set of concepts to describe the world. For a mathematician are quantity, relation, structure… For a physicist masses, forces, fields… A biologist uses cell, organism, metabolism. An informatician uses algorithm, program, automata, …

Digital society is already here and we are not adequately preparing our students and citizens. They need to learn Informatics so as to be able to understand, participate in, influence and contribute to the democratic development of the digital society. A the same time, this will provide a significantly improved opportunity for recruiting and educating the large number of IT specialists Europe needs to maintain and improve its position in the digital world economy.

We need to act now!

References

[1] E. Nardelli, Senza la cultura informatica non bastano le tecnologie, Il Fatto Quotidiano, April 2014.

[2] E. Nardelli, La RAI che vorrei: diffondere la “conoscenza in azione” per far crescere l’Italia, Key4Biz, April 2016.

[3] E. Nardelli, The maintenance is the implementation OR Why people misunderstand IT systems, European Computer Science Summit, Prague, 2010.

-----
Versione originale pubblicata su "Broadband 4 Europe" il 18 aprile 2018 e il 20 aprile 2018


domenica 11 febbraio 2018

Competenze digitali ed insegnamento dell’informatica: grande è la confusione sotto il cielo

di Enrico Nardelli

Da parecchi anni in Europa si sente parlare dell’importanza di sviluppare competenze digitali nella forza-lavoro, in modo che i vari settori produttivi e dei servizi diventino più efficaci ed efficienti. Le tecnologie digitali sono infatti uno dei fattori che più ha contribuito all’aumento di produttività degli ultimi decenni.

Sono però anche il fattore il cui ruolo nella produzione e nei servizi è più frequentemente ed estesamente frainteso. L'automazione realizzata dalle tecnologie dell'informazione comporta infatti un salto culturale e concettuale che richiede un appropriato accompagnamento e un’adeguata preparazione delle persone coinvolte.

Svilupperò pertanto in questo articolo due considerazioni legate al ruolo dell’informatica sia nei processi produttivi che nel settore educativo.

L’automazione resa possibile dall'informatica è qualcosa di molto diverso dalla tradizionale automazione industriale. Quest’ultima ha dapprima sostituito l’azione fisica delle persone con la forza delle macchine, sotto la guida delle facoltà cognitive delle persone. Poi ha meccanizzato con successo compiti burocratici di bassa complessità cognitiva: trasferire denaro da un conto ad un altro, acquistare un bene ed effettuarne il pagamento, controllare il livello delle scorte e ordinarne il rimpiazzo.

Quando sono in gioco compiti cognitivi più complessi l'automazione dell'informatica sta però tentando di sostituire l’intelligenza umana con una macchina: si tratta di un radicale cambiamento di paradigma che la società contemporanea non ha ancora pienamente assorbito e compreso.

Una delle capacità essenziali dell’intelligenza umana è l’adattabilità ai cambiamenti dell’ambiente, la flessibilità nel gestire esigenze nuove o modificate. Le persone hanno una capacità innata di evolversi per fronteggiare l’evoluzione e di imparare dagli errori. I sistemi informatici non ce l’hanno e neanche i recenti avanzamenti dei sistemi di apprendimento automatico (machine learning) sono in grado di fornirgliela o saranno in grado di farlo in un prossimo futuro.

Non basta quindi informatizzare i processi aziendali. Non è sufficiente, perché il mese dopo che i sistemi informatici sono stati installati dovranno essere modificati per adattarsi alle mutate condizioni al contorno. E questo processo di manutenzione va avanti senza fine, perché un sistema informatico non è un essere umano che si adatta alle novità ed impara dai suoi errori. L'automazione dell'informatica richiede quindi la supervisione delle persone, per ottenere quella flessibilità che non possiede in modo innato.

Delle problematiche poste da questa meccanizzazione degli aspetti cognitivi ne ho discusso più in profondità quasi dieci anni fa al convegno annuale dell’associazione degli informatici europei Informatics Europe.

Proprio per la sua profonda portata concettuale, questo tema non può quindi essere compreso appieno soltanto con qualche corso di formazione sulle competenze digitali. Tra l’altro, questo è uno dei motivi per cui la transizione all’impresa 4.0 sarà lunga e difficile: bisogna aver assorbito idee e concetti, più che conoscere strumenti ed essere abili nell’usarli.

È necessario partire da lontano ed iniziare nella scuola, ed è indispensabile farlo con una formazione seria e ben progettata. Provate ad immaginare – per fare un paragone – una situazione in cui la matematica venisse insegnata solo all’università e, avendo capito il fondamentale ruolo che svolge in una società evoluta la capacità di definire le quantità in modo esatto e manipolare in modo rigoroso le loro relazioni, dovessimo introdurre l’insegnamento del “pensiero matematico” nelle scuole. Non penso che lasciare alla libera iniziativa dei docenti la facoltà di definire cosa insegnare, quando e come, sarebbe fruttuoso per il Paese sul lungo periodo.

Proprio per la confusione un po’ dilagante in materia di insegnamento delle competenze digitali, avevamo già da tempo iniziato a ragionare come CINI (il consorzio delle più di 40 università che fanno ricerca e didattica in informatica) su come inserire la formazione informatica nella scuola italiana. Si tratta di un aspetto su cui alcuni paesi (per esempio UK, USA, Francia e Germania) sono già in fase realizzativa (per non parlare di Giappone e Corea del Sud). Solo per dare un dettaglio, negli USA l’informatica (e non il coding!) è stata inserita, alla pari delle altre discipline scientifiche e tecnologiche, tra i soggetti che devono far parte di una moderna istruzione “a tutto tondo” (well-rounded subjects). Un ruolo importante in quest’ambito educativo è svolto, nel nostro paese, dal progetto Programma il Futuro, di cui sono coordinatore. Finora (è adesso nel suo quarto anno) ha complessivamente avvicinato quasi 3 milioni di studenti ad una formazione informatica “seria” (che chiamiamo pensiero computazionale per evitare l’equivoco in cui moltissimi incorrono che insegnare l’informatica significhi insegnare l’uso degli strumenti digitali).

Nel corso del recente convegno “La cultura informatica come fattore di sviluppo”, organizzato presso la Camera dei Deputati con l'Intergruppo Innovazione, abbiamo reso pubblica la proposta della nostra comunità (più di 1500 tra professori e ricercatori in informatica e ingegneria informatica) alla presenza del MIUR. Si tratta di un documento articolato e frutto di una lunga fase di consultazione, che ha coinvolto non soltanto la nostra comunità, ma anche pedagogisti e docenti da tempo impegnati nell'insegnamento dell'informatica nella scuola.

Perché è importante insegnare l’informatica nella scuola? Prima di tutto chiariamo che non vuol dire insegnare la programmazione, (cioè il coding, come si dice adesso per essere alla moda). Non più di quanto insegnare la matematica voglia dire insegnare a fare i conti. Prendiamo le scuole elementari in cui si inizia a studiare matematica imparando la tavola pitagorica: il fine non è tanto sapere a memoria che 3x2=6 o 12:4=3, quanto capire che se 3 bambine hanno 2 caramelle ciascuna il numero totale di caramelle si ottiene con la moltiplicazione, mentre se 12 biscotti devono essere distribuiti a 4 bambine il numero di biscotti per bambina si ottiene con la divisione. Non stiamo quindi tanto insegnando uno strumento operativo, quanto una chiave di comprensione della realtà (“il pensiero matematico”).

Lo stesso vale per l’informatica, una disciplina che – come altre scienze – ha il suo particolare punto di vista sul mondo, il suo “paradigma concettuale” in base al quale descrive e spiega i fenomeni. Tale “punto di vista” è quello dei “processi automatici di manipolazione dell’informazione”. Quindi, giusto per fare alcuni esempi, così come sono concetti essenziali per un matematico la quantità e le loro relazioni o per un chimico le molecole e le reazioni, così sono concetti essenziali per un informatico quelli di algoritmo, linguaggio, automa, e così via.

Non è mai inutile sottolineare che ognuno dei grandi paradigmi scientifici (scienze umane e sociali, scienze della vita, scienze fisiche) può essere usato per descrivere la stessa realtà, ed a seconda dei casi e dei contesti uno di essi può essere quello più utile per la comprensione e la spiegazione oppure può esserlo la loro combinazione. L’informatica aggiunge un quarto grande paradigma, quello dei “processi automatici di manipolazione dell’informazione”, che permette di ottenere nuovi e utili modi per spiegare quanto accade in molti ambiti, dalla biologia all’economia, dalle relazioni sociali alla medicina.

Informatica non è quindi solo programmazione, cioè come usare un linguaggio per dare istruzioni ad un computer. È conoscere com’è fatta la macchina (l’automa) che deve comprendere le nostre istruzioni. È capire in che modo esprimere queste istruzioni (il linguaggio di programmazione). È sapere come elaborare algoritmi in grado di esprimere efficacemente le istruzioni. La nostra proposta indica uno scenario completo per l’inserimento dell’insegnamento dell’informatica nella scuola.

Anche in Europa si discute dell’importanza di questo aspetto. Basta leggere il recente rapporto sullo stato dell’insegnamento dell’informatica nelle scuole europee, preparato dalle due principali associazioni di informatici europei: Informatics Europe (di cui sono Presidente, che raggruppa dipartimenti universitari e centri di ricerca aziendali) e ACM Europe Council (Consiglio Direttivo della sezione europea dell'ACM, la maggiore associazione mondiale di professionisti e studiosi).

La sua prima e più importante raccomandazione è che tutti gli studenti devono avere accesso curriculare nella scuola alla formazione in Informatica (iniziando preferibilmente alla primaria), dal momento che questa disciplina scientifica deve far parte del bagaglio culturale di ogni cittadino della società digitale. La seconda è che, a questo scopo, è necessario formare adeguatamente gli insegnanti, in funzione dei diversi ordini di scuola.

Se ne riparlerà il 15 marzo 2018 a Bruxelles con la Commissione Europea.

LINK DI APPROFONDIMENTO

Proposta del CINI sull’insegnamento dell’informatica nella scuola https://www.consorzio-cini.it/gdl-informatica-scuola

Risultati del progetto Programma il Futuro: https://programmailfuturo.it/progetto/monitoraggio-del-progetto

Convegno “La cultura informatica come fattore di sviluppo”: https://programmailfuturo.it/notizie/cultura-informatica-fattore-di-sviluppo

Lo stato dell’insegnamento dell’informatica nelle scuole europee: http://www.informatics-europe.org/news/382-informatics-education-in-europe-are-we-on-the-same-boat.html

Perché insegnare informatica nella scuola: http://mondodigitale.aicanet.net/2017-5/articoli/MD72_02_abbiamo_davvero_bisogno_del_pensiero_computazionale.pdf

Informatica: il quarto grande dominio della scienza: https://mitpress.mit.edu/books/computing-0

Lezione per RAI Scuola “Alla scoperta dell’informatica”: https://www.programmailfuturo.it/come/alla-scoperta-dell-informatica

Informatics Europe: https://www.informatics-europe.org

ACM Europe Council: https://europe.acm.org


-----
Versione originale pubblicata su "agendadigitale.eu" il 24 gennaio 2018

martedì 12 dicembre 2017

MIUR chiama, CINI risponde: ma non chiamatelo coding!

di Enrico Nardelli

Poco tempo fa la ministra dell'Istruzione, Valeria Fedeli, ha dichiarato che dal 2018 il coding (cioè la programmazione informatica) verrà introdotto nelle scuole primarie.

Sull'importanza di educare i bambini fin da piccoli al "digitale" c'è vasta attenzione sui media e nella pubblica opinione, ma anche molta confusione. Da un lato ci si fa affascinare dal termine inglese (ne ho scritto recentemente) come se promettesse chissà quale mirabolante competenza ai nostri figli, dall'altro non si distingue tra gli aspetti scientifici, duraturi e formativi, e quelli tecnologici-strumentali, interessanti ma temporanei. Ne ho discusso nella versione iniziale di questo post, il cui titolo – deciso dalla redazione – ha probabilmente fuorviato il lettore. Mentre infatti l’intento era di mettere in rilievo l’importanza di insegnare l’informatica (e non soltanto la programmazione informatica), e chiamandola col suo nome e non con l’inglesismo di moda, il risultato è stato l’opposto. Diversi lettori hanno infatti contestato la necessità di insegnare a bambini e ragazzi un’abilità tipicamente lavorativa. Ritorno nel seguito su questo aspetto.

Proprio per la confusione un po’ dilagante in materia di insegnamento delle competenze digitali, avevamo già da tempo iniziato a ragionare come CINI (il consorzio delle più di 40 università che fanno ricerca e didattica in informatica) su come inserire la formazione informatica nella scuola italiana. Si tratta di un aspetto su cui alcuni paesi, per esempio UK, USA, Francia, Germania sono già in fase realizzativa. Nel nostro paese, il CINI sta portando avanti (questo è il quarto anno) il progetto Programma il Futuro, che finora ha complessivamente avvicinato quasi 3 milioni di studenti ad una formazione informatica "seria" (che chiamiamo pensiero computazionale per evitare l’equivoco in cui moltissimi incorrono che insegnare l’informatica significhi insegnare l’uso degli strumenti digitali).

In un recente convegno presso la Camera dei Deputati, organizzato con l'Intergruppo Innovazione, un gruppo bipartisan di deputati e senatori che hanno a cuore lo sviluppo del Paese al di là degli steccati ideologici, abbiamo reso pubblica la proposta della nostra comunità (più di 1500 tra professori e ricercatori in informatica e ingegneria informatica) alla presenza del MIUR. Si tratta di un documento articolato e frutto di una lunga fase di consultazione, che ha coinvolto non soltanto la nostra comunità, ma anche pedagogisti e docenti da tempo impegnati nell'insegnamento dell'informatica nella scuola.

Il documento è stato discusso durante il convegno con pedagogisti e filosofi, nonché con rappresentanti del mondo imprenditoriale, dal momento che la formazione informatica ha un impatto sia culturale che professionale.  Invito a rivedere il video dell'evento per cogliere la multidisciplinarietà degli interventi, tutti di eccellente livello.

Prima della discussione della proposta ho presentato un recente rapporto sullo stato dell’insegnamento dell’informatica nelle scuole europee, preparato dalle due principali associazioni di informatici europei: Informatics Europe (che raggruppa dipartimenti universitari e centri di ricerca aziendali) e ACM Europe Council (Consiglio Direttivo della sezione europea dell'ACM, la maggiore associazione mondiale di professionisti e studiosi).

La sua prima e più importante raccomandazione  è che tutti gli studenti devono avere accesso curriculare nella scuola alla formazione in Informatica (iniziando preferibilmente alla primaria), dal momento che questa disciplina scientifica deve far parte del bagaglio culturale di ogni cittadino della società digitale. La seconda è che, a questo scopo, è necessario formare adeguatamente gli insegnanti, ovviamente in modo diverso per i diversi ordini di scuola. Se ne riparlerà il 15 marzo 2018 a Bruxelles con la Commissione Europea.

Ritorno adesso a discutere brevemente cosa vuol dire insegnare informatica nella scuola e perché sia importante. Potete trovare una trattazione più estesa in questo articolo apparso sulla rivista Mondo Digitale dell’AICA. Prima di tutto chiariamo che NON vuol dire insegnare la programmazione. Non più di quanto insegnare la matematica voglia dire insegnare a fare i conti. Prendiamo le scuole elementari in cui si inizia a studiare matematica imparando la tavola pitagorica: il fine non è tanto sapere a memoria che 3x2=6 o 12:4=3, quanto capire che se 3 bambine hanno 2 caramelle ciascuna il numero totale di caramelle si ottiene con la moltiplicazione, mentre se 12 biscotti devono essere distribuiti a 4 bambine il numero di biscotti per bambina si ottiene con la divisione. Non stiamo quindi tanto insegnando uno strumento operativo, quanto una chiave di comprensione della realtà (“il pensiero matematico”).

L’informatica è una disciplina che, come altre scienze, ha il suo particolare punto di vista sul mondo, il suo “paradigma concettuale” in base al quale descrive e spiega i fenomeni. Tale particolare “punto di vista” è quello dei “processi automatici di manipolazione dell’informazione”. Quindi, giusto per fare alcuni esempi, così come sono concetti essenziali per un matematico la quantità e le loro relazioni o per un chimico le molecole e le reazioni, così sono concetti essenziali per un informatico quelli di algoritmo, linguaggio, automa, e così via.

Non è mai inutile sottolineare che ognuno dei grandi paradigmi scientifici (scienze umane e sociali, scienze della vita, scienze fisiche) può essere usato per descrivere la stessa realtà, ed a seconda dei casi e dei contesti uno di essi può essere quello più utile per la comprensione e la spiegazione oppure può esserlo la loro combinazione. L’informatica aggiunge un quarto grande paradigma, quello dei “processi automatici di manipolazione dell’informazione”, che permette di aggiungere nuovi e utili modi per spiegare quanto accade in molti ambiti, dalla biologia all’economia, dalle relazioni sociali alla medicina.

Informatica non è quindi solo programmazione: questa è usare un linguaggio per dare istruzioni ad un computer. Serve capire com’è fatta questa macchina (l’automa) che deve comprendere la nostre istruzioni. Serve anche capire in che modo esprimere queste istruzioni (il linguaggio di programmazione). Serve sapere come elaborare algoritmi in grado di esprimere efficacemente queste istruzioni. La nostra proposta indica uno scenario completo per l’inserimento dell’insegnamento di questa disciplina nella scuola italiana.

Ritorniamo adesso a parlare dell’evento presso la Camera dei Deputati in cui si è discusso dell’importanza dell’informatica sia nella scuola che nel mondo del lavoro.

Alcune istantanee della prima tavola rotonda sulla proposta CINI: si è evidenziato come l'informatica conduca a costruire strumenti che cambiano la percezione della realtà (Simone Martini), richiamato l'importanza di insegnare informatica senza che poi l'uso degli strumenti conduca a perdere la dimensione del "noi" e della "realtà" (Italo Fiorin), ricordato che apprendere strumenti che rendono facili le cose senza faticare per apprendere il come e il perché essi funzionino sia solo un'illusione di formazione (Giovanni Salmeri).

Nella seconda, si è da un lato ricordata ed apprezzata l’azione legislativa di supporto allo sviluppo digitale delle imprese italiane, e dall’altro convenuto di avviare un tavolo di confronto tra università e imprese affinché, nel rispetto del diverso orizzonte temporale con cui esse operano, si definiscano soluzioni formative che preparino ad essere attivi professionalmente per tutta la vita lavorativa e, al tempo stesso, aiutino rapidamente le aziende in questa epocale trasformazione sociale.

Ricordo sempre che l’automazione produttiva derivante dall’informatica (la cosiddetta “impresa digitale”) è radicalmente diversa dalla tradizionale automazione industriale. Quest’ultima è stata essenzialmente la sostituzione dell’azione fisica delle persone con la forza delle macchine, sotto la guida delle facoltà cognitive delle persone. L’automazione digitale è invece la sostituzione delle capacità cognitive dell’uomo con una macchina, che però non sarà mai intelligente come un essere umano, anche se elabora dati molto più velocemente.

È un problema culturale: se non si capisce quanto profondamente questo è vero, nessuna innovazione digitale produrrà davvero gli effetti sperati.

-----
Versione originale pubblicata sul "Il Fatto Quotidiano" il 20 dicembre 2017

mercoledì 1 novembre 2017

Digital hygiene: basic rules of prevention

di Isabella Corradini e Enrico Nardelli

Digital hygiene, a weird title. If taken literally, it would imply cleaning our digital instruments. Maybe we should talk about it, as mobile phones, smartphones and tablets are now part of the human body and we take them everywhere, since we both need them and are addicted to them (worthless to deny it), and their cleaning is not always treated with the same attention we use for ourselves.

Actually, we are talking about hygiene in the traditional sense. Hygiene rules have been taught since our childhood and they are one of the prevention measures that have most contributed over the last two centuries to lengthen the average life span. But in the digital world it is not so usual to hear these words. People sometimes use the expression digital hygiene to refer to how they relate to others in social networks or how not to become slaves of their own devices, but that’s not our interpretation.

In our view, this expression has instead to be used in a way similar to what happens in the physical world, where hygiene norms are appropriate for preventing illness. Here, the discovery by Hungarian physician Ignaz Semmelweis was crucial in the mid-nineteenth century, and thousands of women’s lives were saved. He observed that, washing his hands after an autopsy and before assisting women in labour, the frequency of their mortality was enormously reduced. Hence, washing one’s own hands became the fundamental ritual before starting surgical operations. This didn’t happen overnight, though, since it took a few decades – as is sometimes the case – for this discovery to be accepted and spread.

By extension, it became one of the basic tenets taught to all children: “Wash your hands ” is still the rule before going to the table and, more generally, whenever one comes home. The fundamental motivation is that “out there” there is a world that can be hostile because of microbes and infections, and it’s important to take countermeasures.

While in the physical case this message is widely accepted and socially shared, unfortunately the digital version of the same prevention message is less immediate. For example, how many people are still inserting unknown USB sticks or opening unknown attachments on their devices (PCs, tablets, or smartphones) without being aware that they can be infected?

The analogy is entirely true: the digital world is populated by “life forms” that are not always benign towards our “digital self”. Viruses and worms, for example, continue to spread at an alarming rate, and current precautions do not seem to be sufficiently effective.

A partial justification is that the evolution of these digital organisms has proceeded at an elusive speed for humans. For traditional physical hygiene rules the present generation has benefitted from their parents’ education, while for digital hygiene we have not yet developed the adequate “sensors”.

Of course, digital hygiene rules can be annoying, and even limit our range. Some people would say that they are obvious and it is pointless to repeat them. Not so, since there are still people who insert pen drives into their computers without thinking.

Terminology used in the digital context does not help to understand the importance of these rules. In fact, using words like “virtual” or prefixes like “cyber” drives people away from a real perception of physical dangers, so they think that digital hygiene standards are irrelevant.

Probably the best way to make people understand, accept and apply the digital hygiene rules is to establish a connection to the analogous hygiene rule in the physical world. People could thus better understand that what happens in their PCs and their mobile devices is not virtual but real, as its consequences are.

People’s awareness could just start from here.


----
Article first published on BroadBand4Europe, October 18th, 2017.

There is also an italian version.