di Enrico Nardelli
Poco tempo fa la ministra dell'Istruzione, Valeria Fedeli, ha dichiarato che dal 2018 il coding (cioè la programmazione informatica) verrà introdotto nelle scuole primarie.
Sull'importanza di educare i bambini fin da piccoli al "digitale" c'è vasta attenzione sui media e nella pubblica opinione, ma anche molta confusione. Da un lato ci si fa affascinare dal termine inglese (ne ho scritto recentemente) come se promettesse chissà quale mirabolante competenza ai nostri figli, dall'altro non si distingue tra gli aspetti scientifici, duraturi e formativi, e quelli tecnologici-strumentali, interessanti ma temporanei. Ne ho discusso nella versione iniziale di questo post, il cui titolo – deciso dalla redazione – ha probabilmente fuorviato il lettore. Mentre infatti l’intento era di mettere in rilievo l’importanza di insegnare l’informatica (e non soltanto la programmazione informatica), e chiamandola col suo nome e non con l’inglesismo di moda, il risultato è stato l’opposto. Diversi lettori hanno infatti contestato la necessità di insegnare a bambini e ragazzi un’abilità tipicamente lavorativa. Ritorno nel seguito su questo aspetto.
Proprio per la confusione un po’ dilagante in materia di insegnamento delle competenze digitali, avevamo già da tempo iniziato a ragionare come CINI (il consorzio delle più di 40 università che fanno ricerca e didattica in informatica) su come inserire la formazione informatica nella scuola italiana. Si tratta di un aspetto su cui alcuni paesi, per esempio UK, USA, Francia, Germania sono già in fase realizzativa. Nel nostro paese, il CINI sta portando avanti (questo è il quarto anno) il progetto Programma il Futuro, che finora ha complessivamente avvicinato quasi 3 milioni di studenti ad una formazione informatica "seria" (che chiamiamo pensiero computazionale per evitare l’equivoco in cui moltissimi incorrono che insegnare l’informatica significhi insegnare l’uso degli strumenti digitali).
In un recente convegno presso la Camera dei Deputati, organizzato con l'Intergruppo Innovazione, un gruppo bipartisan di deputati e senatori che hanno a cuore lo sviluppo del Paese al di là degli steccati ideologici, abbiamo reso pubblica la proposta della nostra comunità (più di 1500 tra professori e ricercatori in informatica e ingegneria informatica) alla presenza del MIUR. Si tratta di un documento articolato e frutto di una lunga fase di consultazione, che ha coinvolto non soltanto la nostra comunità, ma anche pedagogisti e docenti da tempo impegnati nell'insegnamento dell'informatica nella scuola.
Il documento è stato discusso durante il convegno con pedagogisti e filosofi, nonché con rappresentanti del mondo imprenditoriale, dal momento che la formazione informatica ha un impatto sia culturale che professionale. Invito a rivedere il video dell'evento per cogliere la multidisciplinarietà degli interventi, tutti di eccellente livello.
Prima della discussione della proposta ho presentato un recente rapporto sullo stato dell’insegnamento dell’informatica nelle scuole europee, preparato dalle due principali associazioni di informatici europei: Informatics Europe (che raggruppa dipartimenti universitari e centri di ricerca aziendali) e ACM Europe Council (Consiglio Direttivo della sezione europea dell'ACM, la maggiore associazione mondiale di professionisti e studiosi).
La sua prima e più importante raccomandazione è che tutti gli studenti devono avere accesso curriculare nella scuola alla formazione in Informatica (iniziando preferibilmente alla primaria), dal momento che questa disciplina scientifica deve far parte del bagaglio culturale di ogni cittadino della società digitale. La seconda è che, a questo scopo, è necessario formare adeguatamente gli insegnanti, ovviamente in modo diverso per i diversi ordini di scuola. Se ne riparlerà il 15 marzo 2018 a Bruxelles con la Commissione Europea.
Ritorno adesso a discutere brevemente cosa vuol dire insegnare informatica nella scuola e perché sia importante. Potete trovare una trattazione più estesa in questo articolo apparso sulla rivista Mondo Digitale dell’AICA. Prima di tutto chiariamo che NON vuol dire insegnare la programmazione. Non più di quanto insegnare la matematica voglia dire insegnare a fare i conti. Prendiamo le scuole elementari in cui si inizia a studiare matematica imparando la tavola pitagorica: il fine non è tanto sapere a memoria che 3x2=6 o 12:4=3, quanto capire che se 3 bambine hanno 2 caramelle ciascuna il numero totale di caramelle si ottiene con la moltiplicazione, mentre se 12 biscotti devono essere distribuiti a 4 bambine il numero di biscotti per bambina si ottiene con la divisione. Non stiamo quindi tanto insegnando uno strumento operativo, quanto una chiave di comprensione della realtà (“il pensiero matematico”).
L’informatica è una disciplina che, come altre scienze, ha il suo particolare punto di vista sul mondo, il suo “paradigma concettuale” in base al quale descrive e spiega i fenomeni. Tale particolare “punto di vista” è quello dei “processi automatici di manipolazione dell’informazione”. Quindi, giusto per fare alcuni esempi, così come sono concetti essenziali per un matematico la quantità e le loro relazioni o per un chimico le molecole e le reazioni, così sono concetti essenziali per un informatico quelli di algoritmo, linguaggio, automa, e così via.
Non è mai inutile sottolineare che ognuno dei grandi paradigmi scientifici (scienze umane e sociali, scienze della vita, scienze fisiche) può essere usato per descrivere la stessa realtà, ed a seconda dei casi e dei contesti uno di essi può essere quello più utile per la comprensione e la spiegazione oppure può esserlo la loro combinazione. L’informatica aggiunge un quarto grande paradigma, quello dei “processi automatici di manipolazione dell’informazione”, che permette di aggiungere nuovi e utili modi per spiegare quanto accade in molti ambiti, dalla biologia all’economia, dalle relazioni sociali alla medicina.
Informatica non è quindi solo programmazione: questa è usare un linguaggio per dare istruzioni ad un computer. Serve capire com’è fatta questa macchina (l’automa) che deve comprendere la nostre istruzioni. Serve anche capire in che modo esprimere queste istruzioni (il linguaggio di programmazione). Serve sapere come elaborare algoritmi in grado di esprimere efficacemente queste istruzioni. La nostra proposta indica uno scenario completo per l’inserimento dell’insegnamento di questa disciplina nella scuola italiana.
Ritorniamo adesso a parlare dell’evento presso la Camera dei Deputati in cui si è discusso dell’importanza dell’informatica sia nella scuola che nel mondo del lavoro.
Alcune istantanee della prima tavola rotonda sulla proposta CINI: si è evidenziato come l'informatica conduca a costruire strumenti che cambiano la percezione della realtà (Simone Martini), richiamato l'importanza di insegnare informatica senza che poi l'uso degli strumenti conduca a perdere la dimensione del "noi" e della "realtà" (Italo Fiorin), ricordato che apprendere strumenti che rendono facili le cose senza faticare per apprendere il come e il perché essi funzionino sia solo un'illusione di formazione (Giovanni Salmeri).
Nella seconda, si è da un lato ricordata ed apprezzata l’azione legislativa di supporto allo sviluppo digitale delle imprese italiane, e dall’altro convenuto di avviare un tavolo di confronto tra università e imprese affinché, nel rispetto del diverso orizzonte temporale con cui esse operano, si definiscano soluzioni formative che preparino ad essere attivi professionalmente per tutta la vita lavorativa e, al tempo stesso, aiutino rapidamente le aziende in questa epocale trasformazione sociale.
Ricordo sempre che l’automazione produttiva derivante dall’informatica (la cosiddetta “impresa digitale”) è radicalmente diversa dalla tradizionale automazione industriale. Quest’ultima è stata essenzialmente la sostituzione dell’azione fisica delle persone con la forza delle macchine, sotto la guida delle facoltà cognitive delle persone. L’automazione digitale è invece la sostituzione delle capacità cognitive dell’uomo con una macchina, che però non sarà mai intelligente come un essere umano, anche se elabora dati molto più velocemente.
È un problema culturale: se non si capisce quanto profondamente questo è vero, nessuna innovazione digitale produrrà davvero gli effetti sperati.
-----
Versione originale pubblicata sul "Il Fatto Quotidiano" il 20 dicembre 2017
martedì 12 dicembre 2017
mercoledì 1 novembre 2017
Digital hygiene: basic rules of prevention
di Isabella Corradini e Enrico Nardelli
Digital hygiene, a weird title. If taken literally, it would imply cleaning our digital instruments. Maybe we should talk about it, as mobile phones, smartphones and tablets are now part of the human body and we take them everywhere, since we both need them and are addicted to them (worthless to deny it), and their cleaning is not always treated with the same attention we use for ourselves.
Actually, we are talking about hygiene in the traditional sense. Hygiene rules have been taught since our childhood and they are one of the prevention measures that have most contributed over the last two centuries to lengthen the average life span. But in the digital world it is not so usual to hear these words. People sometimes use the expression digital hygiene to refer to how they relate to others in social networks or how not to become slaves of their own devices, but that’s not our interpretation.
In our view, this expression has instead to be used in a way similar to what happens in the physical world, where hygiene norms are appropriate for preventing illness. Here, the discovery by Hungarian physician Ignaz Semmelweis was crucial in the mid-nineteenth century, and thousands of women’s lives were saved. He observed that, washing his hands after an autopsy and before assisting women in labour, the frequency of their mortality was enormously reduced. Hence, washing one’s own hands became the fundamental ritual before starting surgical operations. This didn’t happen overnight, though, since it took a few decades – as is sometimes the case – for this discovery to be accepted and spread.
By extension, it became one of the basic tenets taught to all children: “Wash your hands ” is still the rule before going to the table and, more generally, whenever one comes home. The fundamental motivation is that “out there” there is a world that can be hostile because of microbes and infections, and it’s important to take countermeasures.
While in the physical case this message is widely accepted and socially shared, unfortunately the digital version of the same prevention message is less immediate. For example, how many people are still inserting unknown USB sticks or opening unknown attachments on their devices (PCs, tablets, or smartphones) without being aware that they can be infected?
The analogy is entirely true: the digital world is populated by “life forms” that are not always benign towards our “digital self”. Viruses and worms, for example, continue to spread at an alarming rate, and current precautions do not seem to be sufficiently effective.
A partial justification is that the evolution of these digital organisms has proceeded at an elusive speed for humans. For traditional physical hygiene rules the present generation has benefitted from their parents’ education, while for digital hygiene we have not yet developed the adequate “sensors”.
Of course, digital hygiene rules can be annoying, and even limit our range. Some people would say that they are obvious and it is pointless to repeat them. Not so, since there are still people who insert pen drives into their computers without thinking.
Terminology used in the digital context does not help to understand the importance of these rules. In fact, using words like “virtual” or prefixes like “cyber” drives people away from a real perception of physical dangers, so they think that digital hygiene standards are irrelevant.
Probably the best way to make people understand, accept and apply the digital hygiene rules is to establish a connection to the analogous hygiene rule in the physical world. People could thus better understand that what happens in their PCs and their mobile devices is not virtual but real, as its consequences are.
People’s awareness could just start from here.
----
Article first published on BroadBand4Europe, October 18th, 2017 (archived copy, the original site is no more available).
There is also an italian version.
Digital hygiene, a weird title. If taken literally, it would imply cleaning our digital instruments. Maybe we should talk about it, as mobile phones, smartphones and tablets are now part of the human body and we take them everywhere, since we both need them and are addicted to them (worthless to deny it), and their cleaning is not always treated with the same attention we use for ourselves.
Actually, we are talking about hygiene in the traditional sense. Hygiene rules have been taught since our childhood and they are one of the prevention measures that have most contributed over the last two centuries to lengthen the average life span. But in the digital world it is not so usual to hear these words. People sometimes use the expression digital hygiene to refer to how they relate to others in social networks or how not to become slaves of their own devices, but that’s not our interpretation.
In our view, this expression has instead to be used in a way similar to what happens in the physical world, where hygiene norms are appropriate for preventing illness. Here, the discovery by Hungarian physician Ignaz Semmelweis was crucial in the mid-nineteenth century, and thousands of women’s lives were saved. He observed that, washing his hands after an autopsy and before assisting women in labour, the frequency of their mortality was enormously reduced. Hence, washing one’s own hands became the fundamental ritual before starting surgical operations. This didn’t happen overnight, though, since it took a few decades – as is sometimes the case – for this discovery to be accepted and spread.
By extension, it became one of the basic tenets taught to all children: “Wash your hands ” is still the rule before going to the table and, more generally, whenever one comes home. The fundamental motivation is that “out there” there is a world that can be hostile because of microbes and infections, and it’s important to take countermeasures.
While in the physical case this message is widely accepted and socially shared, unfortunately the digital version of the same prevention message is less immediate. For example, how many people are still inserting unknown USB sticks or opening unknown attachments on their devices (PCs, tablets, or smartphones) without being aware that they can be infected?
The analogy is entirely true: the digital world is populated by “life forms” that are not always benign towards our “digital self”. Viruses and worms, for example, continue to spread at an alarming rate, and current precautions do not seem to be sufficiently effective.
A partial justification is that the evolution of these digital organisms has proceeded at an elusive speed for humans. For traditional physical hygiene rules the present generation has benefitted from their parents’ education, while for digital hygiene we have not yet developed the adequate “sensors”.
Of course, digital hygiene rules can be annoying, and even limit our range. Some people would say that they are obvious and it is pointless to repeat them. Not so, since there are still people who insert pen drives into their computers without thinking.
Terminology used in the digital context does not help to understand the importance of these rules. In fact, using words like “virtual” or prefixes like “cyber” drives people away from a real perception of physical dangers, so they think that digital hygiene standards are irrelevant.
Probably the best way to make people understand, accept and apply the digital hygiene rules is to establish a connection to the analogous hygiene rule in the physical world. People could thus better understand that what happens in their PCs and their mobile devices is not virtual but real, as its consequences are.
People’s awareness could just start from here.
----
Article first published on BroadBand4Europe, October 18th, 2017 (archived copy, the original site is no more available).
There is also an italian version.
venerdì 20 ottobre 2017
Dal coding a Borges
di Enrico Nardelli
In questa ripresa autunnale delle attività del mondo dell’istruzione si va diffondendo, dalla scuola all’università, il concetto che il coding (cioè la programmazione informatica) sia il nuovo inglese.
Ha iniziato la Bocconi, imponendo a tutti gli studenti della triennale l’esame di programmazione. Ho stigmatizzato più di tre anni fa la sciatteria linguistica dell’usare un termine inglese al posto dell’equivalente italiano. Non sono stato né il primo né l’ultimo, ma ci tengo a ribadire che usare la nostra lingua significa sostenere la nostra identità sociale e culturale. E le identità sono importanti per rispettare le differenze. La biologia e la fisica da milioni di anni ci insegnano che solo dalla differenziazione nasce la ricchezza dei sistemi.
Diversi giornali hanno ripreso e rilanciato questo concetto, comunicativamente molto semplice, ma concettualmente del tutto sbagliato, ed hanno invocato l’introduzione del coding anche nelle scuole. Spiegherò in modo sintetico perché questa formulazione sia errata.
Poiché la programmazione informatica consiste nel dare istruzioni ad un computer, può sembrare che imparare un linguaggio di programmazione sia la stessa cosa dell’imparare una nuova lingua. Così come con circa un miliardo di persone che parlano cinese o inglese ha senso imparare una di queste lingue, così con diversi miliardi di oggetti tecnologici al mondo che sono computer sembra utile imparare “la lingua dei computer”.
Il problema è che la lingua è solo lo strumento mediante il quale viene espresso il pensiero. Non essendo un linguista, non discuto se l’ipotesi di Sapir-Worf (la lingua parlata condiziona il sistema cognitivo del parlante) sia vera o meno. Ma è ben chiaro a tutti che non è tanto il sapere l’inglese che determina il successo di un imprenditore o di un professionista, quanto le sue competenze e abilità nel suo specifico campo.
Non basta quindi conoscere un linguaggio di programmazione per capire e comprendere il mondo digitale. È illusorio e sbagliato pensarlo. Così come un’espressione linguistica è solo una rappresentazione del pensiero, così un programma informatico è solo la forma mediante cui rendiamo concreto il “modo di pensare di un informatico”, cioè il pensiero computazionale.
Ciò che quindi dovrebbe essere insegnato, nelle scuole ancor prima che nelle università, è la disciplina che favorisce lo sviluppo di questo modo di pensare, cioè l’informatica. Questo è necessario per comprendere le basi scientifiche del mondo digitale, per sapersi orientare nella società odierna in modo più informato e competente.
Però il lettore fedele, o quello critico che si pone la domanda «ma vediamo un po’ che ha scritto il Nardelli su questo tema» e fa un po’ di ricerca, potrebbero obiettare: «scusa, ma tu stesso hai parlato del Pensiero computazionale come nuovo linguaggio per la descrizione del mondo e di Informatica: il nuovo latino che tutti amano». Non sono linguaggi?
Purtroppo la comunicazione umana è terreno estremamente scivoloso. Un’espressione può essere in certi casi uno scalpello che incide esattamente il profilo voluto, ma in altri casi può assumere significati estremamente diversi. Quest’ultimo può essere un vantaggio che permette di ottenere un vasto consenso, ma si trasforma in debolezza quando si tratta di assumere basi condivise e concordare azioni comuni. Il mondo della conoscenza scientifica utilizza un linguaggio matematico proprio perché è l’unico che apporta solo benefici, senza danni. Nella comunicazione tra persone non c’è alternativa alla discussione serena ed argomentata.
In quei precedenti articoli ho usato il termine “linguaggio” nel significato con cui spesso si usa il termine “matematica” per denotare un “linguaggio” in grado di descrivere con assoluta esattezza quantità e relazioni. Per usare termini un po’ filosofici, ho usato “linguaggio” come sinonimo di “paradigma epistemologico”. Detto in parole povere, come sinonimo di “chiave per la lettura della realtà”. Quindi dicendo che “il pensiero computazionale fornisce un nuovo linguaggio per la descrizione del mondo” sto dicendo che mediante di esso è possibile descrivere alcuni fenomeni “come se” fossero delle computazioni. Non è detto che lo siano effettivamente, ma attraverso l’informatica si hanno nuovi e utili modi per analizzare e spiegare la realtà. Un esempio lampante è la descrizione dei processi biologici a livello molecolare: il meccanismo di replicazione del DNA può anche essere visto “come se” fosse una computazione, e questo ha offerto enormi vantaggi per la sua comprensione. Anche in economia e in sociologia si trovano esempi dell’utilità dell’approccio informatico.
Ritorno sull’importanza di insegnare già nella scuola “come pensa un informatico” con un esempio preso dalla matematica. Nelle elementari insegniamo “a far di conto” non tanto perché il fine sia imparare 3x2=6 o 12:4=3, cioè la tavola pitagorica, quanto perché è importante che il bambino capisca che se 3 bambine hanno 2 caramelle ciascuna il numero totale di caramelle si ottiene con la moltiplicazione, mentre se 12 biscotti devono essere distribuiti a 4 bambine il numero di biscotti per bambina si ottiene con la divisione. Non stiamo quindi tanto insegnando uno strumento operativo, quanto una chiave di comprensione della realtà (“il pensiero matematico”).
E perché andrebbe insegnata nella scuola? potrebbero chiedere altri lettori, osservando che bambine e bambini sono ormai tutti nativi digitali che già parlano “la lingua dei computer”. Ho già spiegato che non si tratta di insegnare un linguaggio ma un modo di pensare.
Inoltre, come aveva già evidenziato Giorgio Israel, l’espressione “nativi digitali” indica semplicemente coloro che sono nati in una società digitale. Estendere tale denotazione a suggerire una loro capacità di comprensione “innata” di tale mondo è una delle insidie della comunicazione di cui dobbiamo essere avvertiti. Soprattutto se parliamo della maggioranza della popolazione scolastica e non ci facciamo abbagliare dalle eccezioni che sono quelle che più facilmente trovano spazio sui mass media.
I ragazzi, grazie anche alla maggiore quantità di tempo a disposizione rispetto agli adulti e ad una curiosità ancora vivissima, spesso riescono con questi dispositivi a sorprenderci. Però, la comprensione che hanno di una tecnologia più complessa di qualunque altra costruita dall’uomo è solo apparente, in assenza di un’adeguata istruzione. Chiedete nelle scuole la differenza tra Google (il motore di ricerca) ed Internet e vedrete. Per carità, gli esseri umani sono così intelligenti che possono usare il mondo intorno a loro anche senza una spiegazione razionale completa di come funziona, ma in questo caso non si tratta di un “libro della natura” difficile da leggere, ma di un’infrastruttura tecnologica estremamente complessa, costruita da persone per le persone, in cui l’alternativa è tra creare il proprio futuro o farselo imporre.
A questo si aggiunge la difficoltà, per precise scelte di mercato dei produttori dei dispositivi informatici moderni, di “mettere le mani in pasta” per “vedere che accade se”. Nei decenni successivi alla seconda guerra mondiale, il tessuto produttivo del Paese è stato riscostruito anche grazie al fatto che una gioventù intraprendente poteva smontare, studiare e rimontare macchinari, per riprodurli e migliorarli. Tutto questo è impossibile con le soluzioni “chiavi in mano” degli strumenti smart di oggi ed è uno dei motivi per i quali, invece soluzioni “aperte” sia a livello hardware (tipo Arduino) che software (tipo Linux) dovrebbero essere lo standard assoluto per la scuola.
Concludo osservando che non è solo la complessità della tecnologia che sfugge ai cosiddetti “nativi digitali” e non può essere conseguita da un semplice corso di coding. Il “pensare come un informatico”, cioè il possedere quegli strumenti intellettuali che rimangono dopo aver studiato informatica, è necessario per capire che l’automazione produttiva derivante dall’informatica (la cosiddetta “impresa digitale”) è radicalmente diversa dalla tradizionale automazione industriale.
Quest’ultima è stata essenzialmente la sostituzione dell’azione fisica delle persone con la forza delle macchine, sotto la guida delle facoltà cognitive delle persone. L’automazione digitale è la sostituzione dell’intelligenza umana con una macchina: si tratta di un drammatico cambiamento di paradigma che la società contemporanea non ha ancora pienamente assorbito e compreso. Una delle capacità essenziali dell’intelligenza umana è l’adattabilità ai cambiamenti dell’ambiente, la flessibilità nel gestire esigenze nuove o modificate. Le persone hanno una capacità innata di evolversi per fronteggiare l’evoluzione e di imparare dagli errori. I sistemi informatici non ce l’hanno.
Riprendendo una metafora introdotta da Umberto Eco, i sistemi informatici sono come quel “Funes el memorioso” descritto da Jorge Luis Borges, che era in grado di ricordare e correlare ogni più minimo dettaglio della sua esistenza ma quasi incapace di idee generali, di pensare. In un mondo in cui non è più necessario ricordare, perché ogni informazione è facilmente reperibile, in cui la manipolazione di simboli può essere ripetuta a velocità fantastica ed a costi irrisori, la capacità di porsi le giuste domande e di trovare soluzioni innovative è ciò che farà la differenza. L’informatica (la scienza, non la tecnologia) è una (non l’unica) palestra potente. L’istruzione umanistica è un’altra.
Senza esaltare né demonizzare l’uso delle tecnologie digitali in classe, scenario complesso da affrontare con un approccio critico-problematico, è bene ricordare che vi sono evidenze scientifiche che la disponibilità di strumenti che ci consentono di essere sempre connessi disturba le capacità cognitive (il cosiddetto effetto brain drain). Non è un caso che in quella Silicon Valley le cui invenzioni hanno reso il futuro presente, da molti anni ormai i figli della classe dirigente studiano in scuole senza smartphone né tablet ma con libri di carta e laboratori.
-----
Versione originale pubblicata su "Il Fatto Quotidiano" il 17 ottobre 2017.
In questa ripresa autunnale delle attività del mondo dell’istruzione si va diffondendo, dalla scuola all’università, il concetto che il coding (cioè la programmazione informatica) sia il nuovo inglese.
Ha iniziato la Bocconi, imponendo a tutti gli studenti della triennale l’esame di programmazione. Ho stigmatizzato più di tre anni fa la sciatteria linguistica dell’usare un termine inglese al posto dell’equivalente italiano. Non sono stato né il primo né l’ultimo, ma ci tengo a ribadire che usare la nostra lingua significa sostenere la nostra identità sociale e culturale. E le identità sono importanti per rispettare le differenze. La biologia e la fisica da milioni di anni ci insegnano che solo dalla differenziazione nasce la ricchezza dei sistemi.
Diversi giornali hanno ripreso e rilanciato questo concetto, comunicativamente molto semplice, ma concettualmente del tutto sbagliato, ed hanno invocato l’introduzione del coding anche nelle scuole. Spiegherò in modo sintetico perché questa formulazione sia errata.
Poiché la programmazione informatica consiste nel dare istruzioni ad un computer, può sembrare che imparare un linguaggio di programmazione sia la stessa cosa dell’imparare una nuova lingua. Così come con circa un miliardo di persone che parlano cinese o inglese ha senso imparare una di queste lingue, così con diversi miliardi di oggetti tecnologici al mondo che sono computer sembra utile imparare “la lingua dei computer”.
Il problema è che la lingua è solo lo strumento mediante il quale viene espresso il pensiero. Non essendo un linguista, non discuto se l’ipotesi di Sapir-Worf (la lingua parlata condiziona il sistema cognitivo del parlante) sia vera o meno. Ma è ben chiaro a tutti che non è tanto il sapere l’inglese che determina il successo di un imprenditore o di un professionista, quanto le sue competenze e abilità nel suo specifico campo.
Non basta quindi conoscere un linguaggio di programmazione per capire e comprendere il mondo digitale. È illusorio e sbagliato pensarlo. Così come un’espressione linguistica è solo una rappresentazione del pensiero, così un programma informatico è solo la forma mediante cui rendiamo concreto il “modo di pensare di un informatico”, cioè il pensiero computazionale.
Ciò che quindi dovrebbe essere insegnato, nelle scuole ancor prima che nelle università, è la disciplina che favorisce lo sviluppo di questo modo di pensare, cioè l’informatica. Questo è necessario per comprendere le basi scientifiche del mondo digitale, per sapersi orientare nella società odierna in modo più informato e competente.
Però il lettore fedele, o quello critico che si pone la domanda «ma vediamo un po’ che ha scritto il Nardelli su questo tema» e fa un po’ di ricerca, potrebbero obiettare: «scusa, ma tu stesso hai parlato del Pensiero computazionale come nuovo linguaggio per la descrizione del mondo e di Informatica: il nuovo latino che tutti amano». Non sono linguaggi?
Purtroppo la comunicazione umana è terreno estremamente scivoloso. Un’espressione può essere in certi casi uno scalpello che incide esattamente il profilo voluto, ma in altri casi può assumere significati estremamente diversi. Quest’ultimo può essere un vantaggio che permette di ottenere un vasto consenso, ma si trasforma in debolezza quando si tratta di assumere basi condivise e concordare azioni comuni. Il mondo della conoscenza scientifica utilizza un linguaggio matematico proprio perché è l’unico che apporta solo benefici, senza danni. Nella comunicazione tra persone non c’è alternativa alla discussione serena ed argomentata.
In quei precedenti articoli ho usato il termine “linguaggio” nel significato con cui spesso si usa il termine “matematica” per denotare un “linguaggio” in grado di descrivere con assoluta esattezza quantità e relazioni. Per usare termini un po’ filosofici, ho usato “linguaggio” come sinonimo di “paradigma epistemologico”. Detto in parole povere, come sinonimo di “chiave per la lettura della realtà”. Quindi dicendo che “il pensiero computazionale fornisce un nuovo linguaggio per la descrizione del mondo” sto dicendo che mediante di esso è possibile descrivere alcuni fenomeni “come se” fossero delle computazioni. Non è detto che lo siano effettivamente, ma attraverso l’informatica si hanno nuovi e utili modi per analizzare e spiegare la realtà. Un esempio lampante è la descrizione dei processi biologici a livello molecolare: il meccanismo di replicazione del DNA può anche essere visto “come se” fosse una computazione, e questo ha offerto enormi vantaggi per la sua comprensione. Anche in economia e in sociologia si trovano esempi dell’utilità dell’approccio informatico.
Ritorno sull’importanza di insegnare già nella scuola “come pensa un informatico” con un esempio preso dalla matematica. Nelle elementari insegniamo “a far di conto” non tanto perché il fine sia imparare 3x2=6 o 12:4=3, cioè la tavola pitagorica, quanto perché è importante che il bambino capisca che se 3 bambine hanno 2 caramelle ciascuna il numero totale di caramelle si ottiene con la moltiplicazione, mentre se 12 biscotti devono essere distribuiti a 4 bambine il numero di biscotti per bambina si ottiene con la divisione. Non stiamo quindi tanto insegnando uno strumento operativo, quanto una chiave di comprensione della realtà (“il pensiero matematico”).
E perché andrebbe insegnata nella scuola? potrebbero chiedere altri lettori, osservando che bambine e bambini sono ormai tutti nativi digitali che già parlano “la lingua dei computer”. Ho già spiegato che non si tratta di insegnare un linguaggio ma un modo di pensare.
Inoltre, come aveva già evidenziato Giorgio Israel, l’espressione “nativi digitali” indica semplicemente coloro che sono nati in una società digitale. Estendere tale denotazione a suggerire una loro capacità di comprensione “innata” di tale mondo è una delle insidie della comunicazione di cui dobbiamo essere avvertiti. Soprattutto se parliamo della maggioranza della popolazione scolastica e non ci facciamo abbagliare dalle eccezioni che sono quelle che più facilmente trovano spazio sui mass media.
I ragazzi, grazie anche alla maggiore quantità di tempo a disposizione rispetto agli adulti e ad una curiosità ancora vivissima, spesso riescono con questi dispositivi a sorprenderci. Però, la comprensione che hanno di una tecnologia più complessa di qualunque altra costruita dall’uomo è solo apparente, in assenza di un’adeguata istruzione. Chiedete nelle scuole la differenza tra Google (il motore di ricerca) ed Internet e vedrete. Per carità, gli esseri umani sono così intelligenti che possono usare il mondo intorno a loro anche senza una spiegazione razionale completa di come funziona, ma in questo caso non si tratta di un “libro della natura” difficile da leggere, ma di un’infrastruttura tecnologica estremamente complessa, costruita da persone per le persone, in cui l’alternativa è tra creare il proprio futuro o farselo imporre.
A questo si aggiunge la difficoltà, per precise scelte di mercato dei produttori dei dispositivi informatici moderni, di “mettere le mani in pasta” per “vedere che accade se”. Nei decenni successivi alla seconda guerra mondiale, il tessuto produttivo del Paese è stato riscostruito anche grazie al fatto che una gioventù intraprendente poteva smontare, studiare e rimontare macchinari, per riprodurli e migliorarli. Tutto questo è impossibile con le soluzioni “chiavi in mano” degli strumenti smart di oggi ed è uno dei motivi per i quali, invece soluzioni “aperte” sia a livello hardware (tipo Arduino) che software (tipo Linux) dovrebbero essere lo standard assoluto per la scuola.
Concludo osservando che non è solo la complessità della tecnologia che sfugge ai cosiddetti “nativi digitali” e non può essere conseguita da un semplice corso di coding. Il “pensare come un informatico”, cioè il possedere quegli strumenti intellettuali che rimangono dopo aver studiato informatica, è necessario per capire che l’automazione produttiva derivante dall’informatica (la cosiddetta “impresa digitale”) è radicalmente diversa dalla tradizionale automazione industriale.
Quest’ultima è stata essenzialmente la sostituzione dell’azione fisica delle persone con la forza delle macchine, sotto la guida delle facoltà cognitive delle persone. L’automazione digitale è la sostituzione dell’intelligenza umana con una macchina: si tratta di un drammatico cambiamento di paradigma che la società contemporanea non ha ancora pienamente assorbito e compreso. Una delle capacità essenziali dell’intelligenza umana è l’adattabilità ai cambiamenti dell’ambiente, la flessibilità nel gestire esigenze nuove o modificate. Le persone hanno una capacità innata di evolversi per fronteggiare l’evoluzione e di imparare dagli errori. I sistemi informatici non ce l’hanno.
Riprendendo una metafora introdotta da Umberto Eco, i sistemi informatici sono come quel “Funes el memorioso” descritto da Jorge Luis Borges, che era in grado di ricordare e correlare ogni più minimo dettaglio della sua esistenza ma quasi incapace di idee generali, di pensare. In un mondo in cui non è più necessario ricordare, perché ogni informazione è facilmente reperibile, in cui la manipolazione di simboli può essere ripetuta a velocità fantastica ed a costi irrisori, la capacità di porsi le giuste domande e di trovare soluzioni innovative è ciò che farà la differenza. L’informatica (la scienza, non la tecnologia) è una (non l’unica) palestra potente. L’istruzione umanistica è un’altra.
Senza esaltare né demonizzare l’uso delle tecnologie digitali in classe, scenario complesso da affrontare con un approccio critico-problematico, è bene ricordare che vi sono evidenze scientifiche che la disponibilità di strumenti che ci consentono di essere sempre connessi disturba le capacità cognitive (il cosiddetto effetto brain drain). Non è un caso che in quella Silicon Valley le cui invenzioni hanno reso il futuro presente, da molti anni ormai i figli della classe dirigente studiano in scuole senza smartphone né tablet ma con libri di carta e laboratori.
-----
Versione originale pubblicata su "Il Fatto Quotidiano" il 17 ottobre 2017.
sabato 15 luglio 2017
Quanto ne sanno i consumatori di intelligenza artificiale?
di Isabella Corradini
Non c’è dubbio che il tema dell’Intelligenza Artificiale (IA) sia oggetto di grande interesse e di numerosi dibattiti. Le sue potenzialità sono di particolare attrattività per il mondo aziendale in quanto potrebbero rivoluzionare il modo di erogare i servizi alla clientela, e non solo. Ma cosa ne pensano i consumatori?
Nell’ambito di uno studio globale condotto su 6.000 soggetti adulti da Pegasystems, società operante nell’ambito delle soluzioni di Customer Engagement, è emerso un quadro interessante. In particolare, prevale un sentimento di “confusione” nell’interagire con l’IA. Ad esempio, solo il 34% del campione ha dichiarato di averne avuto esperienza diretta, per poi scoprire che in realtà fa già uso nel quotidiano di diversi dispositivi e servizi basati sull’Intelligenza Artificiale.
In questo modo la percentuale sale all’84%. In generale, comunque, dallo studio
emerge, allo stato attuale, una scarsa consapevolezza dei consumatori su cosa sia effettivamente l’Intelligenza Artificiale e sulle sue funzionalità. Se ne parla molto, ma un conto è parlarne da esperti, un conto è spiegare l’IA agli utenti, non sempre padroni del linguaggio tecnologico.
Si tratta di un punto basilare, dal quale può dipendere il comportamento di diffidenza o di apertura verso l’Intelligenza Artificiale. Da un lato, infatti, più del 70% del campione intervistato nutre un certo timore nei confronti dell’AI, dall’altro invece, il 68% dichiara la disponibilità a sperimentarne di più, se ciò dovesse facilitare la vita di tutti i giorni, ad esempio facendo risparmiare tempo e denaro. Diventa dunque indispensabile informare correttamente i consumatori sul tema; e magari dovrebbero essere proprio le imprese a farlo, sia per il fatto che stanno investendo molto in questo campo, sia perché la diffusione di prodotti e servizi è comunque legata al senso di fiducia dei consumatori.
A questo punto, però, sarebbe opportuno attivarsi per una maggiore chiarezza non solo riguardo ai vantaggi dell’IA, ma anche ai possibili rischi. Insomma, far conoscere la reale portata del cambiamento permetterebbe alle persone di decidere, e questa volta con consapevolezza.
Pubblicato su Bancaforte l'8 giugno 2017.
Non c’è dubbio che il tema dell’Intelligenza Artificiale (IA) sia oggetto di grande interesse e di numerosi dibattiti. Le sue potenzialità sono di particolare attrattività per il mondo aziendale in quanto potrebbero rivoluzionare il modo di erogare i servizi alla clientela, e non solo. Ma cosa ne pensano i consumatori?
Nell’ambito di uno studio globale condotto su 6.000 soggetti adulti da Pegasystems, società operante nell’ambito delle soluzioni di Customer Engagement, è emerso un quadro interessante. In particolare, prevale un sentimento di “confusione” nell’interagire con l’IA. Ad esempio, solo il 34% del campione ha dichiarato di averne avuto esperienza diretta, per poi scoprire che in realtà fa già uso nel quotidiano di diversi dispositivi e servizi basati sull’Intelligenza Artificiale.
In questo modo la percentuale sale all’84%. In generale, comunque, dallo studio
emerge, allo stato attuale, una scarsa consapevolezza dei consumatori su cosa sia effettivamente l’Intelligenza Artificiale e sulle sue funzionalità. Se ne parla molto, ma un conto è parlarne da esperti, un conto è spiegare l’IA agli utenti, non sempre padroni del linguaggio tecnologico.
Si tratta di un punto basilare, dal quale può dipendere il comportamento di diffidenza o di apertura verso l’Intelligenza Artificiale. Da un lato, infatti, più del 70% del campione intervistato nutre un certo timore nei confronti dell’AI, dall’altro invece, il 68% dichiara la disponibilità a sperimentarne di più, se ciò dovesse facilitare la vita di tutti i giorni, ad esempio facendo risparmiare tempo e denaro. Diventa dunque indispensabile informare correttamente i consumatori sul tema; e magari dovrebbero essere proprio le imprese a farlo, sia per il fatto che stanno investendo molto in questo campo, sia perché la diffusione di prodotti e servizi è comunque legata al senso di fiducia dei consumatori.
A questo punto, però, sarebbe opportuno attivarsi per una maggiore chiarezza non solo riguardo ai vantaggi dell’IA, ma anche ai possibili rischi. Insomma, far conoscere la reale portata del cambiamento permetterebbe alle persone di decidere, e questa volta con consapevolezza.
Pubblicato su Bancaforte l'8 giugno 2017.
lunedì 29 maggio 2017
La "grande bellezza" dell'informatica
di Enrico Nardelli
Tutta la scienza è basata su astrazioni: spiegare fenomeni mediante modelli che li descrivono. Quando un fisico scrive l’equazione che rappresenta il moto di un corpo, o un chimico la reazione che spiega la formazione di una sostanza, o un biologo descrive il processo di sviluppo di un organismo, stanno tutti costruendo un modello, cioè una rappresentazione della realtà.
Stanno quindi usando l’astrazione: il concentrarsi su ciò che è essenziale per il punto di vista assunto ed è comune a tutti gli specifici esempi descritti dal modello stesso.
Così, sotto certe condizioni che vanno specificate chiaramente, dal momento che le astrazioni non sono sempre valide nel 100% dei possibili scenari, per il fisico non è determinante la materia di cui sono fatti i corpi che si muovono, o per il chimico il colore delle sostanze che reagiscono o per il biologo la nazione in cui si trova l’organismo che si sviluppa.
Generalmente l’astrazione viene formulata in un linguaggio matematico, dal momento che tale disciplina è necessaria ovunque servano precisione e rigore. Un ragionamento scientifico deve necessariamente rientrare nei canoni logici di coerenza e consequenzialità, pena la sua uscita da questo paradigma della conoscenza.
Anche l’informatica usa estesamente l’astrazione, ma in questo suo utilizzo si distingue per una caratteristica che essa sola possiede e che ne costituisce, a mio parere, la ragione che spiega la sua “grande bellezza”. Le astrazioni dell’informatica sono eseguibili in modo meccanico. Vuol dire che possono essere animate, cioè si può “dar loro vita e vedere che accade” senza dover ogni volta costruire una nuova rappresentazione fisica dell’astrazione stessa. Anche nelle altre discipline si può dar vita alle astrazioni mediante oggetti fisici che esprimono i fenomeni modellati, sostanziandone così la loro espressione logico-matematica. Ma per ogni modello va realizzato ad hoc un insieme di oggetti.
Nell’informatica, grazie alla sua astrazione fondamentale, il cui termine tecnico è “Macchina Universale di Turing” (MUT), abbiamo un unico meccanismo unico mediante il quale, sempre allo stesso modo, qualunque modello può essere “meccanicamente” (cioè in modo del tutto automatico) “eseguito” (cioè reso vivo), senza necessità di ulteriore intervento umano. I PC, gli smartphone e i tablet di cui siamo circondati non sono nient’altro che realizzazioni tecnologicamente molto sofisticate della MUT.
Descrivendo questa unicità dell’informatica non intendo ovviamente sostenere che sia più importante o possa sostituire altre discipline scientifiche. Chi si avventura su questa strada apre polemiche infantili e sterili. Voglio solo ribadire la necessità che l’informatica sia insegnata nella scuola, come in altri paesi stanno facendo. Perché offre un nuovo, complementare ed utile punto di vista per la descrizione dei fenomeni naturali ed artificiali.
In Italia usiamo a questo scopo il termine “pensiero computazionale”, suscitando a volte reazioni più emotive che razionali. Ma l’espressione, come ho spesso discusso, è solo un modo di far capire che stiamo parlando dell’informatica come scienza, delle sue idee, princìpi, concetti, metodi ed approcci e non di sistemi, tecnologie e strumenti. In altri paesi questa necessità non c’è, perché si può parlare di “computer science” e di “information technology”. In Italia entrambe sono “informatica”.
Il pensiero computazionale è la capacità, acquisita da chi ha studiato e praticato l’informatica, di riconoscere gli aspetti computazionali dei fenomeni naturali ed artificiali. Vuol dire descrivere alcuni aspetti di questi fenomeni “come se” fossero delle computazioni. Non è detto che lo siano effettivamente, ma in ogni caso offrono nuovi e utili modi per analizzare e spiegare la realtà. Un esempio lampante è la descrizione dei processi biologici a livello molecolare: il meccanismo di replicazione del DNA può anche essere visto “come se” fosse una computazione, e questo ha offerto enormi vantaggi per la sua comprensione. Anche in economia e in sociologia si trovano esempi dell’utilità di questo approccio.
La realtà, dunque, può essere descritta in diversi modi e l’approccio informatico, grazie alla sua capacità di coglierne la sfaccettatura computazionale, certamente è uno di questi.
-----
Versione originale pubblicata su "Il Fatto Quotidiano" il 27 maggio 2017.
Tutta la scienza è basata su astrazioni: spiegare fenomeni mediante modelli che li descrivono. Quando un fisico scrive l’equazione che rappresenta il moto di un corpo, o un chimico la reazione che spiega la formazione di una sostanza, o un biologo descrive il processo di sviluppo di un organismo, stanno tutti costruendo un modello, cioè una rappresentazione della realtà.
Stanno quindi usando l’astrazione: il concentrarsi su ciò che è essenziale per il punto di vista assunto ed è comune a tutti gli specifici esempi descritti dal modello stesso.
Così, sotto certe condizioni che vanno specificate chiaramente, dal momento che le astrazioni non sono sempre valide nel 100% dei possibili scenari, per il fisico non è determinante la materia di cui sono fatti i corpi che si muovono, o per il chimico il colore delle sostanze che reagiscono o per il biologo la nazione in cui si trova l’organismo che si sviluppa.
Generalmente l’astrazione viene formulata in un linguaggio matematico, dal momento che tale disciplina è necessaria ovunque servano precisione e rigore. Un ragionamento scientifico deve necessariamente rientrare nei canoni logici di coerenza e consequenzialità, pena la sua uscita da questo paradigma della conoscenza.
Anche l’informatica usa estesamente l’astrazione, ma in questo suo utilizzo si distingue per una caratteristica che essa sola possiede e che ne costituisce, a mio parere, la ragione che spiega la sua “grande bellezza”. Le astrazioni dell’informatica sono eseguibili in modo meccanico. Vuol dire che possono essere animate, cioè si può “dar loro vita e vedere che accade” senza dover ogni volta costruire una nuova rappresentazione fisica dell’astrazione stessa. Anche nelle altre discipline si può dar vita alle astrazioni mediante oggetti fisici che esprimono i fenomeni modellati, sostanziandone così la loro espressione logico-matematica. Ma per ogni modello va realizzato ad hoc un insieme di oggetti.
Nell’informatica, grazie alla sua astrazione fondamentale, il cui termine tecnico è “Macchina Universale di Turing” (MUT), abbiamo un unico meccanismo unico mediante il quale, sempre allo stesso modo, qualunque modello può essere “meccanicamente” (cioè in modo del tutto automatico) “eseguito” (cioè reso vivo), senza necessità di ulteriore intervento umano. I PC, gli smartphone e i tablet di cui siamo circondati non sono nient’altro che realizzazioni tecnologicamente molto sofisticate della MUT.
Descrivendo questa unicità dell’informatica non intendo ovviamente sostenere che sia più importante o possa sostituire altre discipline scientifiche. Chi si avventura su questa strada apre polemiche infantili e sterili. Voglio solo ribadire la necessità che l’informatica sia insegnata nella scuola, come in altri paesi stanno facendo. Perché offre un nuovo, complementare ed utile punto di vista per la descrizione dei fenomeni naturali ed artificiali.
In Italia usiamo a questo scopo il termine “pensiero computazionale”, suscitando a volte reazioni più emotive che razionali. Ma l’espressione, come ho spesso discusso, è solo un modo di far capire che stiamo parlando dell’informatica come scienza, delle sue idee, princìpi, concetti, metodi ed approcci e non di sistemi, tecnologie e strumenti. In altri paesi questa necessità non c’è, perché si può parlare di “computer science” e di “information technology”. In Italia entrambe sono “informatica”.
Il pensiero computazionale è la capacità, acquisita da chi ha studiato e praticato l’informatica, di riconoscere gli aspetti computazionali dei fenomeni naturali ed artificiali. Vuol dire descrivere alcuni aspetti di questi fenomeni “come se” fossero delle computazioni. Non è detto che lo siano effettivamente, ma in ogni caso offrono nuovi e utili modi per analizzare e spiegare la realtà. Un esempio lampante è la descrizione dei processi biologici a livello molecolare: il meccanismo di replicazione del DNA può anche essere visto “come se” fosse una computazione, e questo ha offerto enormi vantaggi per la sua comprensione. Anche in economia e in sociologia si trovano esempi dell’utilità di questo approccio.
La realtà, dunque, può essere descritta in diversi modi e l’approccio informatico, grazie alla sua capacità di coglierne la sfaccettatura computazionale, certamente è uno di questi.
-----
Versione originale pubblicata su "Il Fatto Quotidiano" il 27 maggio 2017.
lunedì 15 maggio 2017
Chi ha paura del pensiero computazionale? (un anno dopo)
di Enrico Nardelli
A distanza di oltre un anno dal precedente articolo “Chi ha paura del pensiero computazionale?” continuo ad incontrare sulla rete espressioni immotivatamente critiche a proposito di questo termine: «Il pensiero computazionale non esiste» oppure «… è una truffa concettuale» o in alternativa «… è una truffa pedagogica e didattica». Altre posizioni lo descrivono come «… passione pedagogica fondata sul nulla» o, se vogliono concedere qualcosa, come «… piccola e preesistente frazione del pensiero scientifico e tecnologico».
È evidente, leggendo più in dettaglio le critiche, che alcune di queste derivano da opinioni politiche in disaccordo con l’attuale gestione della scuola. Idee del tutto lecite, ma che sviluppandosi su un piano politico non tratto in questa sede.
Qui invece analizzo le considerazioni sull’adeguatezza scientifica e/o didattica del termine “pensiero computazionale”. In genere osservo sempre, come ho fatto su questa rubrica e su questa e su questa, che esso ha il solo scopo di far capire che si parla degli aspetti scientifici e culturali dell’informatica, indipendenti dalla tecnologia. Esso quindi fa riferimento alle idee, ai concetti ed ai princìpi dell’informatica e non a sistemi, tecnologie e strumenti. L’obiettivo strategico per cui viene usato in Italia è arrivare a far sì che nella scuola si insegni l’informatica. Non ovviamente quella delle varie patenti di guida o degli applicativi o di specifici linguaggi di programmazione, ma quella che tutto il mondo riconosce come disciplina scientifica autonoma. Ecco una trattazione più estesa di questo punto. In altri paesi questa necessità non c’è, perché si può parlare di “computer science ” e di “information technology ”. In Italia entrambe sono “informatica ”.
Chiedo sempre a chi è in disaccordo di esplicitare in modo esteso e argomentato posizioni di critica non tanto a ciò che scrivo io, perché non si tratta di una questione personale, ma a quello che hanno scritto prestigiose società scientifiche internazionali. Invito quindi a discutere direttamente il cuore del problema, cioè la necessità dell’insegnamento nelle scuole dell’informatica, sostenuta in questi rapporti: The Royal Society, Shut down or restart? The way forward for computing in UK schools (2012) e Académie des Science, L’enseignement de l’informatique en France. Il est urgent de ne plus attendre (2013), anche in inglese.
Ad oggi non ho letto una critica di questi rapporti fondata su di un’analisi approfondita e motivata.
Tornando alle critiche sopra citate, esse sono generalmente basate sulla tecnica dell’ “argomento fantoccio ” (“straw man ” in inglese). Viene cioè criticata non la definizione generalmente accettata di pensiero computazionale (cioè la modalità di pensiero che ha acquisito ed usa per descrivere e spiegare i fenomeni chi ha studiato e praticato l'informatica come disciplina scientifica) ma una propria definizione scelta ad hoc (p.es: «… come pensano i computer»).
Ribadisco che questa non è una mia definizione ma quella usata da eminenti scienziati nei rapporti sopra citati e in altri documenti ancora. Dal momento che gli informatici esistono, il loro specifico punto di vista sul mondo e il loro particolare modo di pensare esistono. Quindi ritengo esagerato e scorretto dire che “il pensiero computazionale non esiste”.
Certamente vi sono perplessità sulla mancanza di una chiara attività di indirizzo su come insegnare informatica nella scuola. I miei colleghi ed io esercitiamo un'azione di stimolo in questa direzione, ma la situazione è ancora in divenire.
Criticare inoltre – come taluni fanno – l’affermazione che il pensiero computazionale abbia una sua posizione di preminenza rispetto ad altre modalità di lettura della realtà è nuovamente usare un argomento fantoccio. L’attività di pensiero assume differenti modalità o sfumature a seconda della formazione della persona. I modi di pensare e di riflettere sul mondo di un letterato, di un musicista, di un fisico, di un biologo, etc., sono tutti ugualmente validi, diversi l'uno dall'altro e complementari. Contribuiscono tutti alla comprensione del mondo.
Il pensiero computazionale, cioè il modo di descrivere la realtà che hanno gli informatici, apporta qualcosa di nuovo e diverso da quello delle altre discipline scientifiche? Sì, come illustrato dagli scienziati nei rapporti sopra citati. Esso è una nuova, distinta ed utile variante del pensiero scientifico e tecnologico, non certo un piccolo sottoinsieme preesistente.
Va insegnato nella scuola come tale? No, va insegnata a scuola la disciplina che lo sviluppa, cioè l'informatica. È quello che si fa negli USA, in UK e in Francia.
Possiamo confrontarci su come farlo, invece che discutere sulle definizioni?
-----
Pubblicato su "Il Fatto Quotidiano" il 3 maggio 2017.
A distanza di oltre un anno dal precedente articolo “Chi ha paura del pensiero computazionale?” continuo ad incontrare sulla rete espressioni immotivatamente critiche a proposito di questo termine: «Il pensiero computazionale non esiste» oppure «… è una truffa concettuale» o in alternativa «… è una truffa pedagogica e didattica». Altre posizioni lo descrivono come «… passione pedagogica fondata sul nulla» o, se vogliono concedere qualcosa, come «… piccola e preesistente frazione del pensiero scientifico e tecnologico».
È evidente, leggendo più in dettaglio le critiche, che alcune di queste derivano da opinioni politiche in disaccordo con l’attuale gestione della scuola. Idee del tutto lecite, ma che sviluppandosi su un piano politico non tratto in questa sede.
Qui invece analizzo le considerazioni sull’adeguatezza scientifica e/o didattica del termine “pensiero computazionale”. In genere osservo sempre, come ho fatto su questa rubrica e su questa e su questa, che esso ha il solo scopo di far capire che si parla degli aspetti scientifici e culturali dell’informatica, indipendenti dalla tecnologia. Esso quindi fa riferimento alle idee, ai concetti ed ai princìpi dell’informatica e non a sistemi, tecnologie e strumenti. L’obiettivo strategico per cui viene usato in Italia è arrivare a far sì che nella scuola si insegni l’informatica. Non ovviamente quella delle varie patenti di guida o degli applicativi o di specifici linguaggi di programmazione, ma quella che tutto il mondo riconosce come disciplina scientifica autonoma. Ecco una trattazione più estesa di questo punto. In altri paesi questa necessità non c’è, perché si può parlare di “computer science ” e di “information technology ”. In Italia entrambe sono “informatica ”.
Chiedo sempre a chi è in disaccordo di esplicitare in modo esteso e argomentato posizioni di critica non tanto a ciò che scrivo io, perché non si tratta di una questione personale, ma a quello che hanno scritto prestigiose società scientifiche internazionali. Invito quindi a discutere direttamente il cuore del problema, cioè la necessità dell’insegnamento nelle scuole dell’informatica, sostenuta in questi rapporti: The Royal Society, Shut down or restart? The way forward for computing in UK schools (2012) e Académie des Science, L’enseignement de l’informatique en France. Il est urgent de ne plus attendre (2013), anche in inglese.
Ad oggi non ho letto una critica di questi rapporti fondata su di un’analisi approfondita e motivata.
Tornando alle critiche sopra citate, esse sono generalmente basate sulla tecnica dell’ “argomento fantoccio ” (“straw man ” in inglese). Viene cioè criticata non la definizione generalmente accettata di pensiero computazionale (cioè la modalità di pensiero che ha acquisito ed usa per descrivere e spiegare i fenomeni chi ha studiato e praticato l'informatica come disciplina scientifica) ma una propria definizione scelta ad hoc (p.es: «… come pensano i computer»).
Ribadisco che questa non è una mia definizione ma quella usata da eminenti scienziati nei rapporti sopra citati e in altri documenti ancora. Dal momento che gli informatici esistono, il loro specifico punto di vista sul mondo e il loro particolare modo di pensare esistono. Quindi ritengo esagerato e scorretto dire che “il pensiero computazionale non esiste”.
Certamente vi sono perplessità sulla mancanza di una chiara attività di indirizzo su come insegnare informatica nella scuola. I miei colleghi ed io esercitiamo un'azione di stimolo in questa direzione, ma la situazione è ancora in divenire.
Criticare inoltre – come taluni fanno – l’affermazione che il pensiero computazionale abbia una sua posizione di preminenza rispetto ad altre modalità di lettura della realtà è nuovamente usare un argomento fantoccio. L’attività di pensiero assume differenti modalità o sfumature a seconda della formazione della persona. I modi di pensare e di riflettere sul mondo di un letterato, di un musicista, di un fisico, di un biologo, etc., sono tutti ugualmente validi, diversi l'uno dall'altro e complementari. Contribuiscono tutti alla comprensione del mondo.
Il pensiero computazionale, cioè il modo di descrivere la realtà che hanno gli informatici, apporta qualcosa di nuovo e diverso da quello delle altre discipline scientifiche? Sì, come illustrato dagli scienziati nei rapporti sopra citati. Esso è una nuova, distinta ed utile variante del pensiero scientifico e tecnologico, non certo un piccolo sottoinsieme preesistente.
Va insegnato nella scuola come tale? No, va insegnata a scuola la disciplina che lo sviluppa, cioè l'informatica. È quello che si fa negli USA, in UK e in Francia.
Possiamo confrontarci su come farlo, invece che discutere sulle definizioni?
-----
Pubblicato su "Il Fatto Quotidiano" il 3 maggio 2017.
mercoledì 26 aprile 2017
Igiene digitale, norme base di prevenzione
di Isabella Corradini e Enrico Nardelli
Un titolo eccentrico, quello di questo articolo. Farebbe pensare alla pulizia degli strumenti digitali. Forse anche di questo bisognerebbe parlare, visto che cellulari, smartphone e tablet sono ormai parte integrante del corpo umano, vuoi per necessità, vuoi per ragioni di dipendenza (inutile negarlo), e la loro pulizia non è sempre curata con la stessa attenzione.
In realtà stiamo parlando di “igiene digitale” in sé e non di quella degli strumenti. Ed il perché è chiaro pensando all’igiene in senso tradizionale. Le sue regole vengono insegnate fin da bambini e sono tra le misure che più hanno contribuito negli ultimi due secoli ad allungare la durata della vita media. Invece nel mondo digitale (che appare virtuale ma a tutti gli effetti è reale) non si sente mai parlare di “norme d’igiene”. C’è chi con il termine “igiene digitale” si riferisce a come ci si relaziona con gli altri sui social oppure a come non diventare schiavi dei propri dispositivi. Invece, per noi si tratta proprio di norme analoghe a quelle dell’igiene fisica, opportune per prevenire malattie.
In questo ambito fu fondamentale la scoperta del medico ungherese Ignaz Semmelweis intorno alla metà dell’ottocento, grazie alla quale vennero salvate le vite di migliaia di donne. Egli osservò che, lavandosi le mani dopo aver fatto l’autopsia e prima di assistere le partorienti, la frequenza della loro mortalità diminuiva fortemente. Lavarsi le mani diventò il rito fondamentale con cui iniziare le operazioni chirurgiche. Non da subito purtroppo, dal momento che questa scoperta – come a volte avviene – richiese ancora qualche decina d’anni per essere accettate e diffondersi.
Per estensione, divenne la norma fondamentale insegnata a tutti i bambini: “làvati le mani”, era ed è l’intimazione dei genitori prima di mettersi a tavola, ed in generale ogni volta che si rientra a casa. L’assunto igienico fondamentale è che “là fuori” c’è un mondo che può essere ostile in termini di microbi e, a maggior ragione quando si tratta di far entrare qualcosa nel nostro corpo, è opportuno prendere delle contromisure.
Se però nel caso fisico può essere semplice far osservare ad un bambino riottoso lo sporco “sotto le unghie” e quindi convincerlo, per il mondo digitale, purtroppo, il passaggio è molto meno immediato. Quante persone, ad esempio, ancora oggi fanno entrare sul proprio dispositivo (PC, tablet, o smartphone) oggetti fisici (p.es., chiavette USB) o virtuali (p.es., allegati) senza la consapevolezza del loro poter essere “infetti”? È anche vero che l’evoluzione di questi “organismi digitali” è avvenuta con una velocità che l’umanità non ha mai incontrato finora: mentre per gli aspetti fisici la generazione degli attuali genitori ha potuto beneficiare dell’educazione in termini di igiene da parte dei loro genitori, per l’igiene digitale siamo stati tutti immersi di colpo nel giro di neanche vent’anni in un mondo per il quale non abbiamo i sensi adatti.
L’analogia comunque vale interamente: il mondo digitale è popolato di “forme di vita” (lasciateci passare questo termine) che non sempre sono benigne nei confronti nel nostro “io digitale”. Virus e worm ad esempio, continuano a diffondersi a ritmi impressionanti, e le precauzioni non sembrano essere mai sufficienti.
Certo, le regole d’igiene digitale possono essere fastidiose, limitare in alcuni casi il nostro raggio d’azione. Qualcuno dirà che possono apparire scontate e che è inutile stare a ripeterle. In realtà non sono pochi coloro che ancora oggi inseriscono chiavette altrui nei propri dispositivi informatici senza opportune verifiche.
Probabilmente il modo migliore per far capire, accettare ed applicare queste regole al contesto digitale è proprio quello di agganciarle concettualmente al mondo fisico: in questo modo le persone riuscirebbero a comprendere meglio che quello che accade nei loro pc e nei loro dispositivi mobili è reale e non virtuale.
In questi casi, c’è però da osservare che la terminologia impiegata non aiuta. Usare parole come “virtuale” o prefissi come “cyber” allontana le persone dalla reale percezione dei pericoli rispetto al mondo fisico, e fa erroneamente ritenere che le norme d’igiene digitale siano irrilevanti.
Ed è forse proprio da questo che si dovrebbe iniziare.
-----
Pubblicato su "Key4Biz" il 19 aprile 2017.
Un titolo eccentrico, quello di questo articolo. Farebbe pensare alla pulizia degli strumenti digitali. Forse anche di questo bisognerebbe parlare, visto che cellulari, smartphone e tablet sono ormai parte integrante del corpo umano, vuoi per necessità, vuoi per ragioni di dipendenza (inutile negarlo), e la loro pulizia non è sempre curata con la stessa attenzione.
In realtà stiamo parlando di “igiene digitale” in sé e non di quella degli strumenti. Ed il perché è chiaro pensando all’igiene in senso tradizionale. Le sue regole vengono insegnate fin da bambini e sono tra le misure che più hanno contribuito negli ultimi due secoli ad allungare la durata della vita media. Invece nel mondo digitale (che appare virtuale ma a tutti gli effetti è reale) non si sente mai parlare di “norme d’igiene”. C’è chi con il termine “igiene digitale” si riferisce a come ci si relaziona con gli altri sui social oppure a come non diventare schiavi dei propri dispositivi. Invece, per noi si tratta proprio di norme analoghe a quelle dell’igiene fisica, opportune per prevenire malattie.
In questo ambito fu fondamentale la scoperta del medico ungherese Ignaz Semmelweis intorno alla metà dell’ottocento, grazie alla quale vennero salvate le vite di migliaia di donne. Egli osservò che, lavandosi le mani dopo aver fatto l’autopsia e prima di assistere le partorienti, la frequenza della loro mortalità diminuiva fortemente. Lavarsi le mani diventò il rito fondamentale con cui iniziare le operazioni chirurgiche. Non da subito purtroppo, dal momento che questa scoperta – come a volte avviene – richiese ancora qualche decina d’anni per essere accettate e diffondersi.
Per estensione, divenne la norma fondamentale insegnata a tutti i bambini: “làvati le mani”, era ed è l’intimazione dei genitori prima di mettersi a tavola, ed in generale ogni volta che si rientra a casa. L’assunto igienico fondamentale è che “là fuori” c’è un mondo che può essere ostile in termini di microbi e, a maggior ragione quando si tratta di far entrare qualcosa nel nostro corpo, è opportuno prendere delle contromisure.
Se però nel caso fisico può essere semplice far osservare ad un bambino riottoso lo sporco “sotto le unghie” e quindi convincerlo, per il mondo digitale, purtroppo, il passaggio è molto meno immediato. Quante persone, ad esempio, ancora oggi fanno entrare sul proprio dispositivo (PC, tablet, o smartphone) oggetti fisici (p.es., chiavette USB) o virtuali (p.es., allegati) senza la consapevolezza del loro poter essere “infetti”? È anche vero che l’evoluzione di questi “organismi digitali” è avvenuta con una velocità che l’umanità non ha mai incontrato finora: mentre per gli aspetti fisici la generazione degli attuali genitori ha potuto beneficiare dell’educazione in termini di igiene da parte dei loro genitori, per l’igiene digitale siamo stati tutti immersi di colpo nel giro di neanche vent’anni in un mondo per il quale non abbiamo i sensi adatti.
L’analogia comunque vale interamente: il mondo digitale è popolato di “forme di vita” (lasciateci passare questo termine) che non sempre sono benigne nei confronti nel nostro “io digitale”. Virus e worm ad esempio, continuano a diffondersi a ritmi impressionanti, e le precauzioni non sembrano essere mai sufficienti.
Certo, le regole d’igiene digitale possono essere fastidiose, limitare in alcuni casi il nostro raggio d’azione. Qualcuno dirà che possono apparire scontate e che è inutile stare a ripeterle. In realtà non sono pochi coloro che ancora oggi inseriscono chiavette altrui nei propri dispositivi informatici senza opportune verifiche.
Probabilmente il modo migliore per far capire, accettare ed applicare queste regole al contesto digitale è proprio quello di agganciarle concettualmente al mondo fisico: in questo modo le persone riuscirebbero a comprendere meglio che quello che accade nei loro pc e nei loro dispositivi mobili è reale e non virtuale.
In questi casi, c’è però da osservare che la terminologia impiegata non aiuta. Usare parole come “virtuale” o prefissi come “cyber” allontana le persone dalla reale percezione dei pericoli rispetto al mondo fisico, e fa erroneamente ritenere che le norme d’igiene digitale siano irrilevanti.
Ed è forse proprio da questo che si dovrebbe iniziare.
-----
Pubblicato su "Key4Biz" il 19 aprile 2017.
mercoledì 1 marzo 2017
Passeggeri, marinai o navigatori dell'oceano digitale?
di Enrico Nardelli
Chiunque abbia un po’ di ore di esperienza attiva in barca a vela, sa bene che una cosa è conoscere cosa vuol dire “poggiare” o “mollare la scotta” oppure sapere come fare per “dare volta alla cima sulla bitta” o “dare una mano di terzaroli”. Cosa diversa è stabilire la rotta e far arrivare alla sua destinazione un’imbarcazione a vela con tutto il suo equipaggio superando gli imprevisti. I primi sono “i marinai”, i secondi sono “i navigatori di lungo corso”. Tutti gli altri sono “passeggeri”, che pure devono essere informati su dove mettere mani e piedi e come affrontare il viaggio in sicurezza.
Ritengo che nella società contemporanea il “digitale” rivesta il ruolo che fino a due secoli fa rivestiva la navigazione a vela. Era una componente essenziale della prosperità di una società ed ogni nazione grande (in senso commerciale o militare) aveva di norma una grande flotta (commerciale o militare) di velieri, e viceversa. Avere bravi marinai e navigatori competenti era vitale. Il benessere della nazione dipendeva dall'averne in buon numero sia dei primi che dei secondi ed era ben chiara l’importanza di addestrare sia gli uni che gli altri.
In un post di ormai 3 anni fa avevo introdotto una distinzione tra alfabetizzazione digitale ed educazione digitale, che qui riprendo ed estendo utilizzando il contesto di questo parallelo con la marineria.
L’alfabetizzazione digitale (digital literacy in inglese) dovrebbe essere completamente compiuta, come l’alfabetizzazione propriamente detta, al più tardi al termine della scuola primaria. Così come la parte di alfabetizzazione che ha a che vedere con i numeri è basata sulla matematica, così la sua componente che ha a che vedere con il digitale deve essere basata sull’informatica. Nel paragone marinaresco, essa forma i passeggeri, perché comunque, per cavarsela a bordo di una nave, bisogna essere consapevoli del fatto che non si è più sulla terraferma. Detto così appare banale, perché non appena saliamo a bordo di un’imbarcazione tutti i nostri sensi ce lo dicono. Ma nel mondo digitale ci mancano "i sensi" adeguati. L’alfabetizzazione digitale fornisce le “competenze digitali di base” (basic digital skills fa più figo ma è la stessa cosa), essenziali per potersi orientare in quell'“oceano digitale” che è la società attuale.
L’educazione digitale, chiamata anche cittadinanza digitale e nota nel mondo anglosassone come digital fluency, è la capacità di muoversi del tutto a proprio agio in una comunità sociale pervasa di strumenti e dati digitali. La formazione di cittadini digitali, così come la formazione di cittadini tout court, dovrebbe essere completamente conclusa al più tardi al termine della scuola secondaria. A maggior ragione, essa è basata sull’insegnamento del nucleo scientifico-culturale dell’informatica, quello che chiamiamo pensiero computazionale. Questo livello di formazione produce i marinai, cioè quelli che nell’oceano digitale posseggono la digital fluency.
Una nota di cautela: spesso nelle discussioni mediatiche e politiche si usa il termine “competenze digitali” (digital skills) senza qualificare se si parli di quelle di base, prodotto dell’alfabetizzazione, o di quelle che rendono uno studente un vero “cittadino digitale”, ottenute al termine del percorso scolastico.
Voglio anche evidenziare il pericolo di affrontare la formazione delle competenze digitali senza fondarle sul pensiero computazionale. Temo che un tale approccio conduca a formare marinai che come diceva Leonardo da Vinci:
“… sono come i nocchieri che entrano in naviglio senza timone o bussola, che mai hanno certezza dove si vadano.”
Infine sottolineo l’importanza del terzo livello di formazione: quello dei navigatori, cioè degli specialisti. La loro formazione è compito del livello terziario dell’educazione (cioè dell’Università). A causa della pervasività delle tecnologie dell’informazione, per poter far sì che ci siano abbastanza studenti (e soprattutto studentesse) che vogliano diventare specialisti, è importante che l’informatica come disciplina scientifica sia correttamente introdotta nella scuola, in modo che tutti gli studenti possano acquisire confidenza con i suoi princìpi di base fin dai primi livelli di istruzione. Questo argomento, si badi bene, è aggiuntivo rispetto a quello che sostiene l’importanza di insegnare informatica nella scuola perché è la base scientifica sulla quale costruire il “cittadino digitale”.
Entrambi gli argomenti son ben chiari ai decisori politici negli USA che, al netto dell’enfasi mediatica sul coding, si sono mossi di conseguenza: si veda, ad esempio, l’iniziativa Informatica per tutti di Obama che ha inserito la “computer science” (cioè l’informatica) tra i well rounded subjects cioè nell’insieme delle materie che devono far parte dei programmi educativi scolastici e dei programmi di formazione professionale degli insegnanti.
E in Europa?
-----
Pubblicato su "Il Fatto Quotidiano" il 9 febbraio 2017.
Chiunque abbia un po’ di ore di esperienza attiva in barca a vela, sa bene che una cosa è conoscere cosa vuol dire “poggiare” o “mollare la scotta” oppure sapere come fare per “dare volta alla cima sulla bitta” o “dare una mano di terzaroli”. Cosa diversa è stabilire la rotta e far arrivare alla sua destinazione un’imbarcazione a vela con tutto il suo equipaggio superando gli imprevisti. I primi sono “i marinai”, i secondi sono “i navigatori di lungo corso”. Tutti gli altri sono “passeggeri”, che pure devono essere informati su dove mettere mani e piedi e come affrontare il viaggio in sicurezza.
Ritengo che nella società contemporanea il “digitale” rivesta il ruolo che fino a due secoli fa rivestiva la navigazione a vela. Era una componente essenziale della prosperità di una società ed ogni nazione grande (in senso commerciale o militare) aveva di norma una grande flotta (commerciale o militare) di velieri, e viceversa. Avere bravi marinai e navigatori competenti era vitale. Il benessere della nazione dipendeva dall'averne in buon numero sia dei primi che dei secondi ed era ben chiara l’importanza di addestrare sia gli uni che gli altri.
In un post di ormai 3 anni fa avevo introdotto una distinzione tra alfabetizzazione digitale ed educazione digitale, che qui riprendo ed estendo utilizzando il contesto di questo parallelo con la marineria.
L’alfabetizzazione digitale (digital literacy in inglese) dovrebbe essere completamente compiuta, come l’alfabetizzazione propriamente detta, al più tardi al termine della scuola primaria. Così come la parte di alfabetizzazione che ha a che vedere con i numeri è basata sulla matematica, così la sua componente che ha a che vedere con il digitale deve essere basata sull’informatica. Nel paragone marinaresco, essa forma i passeggeri, perché comunque, per cavarsela a bordo di una nave, bisogna essere consapevoli del fatto che non si è più sulla terraferma. Detto così appare banale, perché non appena saliamo a bordo di un’imbarcazione tutti i nostri sensi ce lo dicono. Ma nel mondo digitale ci mancano "i sensi" adeguati. L’alfabetizzazione digitale fornisce le “competenze digitali di base” (basic digital skills fa più figo ma è la stessa cosa), essenziali per potersi orientare in quell'“oceano digitale” che è la società attuale.
L’educazione digitale, chiamata anche cittadinanza digitale e nota nel mondo anglosassone come digital fluency, è la capacità di muoversi del tutto a proprio agio in una comunità sociale pervasa di strumenti e dati digitali. La formazione di cittadini digitali, così come la formazione di cittadini tout court, dovrebbe essere completamente conclusa al più tardi al termine della scuola secondaria. A maggior ragione, essa è basata sull’insegnamento del nucleo scientifico-culturale dell’informatica, quello che chiamiamo pensiero computazionale. Questo livello di formazione produce i marinai, cioè quelli che nell’oceano digitale posseggono la digital fluency.
Una nota di cautela: spesso nelle discussioni mediatiche e politiche si usa il termine “competenze digitali” (digital skills) senza qualificare se si parli di quelle di base, prodotto dell’alfabetizzazione, o di quelle che rendono uno studente un vero “cittadino digitale”, ottenute al termine del percorso scolastico.
Voglio anche evidenziare il pericolo di affrontare la formazione delle competenze digitali senza fondarle sul pensiero computazionale. Temo che un tale approccio conduca a formare marinai che come diceva Leonardo da Vinci:
“… sono come i nocchieri che entrano in naviglio senza timone o bussola, che mai hanno certezza dove si vadano.”
Infine sottolineo l’importanza del terzo livello di formazione: quello dei navigatori, cioè degli specialisti. La loro formazione è compito del livello terziario dell’educazione (cioè dell’Università). A causa della pervasività delle tecnologie dell’informazione, per poter far sì che ci siano abbastanza studenti (e soprattutto studentesse) che vogliano diventare specialisti, è importante che l’informatica come disciplina scientifica sia correttamente introdotta nella scuola, in modo che tutti gli studenti possano acquisire confidenza con i suoi princìpi di base fin dai primi livelli di istruzione. Questo argomento, si badi bene, è aggiuntivo rispetto a quello che sostiene l’importanza di insegnare informatica nella scuola perché è la base scientifica sulla quale costruire il “cittadino digitale”.
Entrambi gli argomenti son ben chiari ai decisori politici negli USA che, al netto dell’enfasi mediatica sul coding, si sono mossi di conseguenza: si veda, ad esempio, l’iniziativa Informatica per tutti di Obama che ha inserito la “computer science” (cioè l’informatica) tra i well rounded subjects cioè nell’insieme delle materie che devono far parte dei programmi educativi scolastici e dei programmi di formazione professionale degli insegnanti.
E in Europa?
-----
Pubblicato su "Il Fatto Quotidiano" il 9 febbraio 2017.
domenica 29 gennaio 2017
Sicurezza informatica: non vediamo e non vogliamo accettarlo
di Isabella Corradini e Enrico Nardelli
La vita alle volte è dura. Può accadere che un grave incidente ti privi di qualcosa di prezioso, come la vista. È una situazione difficile da accettare e infatti tu, testardamente, ti ostini a far finta di vederci ancora. Ovviamente, guai ed inciampi sono all’ordine del giorno e ti ricopri di ferite e bernoccoli. Corri ai ripari con protezioni e bendaggi, ma gli incidenti non diminuiscono. Cos’è che non funziona?
In un caso di questo genere pensiamo sia abbastanza evidente per tutti cos’è che non va: rifiutarsi di accettare che non c’è più un organo di senso essenziale per orientarsi e capire il mondo intorno a noi.
Solo passando attraverso questa consapevolezza ed introiettandola è possibile poi riuscire ad adottare i comportamenti più adeguati alla nuova situazione.
La situazione discussa in questo esempio è il punto di partenza per discutere altre situazioni in cui “ci ostiniamo” a non vedere o a non voler vedere cosa succede intorno a noi, pur sottolineando che le implicazioni umane ed emotive non sono paragonabili.
Quella di cui parliamo in questo post è relativa a ciò che sta accadendo da una decina d’anni rispetto alla sicurezza informatica.
La crescente ed ormai ubiqua digitalizzazione della società, che per certi versi è una benedizione per i vantaggi che apporta, ha come contropartita quella di averci trasportato in un mondo per il quale non abbiamo organi di senso. Come nell’esempio sopra riportato, ci ostiniamo a far finta che non sia accaduto niente.
La sicurezza informatica, così come la stiamo gestendo, non funziona.
Non ne siete convinti? Guardiamo i dati degli ultimi 12 anni sul fenomeno data breaches, si “vede” chiaramente cosa dicono.
Questo grafico è un’elaborazione realizzata dal laboratorio Link&Think sui dati disponibili alla pagina http://www.informationisbeautiful.net/visualizations/worlds-biggest-data-breaches-hacks/, nella quale sono riportati i singoli eventi di data breach superiori ai 30.000 record persi/sottratti in ogni evento.
Nel nostro grafico vengono esposti in tre modi diversi gli eventi aggregati per anno:
I tipi di record sono classificati sul sito sorgente in 5 tipologie di crescente gravità, caratterizzate dai seguenti esempi:
Dal 2004, caratterizzato dall’attacco alla multinazionale AOL, specializzata nel campo delle comunicazioni e dei mass media, c’è stato un crescendo di incidenti che hanno riguardato grandi aziende operanti nei più svariati settori. Sono state coinvolte, a titolo di esempio, organizzazioni dall’area tecnologica (Sony nel 2011, Dropbox nel 2012) a quella bancaria (J.P. Morgan nel 2014), dall’area social (Yahoo nel 2013) a quella legale (Mossack Fonseca nel 2016), nonché strutture governative (l’Office of Personnel Management del governo USA nel 2015).
I dati, dunque, sia personali che aziendali, continuano a rappresentare una risorsa di grande interesse per i cybercriminali, i quali possono utilizzarli per ottenere un immediato profitto economico o per compiere altri reati.
Da un punto di vista aggregato, si osserva chiaramente nel grafico come dal 2012 il fenomeno sia esploso, peggiorando notevolmente sia in volume che in valore rispetto agli 8 anni precedenti, e non riusciamo a contenerlo. Nonostante negli anni 2014-2015 il grafico mostri infatti un miglioramento della situazione, i dati del 2016 evidenziano che si è trattato di un successo effimero. Per rimanere agli esempi, basti pensare al furto di e-mail che ha riguardato lo staff della candidata alle presidenziali Hillary Clinton nel giugno del 2016.
A fronte di questo scenario insistiamo con contromisure tecnologiche che dovrebbero risolvere tutti i problemi degli attacchi cibernetici e delle violazioni dei dati, ma i risultati non arrivano. Anzi, continuano a verificarsi incidenti di sicurezza sempre più gravi, con vittime più o meno illustri, come testimoniano i dati.
Cosa succederà con il diffondersi sempre più capillare dell’uso delle tecnologie dell’informazione (si pensi, ad esempio, all’Internet of Things) che moltiplica i dati digitali nella Rete?
Sembra proprio che, come nella situazione descritta all’inizio del post, ci si rifiuti di prendere consapevolezza del fatto che ci mancano i sensori adeguati per questo scenario e, dunque, non si mettano in atto strategie opportune, continuando invece a delegare alle sole tecnologie il compito di realizzare soluzioni efficaci.
La vita alle volte è dura. Può accadere che un grave incidente ti privi di qualcosa di prezioso, come la vista. È una situazione difficile da accettare e infatti tu, testardamente, ti ostini a far finta di vederci ancora. Ovviamente, guai ed inciampi sono all’ordine del giorno e ti ricopri di ferite e bernoccoli. Corri ai ripari con protezioni e bendaggi, ma gli incidenti non diminuiscono. Cos’è che non funziona?
In un caso di questo genere pensiamo sia abbastanza evidente per tutti cos’è che non va: rifiutarsi di accettare che non c’è più un organo di senso essenziale per orientarsi e capire il mondo intorno a noi.
Solo passando attraverso questa consapevolezza ed introiettandola è possibile poi riuscire ad adottare i comportamenti più adeguati alla nuova situazione.
La situazione discussa in questo esempio è il punto di partenza per discutere altre situazioni in cui “ci ostiniamo” a non vedere o a non voler vedere cosa succede intorno a noi, pur sottolineando che le implicazioni umane ed emotive non sono paragonabili.
Quella di cui parliamo in questo post è relativa a ciò che sta accadendo da una decina d’anni rispetto alla sicurezza informatica.
La crescente ed ormai ubiqua digitalizzazione della società, che per certi versi è una benedizione per i vantaggi che apporta, ha come contropartita quella di averci trasportato in un mondo per il quale non abbiamo organi di senso. Come nell’esempio sopra riportato, ci ostiniamo a far finta che non sia accaduto niente.
La sicurezza informatica, così come la stiamo gestendo, non funziona.
Non ne siete convinti? Guardiamo i dati degli ultimi 12 anni sul fenomeno data breaches, si “vede” chiaramente cosa dicono.
Questo grafico è un’elaborazione realizzata dal laboratorio Link&Think sui dati disponibili alla pagina http://www.informationisbeautiful.net/visualizations/worlds-biggest-data-breaches-hacks/, nella quale sono riportati i singoli eventi di data breach superiori ai 30.000 record persi/sottratti in ogni evento.
Nel nostro grafico vengono esposti in tre modi diversi gli eventi aggregati per anno:
- la linea in grigio (Volume) mostra la semplice quantità totale, in milioni, di record persi/sottratti ogni anno;
- la linea in celeste (Valore lineare) mostra il valore complessivo, in milioni, dei record persi in ogni anno, pesando record di tipo diverso con una funzione a crescita lineare;
- la linea in rosso (Valore esponenziale) mostra il valore complessivo, in milioni, dei record persi in ogni anno, pesando i record di tipo diverso con una funzione a crescita esponenziale.
I tipi di record sono classificati sul sito sorgente in 5 tipologie di crescente gravità, caratterizzate dai seguenti esempi:
- indirizzi mail o informazioni relative all’interazione online delle persone (ma non pubblicamente disponibili)
- codice fiscale o dati personali
- dati della carta di credito (numero, scadenza, …)
- password non crittate o dati sanitari
- dati bancari completi
Dal 2004, caratterizzato dall’attacco alla multinazionale AOL, specializzata nel campo delle comunicazioni e dei mass media, c’è stato un crescendo di incidenti che hanno riguardato grandi aziende operanti nei più svariati settori. Sono state coinvolte, a titolo di esempio, organizzazioni dall’area tecnologica (Sony nel 2011, Dropbox nel 2012) a quella bancaria (J.P. Morgan nel 2014), dall’area social (Yahoo nel 2013) a quella legale (Mossack Fonseca nel 2016), nonché strutture governative (l’Office of Personnel Management del governo USA nel 2015).
I dati, dunque, sia personali che aziendali, continuano a rappresentare una risorsa di grande interesse per i cybercriminali, i quali possono utilizzarli per ottenere un immediato profitto economico o per compiere altri reati.
Da un punto di vista aggregato, si osserva chiaramente nel grafico come dal 2012 il fenomeno sia esploso, peggiorando notevolmente sia in volume che in valore rispetto agli 8 anni precedenti, e non riusciamo a contenerlo. Nonostante negli anni 2014-2015 il grafico mostri infatti un miglioramento della situazione, i dati del 2016 evidenziano che si è trattato di un successo effimero. Per rimanere agli esempi, basti pensare al furto di e-mail che ha riguardato lo staff della candidata alle presidenziali Hillary Clinton nel giugno del 2016.
A fronte di questo scenario insistiamo con contromisure tecnologiche che dovrebbero risolvere tutti i problemi degli attacchi cibernetici e delle violazioni dei dati, ma i risultati non arrivano. Anzi, continuano a verificarsi incidenti di sicurezza sempre più gravi, con vittime più o meno illustri, come testimoniano i dati.
Cosa succederà con il diffondersi sempre più capillare dell’uso delle tecnologie dell’informazione (si pensi, ad esempio, all’Internet of Things) che moltiplica i dati digitali nella Rete?
Sembra proprio che, come nella situazione descritta all’inizio del post, ci si rifiuti di prendere consapevolezza del fatto che ci mancano i sensori adeguati per questo scenario e, dunque, non si mettano in atto strategie opportune, continuando invece a delegare alle sole tecnologie il compito di realizzare soluzioni efficaci.
mercoledì 18 gennaio 2017
Di cosa parliamo quando parliamo di pensiero computazionale
di Enrico Nardelli
Nota: Questo articolo è stato pubblicato anche su rivista (PDF scaricabile).
La risposta lunga inizia spiegando il perché del titolo: si tratta di un omaggio a Raymond Carver, scrittore americano che è considerato l’iniziatore della corrente del minimalismo (cito dalla Treccani on line). Il motivo è che provo a spiegare con parole semplici (come, appunto, si dice Carver facesse nelle sue opere) cosa intendiamo quando parliamo di pensiero computazionale.
Inizio ribadendo che col termine “pensiero computazionale” indichiamo gli aspetti culturali e scientifici dell’informatica, a prescindere da qualunque aspetto strumentale o tecnologico. Ne ho fornito alcuni approfondimenti su questo blog, illustrando alcuni termini chiave e discutendo una definizione in dettaglio.
Ritorno adesso sul perché usiamo questa espressione, ovvero “di cosa parliamo quando parliamo di pensiero computazionale”. Comincio con un paio di citazioni.
Donald Knuth, scienziato conosciutissimo sia dai matematici che dagli informatici, nel 1974 ha scritto (p.327) «In realtà una persona non ha davvero capito qualcosa fino a che non è in grado di insegnarla ad un computer».
George Forsythe, analista numerico ed uno dei padri della formazione universitaria in informatica (è stato tra i fondatori del Dipartimento di Computer Science di Stanford – uno dei primi a nascere e tuttora tra i migliori al mondo), nel 1968 ha scritto (p.456): «Le acquisizioni più valide nell’educazione scientifica e tecnologica sono quegli strumenti mentali di tipo generale che rimangono utili per tutta la vita. Ritengo che il linguaggio naturale e la matematica siano i due strumenti più importanti in questo senso, e l’informatica sia il terzo».
Linguaggio naturale e matematica sono, giustamente, insegnati fin dal primo anno delle elementari, perché costituiscono delle competenze “fondamentali e trasversali”, cioè utili sia in sé e per sé che nell’applicazione a qualunque altra materia.
È infatti evidente che per qualunque relazione sociale serve conoscere il linguaggio naturale ed è altrettanto evidente che per discutere di quantità è necessario sapere la matematica: soltanto con “niente”, “poco” e “tanto” non si fanno molti progressi. Linguaggio e matematica sono quindi fondamentali.
Inoltre, per riuscire bene in storia, geografia, scienze, arte, il linguaggio naturale è indispensabile, altrimenti non riusciremmo a spiegare e descrivere i soggetti che stiamo trattando, ed è altrettanto necessaria la matematica, pena l'impossibilità – nel discutere di questi soggetti –di confrontare quantità, stabilire relazioni numeriche, ordinare valori. Linguaggio e matematica hanno quindi un valore trasversale, cioè un’utilità ed un’applicabilità interdisciplinari.
Non accade – però – che si insegnino il “pensiero linguistico” o il “pensiero matematico” unicamente per il loro valore interdisciplinare. Si insegnano, giustamente, “italiano” e “matematica” come materie di base, e poi le competenze linguistiche e matematiche vengono naturalmente travasate e messe in gioco quando si parla – ad esempio – di arte o di storia.
Nel seguito spiegherò perché anche l’informatica è una disciplina fondamentale e con un valore trasversale, come italiano e matematica.
Devo però prima spiegare perché usiamo il termine “pensiero computazionale” parlando di insegnamento dell’informatica nella scuola.
Questo dipende essenzialmente dal fatto che se si usa il termine “informatica”, si possono intendere concetti che vanno dalla “teoria della complessità computazionale” a “quale formato ha il file system sulla pennetta USB”. Questa è una maledizione da cui forse solo l'informatica è afflitta. Nessuno confonde più ormai il medico con l'infermiere, l'ingegnere con il meccanico, tutti mestieri nobilissimi ed ugualmente rispettabili, ma che hanno ovviamente diverse aree di competenza.
Usiamo quindi questa espressione affinché tutti abbiano ben chiaro che, che quando parliamo della necessità di “insegnare informatica nella scuola”, l’obiettivo non è insegnare l’uso di un certo strumento o applicazione o di una determinata tecnologia e sistema, quanto l’apprendimento dei concetti scientifici di base. Esattamente come a tutti è chiaro che insegnare matematica nella scuola non vuol dire insegnare a diventare esperti nel fare i conti, ma far sviluppare competenze relative alle quantità ed alle loro relazioni e manipolazioni.
Oltre alle due citazioni precedentemente riportate fornisco argomenti già articolati in altri paesi.
Una prima risposta è quanto si sta facendo negli Stati Uniti (non certo una nazione di secondario rilievo). A dicembre del 2015 sia la Camera che il Senato, con un appoggio bipartisan ed a larghissima maggioranza, hanno approvato l’ “Every Student Succeeds Act” (ESSA). Questa legge, firmata dal Presidente Obama il 10 dicembre scorso, riconosce che l’informatica (computer science) è un soggetto fondamentale per l’educazione scolastica K-12 (negli USA si usa quest’espressione per indicare i 12 anni di educazione dalla prima elementare all’ultimo anno delle superiori, la cui durata è di 4 anni).
La legge riconosce che l’informatica è un’abilità fondamentale per fornire a tutti gli studenti un’educazione bilanciata e adeguata al 21-mo secolo. Di conseguenza la inserisce, a pari merito con discipline più tradizionali (quali la madrelingua, la matematica, le scienze, solo per citarne alcune) nell’insieme delle materie (well rounded education subjects) che dovranno far parte dei programmi educativi che i singoli stati dovranno definire e che saranno obiettivo di programmi di sviluppo professionale degli insegnanti.
Aver aggiunto l’informatica all’insieme dei well rounded education subjects significa che il legislatore americano ha ritenuto necessario esporre gli studenti da subito e con continuità a questo soggetto di studio, in modo integrato con le altre parti del curriculum, allo scopo di apportare benefici durevoli alla società e all’economia.
Successivamente, nel Gennaio 2016, il Presidente Obama ha proposto un piano da 4 miliardi di dollari affinché «tutti gli studenti americani dall’asilo al liceo imparino l’informatica e acquisiscano la competenza di pensiero computazionale necessaria per essere creatori, e non semplici consumatori, nell’economia digitale, e cittadini attivi di una società sempre più tecnologica».
Una seconda risposta viene dall'Académie des Sciences, l’accademia nazionale degli scienziati della Francia, che nel Maggio 2013 ha prodotto un rapporto (L’enseignement de l’informatique en France. Il est urgent de ne plus attendre) che osserva che la maggior parte degli avanzamenti tecnologici più innovativi degli ultimi decenni sono il risultato diretto dell’informatica (dai motori di ricerca, alle reti di comunicazione, ai computer miniaturizzati presenti in ogni oggetto).
Il documento poi ricorda che la capacità dell’informatica di elaborare simboli di qualunque tipo la rende utile per tutte le altre discipline scientifiche alle quali l’informatica fornisce nuovi modi di pensare ed argomenta la necessità di insegnare l'informatica nelle scuole, a tutti i livelli, al di là dell’insegnamento a livello utente degli strumenti di base hardware e software. L’approccio suggerito è quello di iniziare esponendo i bambini alle nozioni fondamentali dell’informatica come scienza nella scuola primaria, proseguendo nella secondaria inferiore con l’acquisizione e l’approfondimento dei concetti – che conduca gli studenti ad un loro uso in autonomia, e sviluppando ulteriormente la formazione nella secondaria superiore.
Il rapporto francese sottolinea l’importanza che tutti i cittadini ricevano un’adeguata formazione sull’informatica, in modo da fornire loro le chiavi per comprendere un futuro in cui tutto sarà sempre più digitalizzato. Questa comprensione è necessaria per capire e prendere attivamente parte alla sua evoluzione invece di consumare e subire ciò che è stato deciso altrove. Il rapporto ricorda anche che in tutte le professioni, da quelle letterarie a quelle sociali, scientifiche o artistiche, l’interazione con strumenti digitali sta diventando la norma e la comprensione dei principi scientifici di base – che sono sempre gli stessi indipendentemente dai settori applicativi – è fondamentale.
In questi mesi tali indicazioni stanno diventando in Francia documenti che saranno operativi a partire dal prossimo anno scolastico.
Infine, una terza risposta è stata data dalla Royal Society, l’ente nel Regno Unito analogo dell’Académie des Sciences francese, che a Gennaio 2012 ha messo nero su bianco (Shut down or restart? The way forward for computing in UK schools) che ogni bambino dovrebbe avere la possibilità di imparare i concetti e i principi dell'informatica, sia per il proprio beneficio personale che nell’ottica della prosperità della nazione. Il rapporto rimarca l’importanza di apprendere concetti e principî dell’informatica sin dall’inizio della scuola primaria.
Anche per la Royal Society le motivazioni per insegnare l’informatica sono l’importanza per gli studenti di comprendere il mondo digitale che ci circonda e la possibilità di giocare un ruolo attivo e non essere consumatori passivi di una tecnologia misteriosa ed opaca. Inoltre osserva che cittadini che conoscono le basi scientifiche della tecnologia informatica sono in grado di partecipare in modo più informato e razionale di argomenti come i brevetti software, furti d’identità, ingegneria genetica, votazioni elettroniche.
Sulla base di questo rapporto, a partire da settembre 2014 ogni scuola del Regno Unito, ad ogni livello, deve insegnare i principî base dell'informatica.
L'informatica ha una caratteristica, nuova e sua specifica, che la rende ancora più interessante in un’ottica interdisciplinare rispetto alla lingua naturale ed alla matematica.
La lingua naturale è il mezzo base di espressione, ed in quanto tale permette di trattare qualunque soggetto, dai più concreti a quelli più rarefatti. Ovviamente ha un enorme “potere evocativo” ma purtroppo, o meglio per fortuna, possiede una sua intrinseca “ambiguità”, che non gli consente quella precisione che però in alcuni casi è necessaria. Quando leggiamo “I tre moschettieri” è la nostra fantasia che dà vita ai dettagli. Infatti, ogni regista che si è confrontato con l’opera ha dato vita alla sua rappresentazione del romanzo.
A compensare questa caratteristica della lingua naturale interviene la matematica, che fa del rigore e dell'esattezza la sua forza. Se si vuole descrivere qualcosa con precisione assoluta, allora il formalismo matematico è la soluzione giusta, ed una formula matematica ha sempre un preciso significato nel contesto della sua teoria di riferimento. Ma questa forza può essere inadeguata, in molti casi della vita. Perché non sempre ciò che trattiamo è suscettibile di quella formulazione così rigorosa di cui la matematica ha bisogno per esplicare il suo potere descrittivo. Appunto, non è possibile descrivere “I tre moschettieri” in formule.
La matematica è certamente in grado di definire simboli che rappresentano, ad opportuno livello di astrazione, concetti del mondo. Però, se non ha teorie, cioè teoremi, in grado di dedurne conseguenze, tale formalizzazione non è poi così produttiva. Ne abbiamo un esempio lampante nella biologia, in cui diversi aspetti erano stati modellati matematicamente già molti decenni fa. Ma è stato solo quando ad essi si è applicata l’informatica, con le sue peculiari caratteristiche sopra ricordate, che in quest’area “formale” della biologia è scoppiata una fioritura di risultati senza precedenti.
Un esempio più articolato è relativo alla manipolazione del linguaggio naturale. Non si può costruire una teoria matematica precisa del linguaggio naturale, perché troppe sono le eccezioni e le sfumature. Ma l'informatica, che come lo stesso Knuth ricorda (p.326), eccelle nel trattare sia casi particolari ed eccezioni che relazioni che cambiano subito dopo che sono state definite, riesce a gestire queste situazioni. Infatti gli impressionanti avanzamenti degli ultimi anni nella comprensione del linguaggio da parte dei calcolatori sono concretamente possibili solo grazie all’informatica, anche se basati su teorie matematiche molto sofisticate.
La forza dell’informatica in un contesto educativo è costituita dalla capacità di concretizzare mondi virtuali, grazie alle sue possibilità apparentemente illimitate di elaborare simboli di qualunque tipo ed in qualunque modo. Perché niente è utile per apprendere un concetto come farne esperienza concreta.
Con l'informatica è possibile costruire qualunque mondo vogliamo esplorare e dargli senso, definire un insieme di regole e dar loro vita, animandole mediante un'esecuzione su di un appropriato dispositivo automatico. Con l’informatica è possibile costruire una simulazione di fenomeni fisici, biologici o sociali di cui si conoscano (anche in modo parziale ed approssimato) le leggi, osservare cosa accade e “cosa accadrebbe se…”. Ed estendendo queste simulazioni è possibile costruire quelle “realtà virtuali” di cui stiamo vedendo l’incalzante diffusione ed alle quali è comunque necessario fare attenzione per le possibili conseguenze sulla vita reale.
Questi sono i motivi per cui parliamo di “pensiero computazionale” nella scuola. Ma non chiediamo che sia questo il nome della materia, non ha senso. Non chiediamo che in tutte le materie ci sia “il momento del coding”, non ha senso, Bisogna insegnare “informatica”, così come si insegna “italiano” e “matematica”. E poi, se questo viene fatto in modo adeguato, da docenti che sono stati adeguatamente preparati a questo scopo, allora i benefici verranno.
Il nostro Paese, in cui già 25.000 insegnanti hanno portato più di un milione di studenti a svolgere quasi 10 ore a testa di informatica, ha dimostrato di essere pronto ed interessato a seguire questa strada.
Non perdiamo quest’occasione.
-----
Una sintetica versione preliminare di questo articolo è stata pubblicata su "Il Fatto Quotidiano" il 23 gennaio 2017.
Ringrazio i lettori che con i loro commenti alla versione preliminare hanno contribuito a estendere e migliorare la presentazione.
Nota: Questo articolo è stato pubblicato anche su rivista (PDF scaricabile).
Risposta super-breve: del fatto che l’informatica è fondamentale e trasversale.
La risposta lunga inizia spiegando il perché del titolo: si tratta di un omaggio a Raymond Carver, scrittore americano che è considerato l’iniziatore della corrente del minimalismo (cito dalla Treccani on line). Il motivo è che provo a spiegare con parole semplici (come, appunto, si dice Carver facesse nelle sue opere) cosa intendiamo quando parliamo di pensiero computazionale.
1. Introduzione: le discipline di valore generale
Inizio ribadendo che col termine “pensiero computazionale” indichiamo gli aspetti culturali e scientifici dell’informatica, a prescindere da qualunque aspetto strumentale o tecnologico. Ne ho fornito alcuni approfondimenti su questo blog, illustrando alcuni termini chiave e discutendo una definizione in dettaglio.
Ritorno adesso sul perché usiamo questa espressione, ovvero “di cosa parliamo quando parliamo di pensiero computazionale”. Comincio con un paio di citazioni.
Donald Knuth, scienziato conosciutissimo sia dai matematici che dagli informatici, nel 1974 ha scritto (p.327) «In realtà una persona non ha davvero capito qualcosa fino a che non è in grado di insegnarla ad un computer».
George Forsythe, analista numerico ed uno dei padri della formazione universitaria in informatica (è stato tra i fondatori del Dipartimento di Computer Science di Stanford – uno dei primi a nascere e tuttora tra i migliori al mondo), nel 1968 ha scritto (p.456): «Le acquisizioni più valide nell’educazione scientifica e tecnologica sono quegli strumenti mentali di tipo generale che rimangono utili per tutta la vita. Ritengo che il linguaggio naturale e la matematica siano i due strumenti più importanti in questo senso, e l’informatica sia il terzo».
Linguaggio naturale e matematica sono, giustamente, insegnati fin dal primo anno delle elementari, perché costituiscono delle competenze “fondamentali e trasversali”, cioè utili sia in sé e per sé che nell’applicazione a qualunque altra materia.
È infatti evidente che per qualunque relazione sociale serve conoscere il linguaggio naturale ed è altrettanto evidente che per discutere di quantità è necessario sapere la matematica: soltanto con “niente”, “poco” e “tanto” non si fanno molti progressi. Linguaggio e matematica sono quindi fondamentali.
Inoltre, per riuscire bene in storia, geografia, scienze, arte, il linguaggio naturale è indispensabile, altrimenti non riusciremmo a spiegare e descrivere i soggetti che stiamo trattando, ed è altrettanto necessaria la matematica, pena l'impossibilità – nel discutere di questi soggetti –di confrontare quantità, stabilire relazioni numeriche, ordinare valori. Linguaggio e matematica hanno quindi un valore trasversale, cioè un’utilità ed un’applicabilità interdisciplinari.
Non accade – però – che si insegnino il “pensiero linguistico” o il “pensiero matematico” unicamente per il loro valore interdisciplinare. Si insegnano, giustamente, “italiano” e “matematica” come materie di base, e poi le competenze linguistiche e matematiche vengono naturalmente travasate e messe in gioco quando si parla – ad esempio – di arte o di storia.
Nel seguito spiegherò perché anche l’informatica è una disciplina fondamentale e con un valore trasversale, come italiano e matematica.
Devo però prima spiegare perché usiamo il termine “pensiero computazionale” parlando di insegnamento dell’informatica nella scuola.
Questo dipende essenzialmente dal fatto che se si usa il termine “informatica”, si possono intendere concetti che vanno dalla “teoria della complessità computazionale” a “quale formato ha il file system sulla pennetta USB”. Questa è una maledizione da cui forse solo l'informatica è afflitta. Nessuno confonde più ormai il medico con l'infermiere, l'ingegnere con il meccanico, tutti mestieri nobilissimi ed ugualmente rispettabili, ma che hanno ovviamente diverse aree di competenza.
Usiamo quindi questa espressione affinché tutti abbiano ben chiaro che, che quando parliamo della necessità di “insegnare informatica nella scuola”, l’obiettivo non è insegnare l’uso di un certo strumento o applicazione o di una determinata tecnologia e sistema, quanto l’apprendimento dei concetti scientifici di base. Esattamente come a tutti è chiaro che insegnare matematica nella scuola non vuol dire insegnare a diventare esperti nel fare i conti, ma far sviluppare competenze relative alle quantità ed alle loro relazioni e manipolazioni.
2. Perché l’informatica è una disciplina fondamentale
Oltre alle due citazioni precedentemente riportate fornisco argomenti già articolati in altri paesi.
Una prima risposta è quanto si sta facendo negli Stati Uniti (non certo una nazione di secondario rilievo). A dicembre del 2015 sia la Camera che il Senato, con un appoggio bipartisan ed a larghissima maggioranza, hanno approvato l’ “Every Student Succeeds Act” (ESSA). Questa legge, firmata dal Presidente Obama il 10 dicembre scorso, riconosce che l’informatica (computer science) è un soggetto fondamentale per l’educazione scolastica K-12 (negli USA si usa quest’espressione per indicare i 12 anni di educazione dalla prima elementare all’ultimo anno delle superiori, la cui durata è di 4 anni).
La legge riconosce che l’informatica è un’abilità fondamentale per fornire a tutti gli studenti un’educazione bilanciata e adeguata al 21-mo secolo. Di conseguenza la inserisce, a pari merito con discipline più tradizionali (quali la madrelingua, la matematica, le scienze, solo per citarne alcune) nell’insieme delle materie (well rounded education subjects) che dovranno far parte dei programmi educativi che i singoli stati dovranno definire e che saranno obiettivo di programmi di sviluppo professionale degli insegnanti.
Aver aggiunto l’informatica all’insieme dei well rounded education subjects significa che il legislatore americano ha ritenuto necessario esporre gli studenti da subito e con continuità a questo soggetto di studio, in modo integrato con le altre parti del curriculum, allo scopo di apportare benefici durevoli alla società e all’economia.
Successivamente, nel Gennaio 2016, il Presidente Obama ha proposto un piano da 4 miliardi di dollari affinché «tutti gli studenti americani dall’asilo al liceo imparino l’informatica e acquisiscano la competenza di pensiero computazionale necessaria per essere creatori, e non semplici consumatori, nell’economia digitale, e cittadini attivi di una società sempre più tecnologica».
Una seconda risposta viene dall'Académie des Sciences, l’accademia nazionale degli scienziati della Francia, che nel Maggio 2013 ha prodotto un rapporto (L’enseignement de l’informatique en France. Il est urgent de ne plus attendre) che osserva che la maggior parte degli avanzamenti tecnologici più innovativi degli ultimi decenni sono il risultato diretto dell’informatica (dai motori di ricerca, alle reti di comunicazione, ai computer miniaturizzati presenti in ogni oggetto).
Il documento poi ricorda che la capacità dell’informatica di elaborare simboli di qualunque tipo la rende utile per tutte le altre discipline scientifiche alle quali l’informatica fornisce nuovi modi di pensare ed argomenta la necessità di insegnare l'informatica nelle scuole, a tutti i livelli, al di là dell’insegnamento a livello utente degli strumenti di base hardware e software. L’approccio suggerito è quello di iniziare esponendo i bambini alle nozioni fondamentali dell’informatica come scienza nella scuola primaria, proseguendo nella secondaria inferiore con l’acquisizione e l’approfondimento dei concetti – che conduca gli studenti ad un loro uso in autonomia, e sviluppando ulteriormente la formazione nella secondaria superiore.
Il rapporto francese sottolinea l’importanza che tutti i cittadini ricevano un’adeguata formazione sull’informatica, in modo da fornire loro le chiavi per comprendere un futuro in cui tutto sarà sempre più digitalizzato. Questa comprensione è necessaria per capire e prendere attivamente parte alla sua evoluzione invece di consumare e subire ciò che è stato deciso altrove. Il rapporto ricorda anche che in tutte le professioni, da quelle letterarie a quelle sociali, scientifiche o artistiche, l’interazione con strumenti digitali sta diventando la norma e la comprensione dei principi scientifici di base – che sono sempre gli stessi indipendentemente dai settori applicativi – è fondamentale.
In questi mesi tali indicazioni stanno diventando in Francia documenti che saranno operativi a partire dal prossimo anno scolastico.
Infine, una terza risposta è stata data dalla Royal Society, l’ente nel Regno Unito analogo dell’Académie des Sciences francese, che a Gennaio 2012 ha messo nero su bianco (Shut down or restart? The way forward for computing in UK schools) che ogni bambino dovrebbe avere la possibilità di imparare i concetti e i principi dell'informatica, sia per il proprio beneficio personale che nell’ottica della prosperità della nazione. Il rapporto rimarca l’importanza di apprendere concetti e principî dell’informatica sin dall’inizio della scuola primaria.
Anche per la Royal Society le motivazioni per insegnare l’informatica sono l’importanza per gli studenti di comprendere il mondo digitale che ci circonda e la possibilità di giocare un ruolo attivo e non essere consumatori passivi di una tecnologia misteriosa ed opaca. Inoltre osserva che cittadini che conoscono le basi scientifiche della tecnologia informatica sono in grado di partecipare in modo più informato e razionale di argomenti come i brevetti software, furti d’identità, ingegneria genetica, votazioni elettroniche.
Sulla base di questo rapporto, a partire da settembre 2014 ogni scuola del Regno Unito, ad ogni livello, deve insegnare i principî base dell'informatica.
3. Perché l’informatica ha un valore trasversale
L'informatica ha una caratteristica, nuova e sua specifica, che la rende ancora più interessante in un’ottica interdisciplinare rispetto alla lingua naturale ed alla matematica.
La lingua naturale è il mezzo base di espressione, ed in quanto tale permette di trattare qualunque soggetto, dai più concreti a quelli più rarefatti. Ovviamente ha un enorme “potere evocativo” ma purtroppo, o meglio per fortuna, possiede una sua intrinseca “ambiguità”, che non gli consente quella precisione che però in alcuni casi è necessaria. Quando leggiamo “I tre moschettieri” è la nostra fantasia che dà vita ai dettagli. Infatti, ogni regista che si è confrontato con l’opera ha dato vita alla sua rappresentazione del romanzo.
A compensare questa caratteristica della lingua naturale interviene la matematica, che fa del rigore e dell'esattezza la sua forza. Se si vuole descrivere qualcosa con precisione assoluta, allora il formalismo matematico è la soluzione giusta, ed una formula matematica ha sempre un preciso significato nel contesto della sua teoria di riferimento. Ma questa forza può essere inadeguata, in molti casi della vita. Perché non sempre ciò che trattiamo è suscettibile di quella formulazione così rigorosa di cui la matematica ha bisogno per esplicare il suo potere descrittivo. Appunto, non è possibile descrivere “I tre moschettieri” in formule.
La matematica è certamente in grado di definire simboli che rappresentano, ad opportuno livello di astrazione, concetti del mondo. Però, se non ha teorie, cioè teoremi, in grado di dedurne conseguenze, tale formalizzazione non è poi così produttiva. Ne abbiamo un esempio lampante nella biologia, in cui diversi aspetti erano stati modellati matematicamente già molti decenni fa. Ma è stato solo quando ad essi si è applicata l’informatica, con le sue peculiari caratteristiche sopra ricordate, che in quest’area “formale” della biologia è scoppiata una fioritura di risultati senza precedenti.
Un esempio più articolato è relativo alla manipolazione del linguaggio naturale. Non si può costruire una teoria matematica precisa del linguaggio naturale, perché troppe sono le eccezioni e le sfumature. Ma l'informatica, che come lo stesso Knuth ricorda (p.326), eccelle nel trattare sia casi particolari ed eccezioni che relazioni che cambiano subito dopo che sono state definite, riesce a gestire queste situazioni. Infatti gli impressionanti avanzamenti degli ultimi anni nella comprensione del linguaggio da parte dei calcolatori sono concretamente possibili solo grazie all’informatica, anche se basati su teorie matematiche molto sofisticate.
La forza dell’informatica in un contesto educativo è costituita dalla capacità di concretizzare mondi virtuali, grazie alle sue possibilità apparentemente illimitate di elaborare simboli di qualunque tipo ed in qualunque modo. Perché niente è utile per apprendere un concetto come farne esperienza concreta.
Con l'informatica è possibile costruire qualunque mondo vogliamo esplorare e dargli senso, definire un insieme di regole e dar loro vita, animandole mediante un'esecuzione su di un appropriato dispositivo automatico. Con l’informatica è possibile costruire una simulazione di fenomeni fisici, biologici o sociali di cui si conoscano (anche in modo parziale ed approssimato) le leggi, osservare cosa accade e “cosa accadrebbe se…”. Ed estendendo queste simulazioni è possibile costruire quelle “realtà virtuali” di cui stiamo vedendo l’incalzante diffusione ed alle quali è comunque necessario fare attenzione per le possibili conseguenze sulla vita reale.
4. Conclusioni
Questi sono i motivi per cui parliamo di “pensiero computazionale” nella scuola. Ma non chiediamo che sia questo il nome della materia, non ha senso. Non chiediamo che in tutte le materie ci sia “il momento del coding”, non ha senso, Bisogna insegnare “informatica”, così come si insegna “italiano” e “matematica”. E poi, se questo viene fatto in modo adeguato, da docenti che sono stati adeguatamente preparati a questo scopo, allora i benefici verranno.
Il nostro Paese, in cui già 25.000 insegnanti hanno portato più di un milione di studenti a svolgere quasi 10 ore a testa di informatica, ha dimostrato di essere pronto ed interessato a seguire questa strada.
Non perdiamo quest’occasione.
-----
Una sintetica versione preliminare di questo articolo è stata pubblicata su "Il Fatto Quotidiano" il 23 gennaio 2017.
Ringrazio i lettori che con i loro commenti alla versione preliminare hanno contribuito a estendere e migliorare la presentazione.
Iscriviti a:
Post (Atom)