Pagine

domenica 10 aprile 2022

Informatica nella scuola: l’Europa è sulla strada giusta

di Enrico Nardelli

Mercoledì 6 aprile, a Bruxelles, insieme ai colleghi della coalizione europea Informatica per Tutti abbiamo presentato il Quadro di Riferimento per l’insegnamento dell’informatica nella scuola alla Direzione Generale Istruzione, Gioventù, Sport e Cultura della Commissione Europea.

Siamo particolarmente orgogliosi di essere stati invitati a questo evento, che è il primo degli incontri di consultazione con gli stakeholder che la Commissione sta organizzando in preparazione alla proposta di Raccomandazione del Consiglio sul miglioramento dell'offerta di competenze digitali nell'istruzione e nella formazione, la cui pubblicazione è prevista entro la fine del 2022.

Infatti, è dal 2012 che Informatics Europe (l’associazione europea dei dipartimenti universitari e laboratori industriali di ricerca che operano nel campo dell’informatica e dell’ingegneria informatica di cui sono il presidente) ha iniziato a lavorare, in collaborazione con lo ACM Europe Council (il Direttivo Europeo della Association for Computing Machinery – la più grande associazione internazionale di accademici e professionisti dell’informatica), sul tema dell’importanza di insegnare l’informatica nella scuola, allo scopo di poter garantire all’Europa una posizione di primo piano nella società digitale globale.

Nel 2018 abbiamo poi costituito la coalizione Informatica per Tutti, insieme al Council for European Professional Informatics Societies (CEPIS), e pubblicato un documento che ha proposto una strategia per la realizzazione dell’obiettivo di fornire a tutti i cittadini una formazione scientifica di base nell’informatica che sia allo stesso livello di quella che ricevono nella matematica e nelle altre scienze. Introdurre l’insegnamento dell’informatica sin dai primi anni di scuola è una tappa fondamentale di questa strategia, che è stata recepita dalla Commissione Europea nel suo Piano d’azione per l’istruzione digitale 2021-27 che, tra le più importanti azioni da realizzare, ha proprio elencato quella di «porre l'accento su un'educazione informatica inclusiva di elevata qualità a tutti i livelli di istruzione» (azione n.10). Parafrasando uno slogan che è alla base delle moderne democrazie con una parola chiave all’ordine del giorno in questi mesi, possiamo dire “no digital transformation without informatics education” (cioè, non è possibile alcuna trasformazione digitale senza l’insegnamento dell’informatica).

Alla coalizione ha aderito nel 2020 anche il Technical Committee on Education della International Federation on Information Processing (IFIP) ed insieme a loro abbiamo realizzato, sotto la guida di Michael Caspersen, collega danese attivo da moltissimi anni in questo settore, il Quadro di Riferimento presentato. Consapevoli che, da un lato, l’istruzione è un tema che a livello di Unione Europea rimane di competenza dei singoli Stati membri, e, dall’altro, sussiste nel continente europeo una grandissima varietà di linguaggi, culture e sistemi scolastici, ci siamo dati come traguardo la definizione non di un curriculum per l’insegnamento dell’informatica valido per tutte le scuole europee, ma di un quadro di riferimento di più alto livello, che fornisca una visione condivisa della disciplina consentendo al tempo stesso ad ogni Paese di realizzare il proprio curriculum in modo compatibile con la propria storia e tradizione. “Unità nella diversità” è stato il nostro motto.

Vediamo costantemente come il processo di costruzione di un consenso politico in Europa sia delicato e difficoltoso, giustamente, mi permetto di dire, considerando l’estrema eterogeneità dei popoli che la abitano. Definire quindi un insieme minimale di requisiti di alto livello al quale i vari curricoli nazionali dovrebbero attenersi ci è sembrato fosse la meta giusta per consentire ad ogni Stato di trovare la propria specifica strada, coordinando al tempo stesso i differenti percorsi, verso l’obiettivo comune di poter meglio competere nel mercato globale della società digitale attraverso un’efficace e rispettosa collaborazione e integrazione.

A questo scopo il quadro di riferimento è volutamente sintetico e flessibile. Elenca solo 5 traguardi di competenza che tutti gli studenti dovrebbero raggiungere al termine del percorso scolastico obbligatorio, facendo attenzione anche agli aspetti sociali delle tecnologie digitali, argomento la cui rilevanza sta diventando sempre maggiore. È pensato come una “mappa di alto livello” dell’informatica che individua un elenco di 11 “zone” (chiamate nel documento core topics = argomenti fondamentali), ognuna caratterizzata da una breve descrizione, congegnate in modo tale da essere robuste anche rispetto all’inevitabile evoluzione della disciplina. Successivamente, per molte di queste “zone” sono stati individuati alcuni “territori” (cioè, delle specifiche sotto-aree) particolarmente promettenti nella situazione storica contemporanea (un esempio per tutti: l’intelligenza artificiale per il core topic “sistemi informatici”) e che quindi possono anche essere oggetto della specifica articolazione nazionale del curricolo, così da renderlo attraente per gli studenti.

È stata posta particolare attenzione a stimolare i progettisti di curricoli verso la tematica dell’inclusione, dal momento che sempre di più, purtroppo, i sistemi digitali sono alla base di odiose discriminazioni sociali, raccomandando di far particolare attenzione allo squilibrio di genere che affligge la forza lavoro del digitale. Il Quadro di Riferimento è stato sottoposto all’attenzione delle varie comunità nazionali dei colleghi informatici e la versione finale – pubblicata a febbraio 2022 e per la quale abbiamo in programma la realizzazione di traduzioni nelle lingue nazionali – ha tenuto presente le osservazioni ricevute da 14 nazioni.

Nell’ambito dello stesso incontro, la Commissione ha esposto i risultati preliminari di un’indagine condotta a tappeto in tutti gli Stati membri sullo stato attuale dell’insegnamento dell’informatica nella scuola, che verrà pubblicata entro settembre 2022. Il documento stabilisce definitivamente che il nome della materia da insegnare nelle scuole è appunto “informatica” (quindi non “competenze digitali” o “pensiero computazionale” o altre espressioni largamente usate in questi anni che hanno però reso la situazione un po’ confusa), dal momento che la sua radice linguistica è la più diffusa per indicare questa disciplina in Europa. Tra gli aspetti cui fare maggiore attenzione, è emerso in modo chiaro il tema della formazione dei docenti all’insegnamento dell’informatica, su cui saranno necessari forti investimenti (come sta accadendo, ad esempio, nel Regno Unito), dal momento che si tratta di una materia sulla quale la maggior parte di loro non ha ricevuto alcuna formazione, né nell’ambito della loro carriera professionale né al tempo di quella scolastica.

Insomma, il cammino è iniziato e la strada da fare tanta. L’Europa ha indicato la direzione, non perdiamo tempo. È in gioco il nostro futuro.

--
Versione originale pubblicata su "Key4Biz" il 7 aprile 2022.

domenica 3 aprile 2022

Dovremo davvero rinunciare alla segretezza delle comunicazioni col Digital Markets Act?

di Enrico Nardelli

Negli ultimi giorni ha iniziato a circolare nei media la notizia (è facile intuire chi possa aver avuto interesse a farlo) che l'implementazione di quanto previsto dal Digital Markets Act (DMA) (la legge europea sui mercati digitali in via di approvazione) metterebbe a rischio la segretezza delle comunicazioni tra gli utenti. Il DMA richiede, tra le altre cose, la totale interoperabilità tra le applicazioni di messaggistica e quindi permetterà, ad esempio, ad un utente di WhatsApp di mandare un messaggio ad un utente di Signal e viceversa. I due utenti sarebbero quindi in grado di comunicare rimanendo ognuno nella propria piattaforma. Il DMA richiede questa interoperabilità, senza costi o impedimenti aggiuntivi per gli utenti finali, non solo per la messaggistica (testuale, visuale o auditiva) legata ad un numero ma anche per qualunque servizio di relazioni sociali, su qualunque dispositivo tecnologico venga erogato. Ecco l’elenco dei servizi soggetti a tale misura: servizi di intermediazione, motori di ricerca, sistemi operativi, reti sociali, condivisione di video, sistemi di messaggistica, cloud computing, pubblicità online, browser web, assistenti virtuali, tv connesse. È evidente che per chi possiede un quasi monopolio di fatto in questi settori si tratti di una misura che rischia di indebolire moltissimo la loro posizione.

Si è quindi cominciato a dire: "Attenzione! Se realizziamo questo allora gli utenti dovranno rinunciare a comunicare tra loro in modo totalmente segreto!".

Attualmente, infatti, questi servizi sono protetti da una crittografia "da un capo all'altro" (end-to-end ) che consente di crittare il contenuto del messaggio sullo smartphone di partenza e decrittarlo solo sullo smartphone di destinazione, salvaguardando così il contenuto stesso da ogni possibile intercettazione. Osserviamo prima di tutto che questo è del tutto vero in teoria, ma nella realtà non lo è completamente perché se siamo nell'ambito di una stessa App proprietaria il software che svolge questa funzione è lo stesso su entrambi i dispositivi, realizzato da una stessa società, e non possiamo dire – dal momento che in generale non ne conosciamo il codice sorgente – se abbia o meno una "porta di servizio" (back door ) per consentire l'accesso a strumenti in grado di violare tale segretezza.

Ricordiamo che negli USA la loro giurisprudenza, con il CLOUD Act (Clarifying Lawful Overseas Use of Data Act = legge che chiarisce l’uso legale dei dati all’estero), consente a qualunque giudice statunitense di accedere a dati che ritiene rilevanti, anche qualora riguardino cittadini stranieri. C’è poi il FISA (Foreign Intelligence Surveillance Act = legge per il controllo dei servizi di raccolta di informazioni all’estero) che, nella sezione 702 autorizza le agenzie USA di raccolta di informazioni a recuperare – senza che sia necessaria l’autorizzazione di un giudice – qualunque informazione transiti su dispositivi digitali di cittadini stranieri fuori degli USA. Ovviamente, il tutto al “nobile scopo” di prevenire il terrorismo. Immaginate quindi cosa potrebbe accadere in Paesi con una democrazia meno salda di quella americana...

Andiamo oltre: se usiamo Signal, il cui codice sorgente è libero e aperto, possiamo essere sicuri che non ci siano "porte di servizio". Come funziona il meccanismo che permette di realizzare lo scambio sicuro di messaggi in Signal? Senza entrare in molti dettagli tecnici, è basato su un approccio teorico detto di "Diffie-Hellman", dal nome dei due informatici americani che lo inventarono nel 1976, che permette a due persone di scambiarsi, sotto gli occhi di tutti, una chiave segreta (che cioè nessuno conosce nonostante sia stata concordata alla luce del sole) da usare per cifrare i successivi messaggi. Si tratta di un approccio la cui robustezza è matematicamente dimostrata ed è alla base di molti sistemi crittografici.

E allora che cosa potrebbe accadere se App di fornitori diversi fossero costrette a "parlarsi" mantenendo la segretezza delle conversazioni? Beh, certamente i produttori dovrebbero adeguarle a questo requisito, usando l’approccio di Diffie-Hellman o altri equivalenti inventati in seguito, il che è tecnicamente del tutto possibile, nonostante gli alti lamenti che si stanno sentendo. È ovviamente solo una questione di soldi. Da un un punto di vista tecnologico, già adesso accade che con un qualunque browser (chiunque sia il suo produttore) possiate connettervi al sito web di una qualunque banca con la certezza che i vostri dati non siano intercettati da nessuno. Oppure, considerate la posta elettronica, nella quale la completa interoperabilità tra i fornitori già esiste, perché fortunatamente il suo sviluppo è avvenuto prima dell'esplosione popolare di Internet all'inizio di questo secolo. Ebbene, esistono fornitori di servizio di posta elettronica (ma non quelli dei suddetti monopolisti!) che vi danno la possibilità di comunicare in modo assolutamente segreto con chiunque abbia un indirizzo di posta elettronica presso un qualunque altro fornitore.

Non si venga quindi a dire che non si può. Certo non è né immediato né facile. Lo snodo è che chiaramente alcuni che negli ultimi vent'anni hanno accumulato profitti – che li rendono economicamente potenti quanto uno Stato nazionale – non vogliono perdere la loro posizione di privilegio.

Nulla in contrario che quelli bravi e svegli facciano profitti, ma non a costo di rimanere ingabbiati a vita con uno stesso fornitore di servizio.

--
Versione originale pubblicata su "Key4Biz" il 31 marzo 2022.

giovedì 24 febbraio 2022

Norme, algoritmi e programmi

di Enrico Nardelli

Periodicamente, quando qualcosa va storto nell'utilizzo dei sistemi informatici in procedure sottoposte a pubblico scrutinio (questo il caso più recente), i media parlano di “discriminazione algoritmica”, “dittatura degli algoritmi” e simili espressioni che inventano giornalisti in cerca di un titolo che buca, ma con una, purtroppo, bassa preparazione nella specifica materia. A conferma, consultate per favore la figura 2.5 (p.24) del documento AGCOM “Osservatorio sul giornalismo” del 23 novembre 2020 e leggete il relativo comunicato stampa che recita, testualmente, «ai professionisti dell’informazione manca un livello di conoscenza specialistica (inteso in particolare in termini di formazione accademica) adeguato alla copertura di fatti ed eventi economici, finanziari, scientifici e tecnologici». “Ambasciator non porta pena” si dice: spero non me ne vorranno gli amici e le amiche di questo settore, che comunque rispetto.

Chiarito questo punto, vorrei ricordare che nel mondo digitale il termine algoritmo è di interpretazione lievemente ambigua. Questo perché da un punto di vista storico gli algoritmi sono stati inventati, come metodo, dai matematici (per quei pochi che ancora non lo sanno, ricordo che il termine algoritmo deriva dall’appellativo al-Khuwārizmī del matematico arabo del IX secolo Muḥammad ibn Mūsa, che era nativo di Khwarizm, regione dell’Asia Centrale) per descrivere in modo preciso ad altri matematici i procedimenti che dovevano essere utilizzati per la risoluzione dei problemi.

Nell'informatica, questo termine è stato mutuato per descrivere un procedimento risolutivo in modo completamente indipendente da ogni sua realizzazione sotto forma di un programma informatico scritto in un certo linguaggio di programmazione. Il punto di criticità (e la conseguente ambiguità) nasce dal fatto che è il programma informatico (e non l’algoritmo da cui esso viene derivato) quello che viene eseguito dal calcolatore (tecnicamente, dall'automa) e nel passaggio dall'algoritmo al programma, che è una vera e propria traduzione, come accade per i testi letterari, si corre il rischio di “tradire”.

Tornando al punto iniziale, è fondamentale tener presente che le norme giuridiche sono già degli algoritmi e, in particolare, sono gli algoritmi che regolamentano ed organizzano la vita sociale: se trasgredisci questa prescrizione allora ricevi questa punizione. Le loro macchine esecutrici sono i giuristi: uso liberamente questo termine per parlare dei professionisti della giurisprudenza. In quest'ottica sussiste un parallelo di perfette proporzioni: l'algoritmo sta al matematico come la norma sta al giurista. Non è un caso che sia nel mondo accademico che in quello professionale stanno diventando sempre più numerose figure con una preparazione ibrida tra l’informatica e la giurisprudenza. È un processo analogo a quello che sta già avvenendo da molto più tempo nell’intersezione tra l’informatica e la biologia. Ma questo è un altro discorso.

Nel diritto, tale sovrastruttura sociale di norme scritte e loro esecutori (come la matematica) ha funzionato perfettamente per millenni: il diritto basato su leggi scritte è in uso nel Bel Paese da molti secoli prima che diventasse Nazione. In altre più antiche civiltà ha una storia ancora più lunga. Non ci sono generalmente stati problemi, al di là della naturale tendenza – che possiamo considerare inestricabile dalla natura umana – di alcuni a considerarsi o a valutare il prossimo “più uguale degli altri”. Come si dice per la democrazia, anche un sistema sociale basato su un corpus giuridico scritto e su suoi “interpreti” ben preparati, per quanto imperfetto, è migliore di ogni altro sistema.

Quindi, quando norme giuridiche (che sono già algoritmi) vengono trasformate in programmi informatici e nella loro esecuzione qualcosa va storto non è corretto parlare di “errore dell’algoritmo” ma bisognerebbe parlare di “errore di programmazione”. Infatti chi esegue il programma informatico, essendo un dispositivo che agisce in modo assolutamente meccanico e completamente predeterminato, non sbaglia mai. Se il risultato ottenuto dall’esecuzione non corrisponde alle aspettative previste nell’algoritmo, l’errore è nel programma informatico. Per continuare nel parallelo con ciò che accade quando gli esecutori sono umani, è come un errore di interpretazione di una norma da parte di un giurista. Solo che, nella stragrande maggioranza dei casi, essendo costui un essere umano dotato di intelligenza, buon senso ed esperienza, possiede una serie di “paracadute” e “cinture di sicurezza” che gli impediscono di stravolgere le norme da interpretare.

È invece molto frequente il caso in cui un insieme di norme, trasformate in un insieme di programmi informatici, diventano qualcosa di lievemente diverso. Vuoi perché questa conversione è fatta in genere da informatici che non posseggono un’approfondita competenza sul tema e ai quali, da parte di chi richiede questa trasformazione, non vengono fornite sufficienti informazioni. Vuoi perché in altri casi le norme, essendo state scritte pensando ad esecutori umani dotati di intelligenza ed esperienza, non esauriscono tutti i casi possibili. Non ce n’è bisogno, esattamente come accade se chiediamo ad un bambino di andare verso qualcuno: non dobbiamo specificargli di evitare di inciampare in eventuali ostacoli perché è in grado di pensarci da solo. Ecco, gli esecutori dell’informatica, cioè PC, tablet, smarphone e simili, “non ci pensano da soli”.

Il problema che sta affliggendo in misura sempre maggiore l’esecuzione automatica tramite programmi informatici di procedure amministrative non è niente altro che l’esempio più recente della difficoltà di realizzare un sistema informatico completamente rispondente alle specifiche, che è il maggior problema ancora aperto dell’ingegneria informatica.

Però, dal momento che tali procedure amministrative sono ormai nella vita quotidiana di tutti noi, queste problematiche – prima ristrette agli esperti di dominio – le stiamo soffrendo ormai tutti.

Parafrasando uno dei finali più famosi della storia del cinema potremmo dire: “Questa è l’informatica, bellezza, l’informatica. E non puoi farci niente. Niente”. In realtà, qualcosa possiamo (e dobbiamo) fare. Iniziare ad insegnare l’informatica nella scuola come disciplina scientifica, come si fa per la matematica, per formare generazioni di cittadini in grado di comprendere la differenza tra algoritmi e programmi, e le difficoltà e le insidie che si nascondono nel processo di traduzione.

--
Versione originale pubblicata su "Key4Biz" il 21 febbraio 2022.

sabato 8 gennaio 2022

Un primo passo per servizi digitali migliori

di Enrico Nardelli

Nella seduta plenaria del 15 dicembre 2021 il Parlamento Europeo ha approvato il Digital Markets Act (DMA), che promette di essere un passo assai importante per contrastare i monopòli di fatto che le grandi corporazioni multinazionali del digitale (comunemente dette big tech) hanno costruito nei loro settori. L’elemento fondamentale introdotto è il requisito di interoperabilità tra i servizi, cioè la capacità di sistemi o applicazioni realizzate da fornitori differenti di interagire. Questo era l’approccio più diffuso, nel mondo digitale, fino a circa una ventina di anni fa. Il caso della posta elettronica è l’esempio migliore. Chiunque sia il fornitore del mio indirizzo di posta elettronica e qualunque sia l’applicazione che uso per scrivere e leggere i relativi messaggi, sono comunque in grado di comunicare con qualunque altro utente cha abbia un indirizzo di posta elettronica. Ciò è possibile proprio perché il servizio di posta elettronica è interoperabile.

Nel caso della tecnologia digitale, quando non vi sono ostacoli fisici all’interoperabi¬lità (come può accadere – ad esempio – nel caso di un accessorio che deve essere fisicamente connesso ad un dispositivo) il tutto passa attraverso ciò che il software può fare o consentire di fare. Questo consente un enorme flessibilità, dato che nel mondo digitale è possibile simulare o emulare qualunque cosa, anche quando questo non sia stato originariamente previsto. Pertanto, anche se, ad esempio, il fabbricante della mia stampante laser inserisce nella stampante stessa un programma che esamina la cartuccia di inchiostro inserita per verificare che sia solo del modello consentito, io posso comunque realizzare cartucce compatibili dotandole di un opportuno programma che inganna quello sulla stampante facendogli credere di essere una cartuccia abilitata. Si tratta, in questo caso, di una situazione di “interoperabilità competitiva” (chiamata adversarial interoperability in inglese) ovvero di un caso in cui l’interoperabilità viene ottenuta competendo con un avversario che non vorrebbe che fosse realizzata. L’unico modo di opporsi a questi tentativi è quello di procedere per via legale. Strada che nel corso dell’ultimo decennio le big tech hanno ampiamente percorso dopo aver invece utilizzato l’interoperabilità per aumentare il numero dei loro utenti: ad esempio, Facebook agli inizi ha consentito ai propri utenti di interagire con quelli di MySpace (una piattaforma social che è stata la più usata al mondo tra il 2005 e il 2009) sfruttando tale meccanismo per crescere a scapito di quest’ultima, mentre adesso si oppone, a suon di cause legali, a qualunque tentativo in questa direzione.

L’interoperabilità obbligatoria è la strada che è stata appunto intrapresa nell’Unione Europea col DMA. Nella versione approvata dal Parlamento Europeo, il “considerando” 52-a (non presente nella proposta iniziale della Commissione Europea) recita, testualmente: «La mancanza di possibilità di interconnessione tra i servizi di intermediazione può influenzare in modo significativo la scelta degli utenti e la possibilità per l’utente di cambiare , a causa della difficoltà per l’utente finale di ricostruire le reti e le relazioni sociali precedentemente possedute». In conseguenza di ciò, prosegue il considerando ed è ribadito dalla parte dispositiva, deve essere consentito a qualunque fornitore di interconnettersi, a richiesta e senza costi, con gli equivalenti servizi di comunicazione personale o di relazioni sociali di altri fornitori, con le stesse condizioni e qualità di servizio e mantenendo un elevato livello di sicurezza e di protezione dei dati personali. Per i servizi legati ad un numero, tipo la telefonia o la messaggistica, ciò implica l’accesso e l’interconnessione di servizi di testo, voce, immagini e video, mentre per quelli legati alle relazioni sociali, ciò implica l’accesso e l’interconnessione a servizi di base quali i post, i commenti ed i like. In aggiunta, fra le varie disposizioni vi è una clausola, anch’essa introdotta dal Parlamento, che proibisce esplicitamente «ogni comportamento che scoraggi l’interoperabilità attraverso l’uso di misure di protezione tecnica, di termini di servizio discriminatori, l’assoggettamento delle interfacce di programmazione applicativa al copyright, la fornitura di informazioni fuorvianti».

Ecco i servizi fondamentali di piattaforma (= Core Platform Services – CPS) soggetti alla regolamentazione del DMA: servizi di intermediazione, motori di ricerca, sistemi operativi, reti sociali, condivisione di video, sistemi di messaggistica, cloud computing, pubblicità online, browser web, assistenti virtuali, tv connesse (gli ultimi tre aggiunti dal Parlamento). Questo accade indipendentemente dal fatto che siano forniti tramite dispositivi personali, dispositivi IoT (Internet of Things = Internet delle Cose, l’estensione della comunicazione via Internet a qualunque oggetto) o immersi in altri dispositivi tecnologici (p.es., in un’automobile).

Ci sono due ulteriori elementi di particolare valore per la protezione degli utenti finali. Il primo è il divieto per gli intermediari di utilizzare i dati personali per presentare pubblicità mirate, a meno che ci sia un «chiaro, esplicito e rinnovato consenso informato» da parte degli utenti stessi, in linea con quanto previsto dal GDPR, e con la proibizione di raccolta dati sui minori a scopo commerciale. Il secondo, la possibilità per l’utente di cambiare le impostazioni predefinite per un CPS sul proprio dispositivo, potendo scegliere uno dei servizi equivalenti di altri fornitori, fin dal primo utilizzo ed in qualunque momento, tranne il caso si tratti di un servizio essenziale per il funzionamento del dispositivo stesso, che non può essere fornito in modo tecnicamente indipendente.

Gli intermediari a cui si applicano queste norme sono quelli che hanno un fatturato annuale negli ultimi 3 anni nell’Area Economica Europea di almeno 8 miliardi di euro e erogano almeno un CPS in almeno 3 paesi europei con almeno 45 milioni di utenti finali attivi al mese ed almeno 10.000 utenti professionali attivi all’anno. La definizione di questi criteri dimensionali cerca di trovare un equilibrio tra l’individuazione degli attori che hanno un’effettiva posizione di predominio nel mercato e l’evitare di sovraccaricare sia chi non costituisce una minaccia di monopolio sia le autorità preposte al rispetto della normativa. Secondo un’analisi del centro studi europeo Bruegel, in base al testo approvato dal Parlamento, oltre alle GAFAM sarebbero soggette al DMA anche altre sette aziende: SAP, Oracle, Salesforce, Bookings, Paypal, Yahoo e Vivendi.

Nella versione approvata dal Parlamento è stata prevista anche l’istituzione di un Gruppo Europeo di Alto Livello di Regolatori Digitali, costituito da rappresentanti ed esperti degli Stati nazionali – inclusi i rappresentanti delle Autorità nazionali di sorveglianza sulla concorrenza, per assistere la Commissione nell’applicazione e monitoraggio del DMA, favorendo lo scambio di informazioni e migliori pratiche ed eventualmente segnalando alla Commissione la necessità di investigare comportamenti potenzialmente scorretti. Per quest’ultimo caso viene esplicitamente riconosciuto e protetto il ruolo di eventuali informatori interni (i cosiddetti whistleblowers, in inglese).

Nel caso di intermediari che in modo sistematico violino le disposizioni del DMA (cioè, abbiano commesso almeno due violazioni nei dieci anni precedenti) la Commissione potrà imporre «rimedi strutturali o comportamentali», proibendo anche, se necessario, acquisizioni che possano causare «ulteriore danno alla contendibilità ed equità del mercato interno», le cosiddette “acquisizioni killer”, cioè effettuate per eliminare dal mercato un concorrente che si reputa pericoloso per il proprio giro d’affari. Le multe che la Commissione può imporre agli intermediari che violano le norme vanno da almeno il 4% a non più del 20% del fatturato totale mondiale dell’anno fiscale precedente.

Bisognerà certo aspettare di avere la versione finale che uscirà dalle discussioni tra Parlamento, Commissione e Consiglio, attesa comunque nel primo semestre 2022, e poi capire come gli Stati nazionali e la Commissione la applicheranno.

In ogni caso, il primo passo importante è stato fatto.

--
Versione originale pubblicata su "Key4Biz" il 5 gennaio 2022.

domenica 2 gennaio 2022

Il voto elettronico: un punto di vista scientifico

di Enrico Nardelli

Le comunità scientifiche italiane dell’informatica (GRIN) e dell’ingegneria informatica (GII) hanno recentemente preso una chiara posizione in merito al voto elettronico. Il riferimento è il decreto ministeriale di luglio 2021 che introduceva la sperimentazione di modalità di votazione via Internet attraverso un’app.

Si tratta di una proposta che periodicamente si riaffaccia in diversi paesi del mondo per – come sempre si dice in casi di questo genere – “aiutare la democrazia”, incrementando la partecipazione al voto, impedendo brogli, diminuendo i costi e rendendo le procedure elettorali più veloci ed efficienti. La realtà è purtroppo ben diversa e la mozione approvata dalle assemblee del GII (il 16 novembre) e del GRIN (il 29 ottobre), a larghissima maggioranza (solo qualche decina di astensioni su quasi 1.600 professori e ricercatori di ruolo in totale negli atenei italiani), argomenta sinteticamente perché questa è una cattiva idea. Senza assumere un atteggiamento fideistico, ma portando evidenze raccolte dalla comunità scientifica internazionale. Ne avevo discusso in precedenti occasioni, qui, qui e qui, in ordine di tempo, con riferimento ad un panorama robusto e coerente di critiche provenienti da tutto il mondo.

Aggiungo che alcune soluzioni tecnologiche intrinsecamente pericolose per la società, quali – per fare un paio di esempi recentemente dibattuti – il riconoscimento facciale in luoghi pubblici e le armi letali autonome, andrebbero esplicitamente vietate. Il che non esclude che si possa fare sperimentazione e ricerca su alcuni aspetti, ma avendo ben chiaro in mente che i possibili costi sociali rendono impraticabili quelle soluzioni. Ovvio che ci sarà sempre qualcuno che per interesse (dei finanziamenti associati alle sperimentazioni) o per visibilità (come le recenti vicende delle virostar televisive hanno mostrato) si farà avanti sostenendo che tali soluzioni vanno comunque investigate a fondo “per capire meglio”. Però, penso che l’esempio magnificamente illustrato da Walt Disney nell’episodio “L’apprendista stregone” del cartone “Fantasia” sia sufficiente ad illustrare con chiarezza i rischi di questo approccio, considerato che nella realtà non c’è un Maestro che ritorna per rimettere a posto una situazione fuori controllo.

Gli articoli scientifici offrono uno scarso supporto alle motivazioni usate da chi vuole introdurre il voto via Internet e la mozione approvata fa anche riferimento ad un esteso compendio delle problematiche incontrate dall’utilizzo della tecnologia digitale nel contesto elettorale. L’uso di modalità online di votazione ha un effetto minimo oppure nullo in pratica, come evidenziato da diversi studi. Uno è stato realizzato in Svizzera, con votazioni reali, per più anni (2003-2016 per Ginevra e 2005-2011 per Zurigo) e non ha mostrato alcuna influenza sulla partecipazione. Uno studio del 2014 relativo al Belgio ha evidenziato un leggero decremento. Uno studio canadese del 2020 ha evidenziato un leggero incremento concludendo, però, che «non era la soluzione per aumentare la partecipazione al voto». Studi sulle elezioni in Estonia hanno evidenziato che l’incremento di partecipazione era proporzionale al livello economico e di istruzione. Il pericolo quindi, di perdita di interesse al voto da parte di alcune fasce della popolazione è reale.

D’altro canto, le conseguenze negative cui un Paese viene esposto in caso di problemi nel funzionamento di una procedura di voto via Internet sono tali da rendere questa scelta difficilmente giustificabile. L’osservazione principale che viene utilizzata a sostegno del voto elettronico è che anche nel commercio elettronico e nell’online banking si verificano dei fallimenti ma questo non ci impedisce di usarli. Ciò è vero, ma tali malfunzionamenti determinano conseguenze puramente economiche che possono essere tenute presenti nella gestione di tutto il sistema sotto forma di costi aggiuntivi, come in realtà avviene con il meccanismo delle commissioni applicate a tutte le transazioni. È stato stimato che in tale area circa l’1% del volume economico scambiato serve per coprire i fallimenti. Ma mentre un simile margine può essere accettabile in ambito economico-finanziario, pensate voi che su 40 milioni di votanti avere 400mila voti (cioè l’1%) espressi in modo errato o truffaldino sia un “malfunzionamento” tollerabile? Anche una percentuale di errore di 1 su 10.000, corrispondente a soli 4 mila voti può decidere il futuro politico di un Paese.

Inoltre, le transazioni economico-finanziarie sono molto meno ristrette del voto: chiunque, purché abbia la disponibilità di un mezzo di pagamento elettronico, può operare quante volte vuole, indipendentemente dall’età o dalla nazionalità. Nel voto, invece, è necessario accertarsi che solo coloro che sono titolari del diritto di elettorato attivo esprimano effettivamente il loro voto, ma senza che sia possibile ricondurlo all’identità di chi lo ha espresso, ed in modo che ogni votante, indipendentemente dal suo livello di preparazione tecnica sia in grado di comprendere e ritenere regolare l’intero processo.

La mozione approvata dagli informatici italiani, oltre a ricordare le problematiche tecniche legate all’utilizzo di modalità di voto via Internet, discute anche questo rilevante aspetto sociale (ricordando un’importante sentenza del 2009 della Corte Costituzionale tedesca in questa direzione, che rappresenta una pietra tombale sulle velleità dei tecno-fanatici “dottor Stranamore”) e si conclude con queste parole: «riteniamo quindi che introdurre l’uso di sistemi di voto elettronico nelle elezioni politiche rischi di mettere a repentaglio le basi fondanti della nostra democrazia».

Come si dice sinteticamente in questi casi “la carta è la soluzione, non il problema”: la comunità italiana degli informatici universitari ritiene che un voto espresso su scheda cartacea sia ancora oggi il mezzo tecnologico più sicuro e affidabile che abbiamo a disposizione per le elezioni.

Non una verità rivelata, ma un’opinione razionalmente argomentata, a proposito della quale sarebbe auspicabile che si esprimessero anche colleghi universitari di altra estrazione culturale, dal momento che la fiducia nel processo elettorale è uno dei pilastri fondanti della democrazia, al di là di ogni questione specialistica. Hanno già espresso il loro sostegno due eccellenze della ricerca scientifico-tecnologica italiana in ambito informatico, il Laboratorio Nazionale di Cybersecurity e il Laboratorio Nazionale “Informatica e Società” del CINI, il Consorzio Interuniversitario Nazionale per l’Informatica.

Le associazioni scientifiche che volessero unirsi alla nostra posizione ed aderire alla mozione possono scrivere ai presidenti di GII e GRIN.

--
Versione originale pubblicata su "Key4Biz" il 23 dicembre 2021.

sabato 4 dicembre 2021

La trasformazione digitale e il Titanic

di Enrico Nardelli

Letto il titolo avrete sicuramente pensato: «Ma che c’azzecca?», per usare un’espressione informale e anortografica che era molto di moda qualche decennio fa. Qualche minuto di pazienza e lo scoprirete.

Penso ormai tutti sappiate che il nostro Paese, come molti altri in Europa, è impegnato nella messa in cantiere e nel varo di una congerie di progetti finanziati dal Piano Nazionale di Ripresa e Resilienza (PNRR), sostenuti da parecchie decine di miliardi di euro che riceveremo dalla Commissione Europea.

Osservo, en passant, che questi fondi sui quali c’è grandissima attesa sono sostanzialmente prestiti e, in quanto tali, andranno restituiti con delle condizioni che, dice qualche economista fuori dal coro, sono complessivamente per il nostro Paese più gravose di quelle che avremmo potuto ottenere rivolgendoci direttamente ai mercati e decidendo noi le priorità. Non è il mio settore, quindi mi astengo dal giudizio: il futuro ci dirà chi aveva ragione.

È anche generalmente noto che due priorità che la Commissione ha fissato sono quelle della transizione verde e della trasformazione digitale. Mi soffermo sulla seconda, data la mia competenza ed esperienza. Ho già espresso alcune riflessioni su come il nostro PNRR ha pianificato il processo di transizione digitale. Estendo adesso quelle considerazioni, nella speranza di far capire l’importanza di correggere la rotta su alcuni aspetti che ritengo fondamentali.

Questa onnipresente tecnologia digitale, che intermedia sempre di più tante relazioni umane, si presenta, davanti alla navigazione del nostro Paese nell’oceano della ripresa, come un iceberg (o un borgognone, come scrive Cesare Pavese nella sua spettacolare traduzione del Moby Dick). Ne vediamo la parte emergente, quella costituita, come illustrato nella figura sottostante (un mio adattamento di un’idea di Simon Peyton-Jones), dalle applicazioni che ormai praticamente tutti usiamo quotidianamente.

La nostra Nave sta cercando di affrontarla e superarla, ma sta, in buona sostanza, facendo attenzione solo ciò che si vede davanti agli occhi, focalizzandosi sull’insegnare a tutti le competenze operative. Operazione indispensabile, ma che da sola non è sufficiente, sul lungo periodo, soprattutto perché gli strumenti in questo settore cambiano molto velocemente.

Trascurare ciò che sta sotto la superficie, lo sviluppo della tecnologia informatica, compito generalmente svolto dagli ingegneri – che trasformano le idee in realtà, ci porta a non possederne il controllo, col risultato che se poi dispositivi e sistemi deviano dal comportamento previsto, perché chi li ha realizzati lo ritiene opportuno per i suoi scopi, siamo costretti ad adeguarci o a subire costi non secondari per passare ad usarne altri. Abbiamo quindi bisogno di formare chi sappia progettarli e costruirli, sulla base delle nostre esigenze, e di influire sulle direzioni di sviluppo.

Trascurare, inoltre, ciò che è alla base di tutto, cioè la conoscenza diffusa dei concetti fondamentali – che sono enormemente più stabili di ciò che si vede galleggiare, fa sì che i cittadini non siano pienamente consapevoli di tutti gli aspetti in gioco nella società digitale e non riescano a partecipare attivamente alla sua evoluzione. Come effetto consequenziale, ma non per questo meno rilevante, ne risulta un numero insufficiente di studenti, ed ancora di più di studentesse, che decide di proseguire gli studi all’Università nei settori scientifico-tecnologici dell’informatica.

È un aspetto questo che, ormai quasi una decina di anni fa, gli Stati Uniti hanno capito perfettamente. Nel 2014 l’allora presidente Obama girò il video che esortava tutti gli studenti americani ad imparare l’informatica «per mantenere il Paese all’avanguardia». Da quel momento, tutti e 50 gli stati USA hanno implementato politiche miranti ad diffondere nella scuola lo studio dell’Informatica. Sottolineo che la materia che è stata introdotta non è il coding, cioè la semplice programmazione dei calcolatori, ma proprio la computer science, la disciplina scientifica che noi chiamiamo informatica, che loro ritengono essenziale per costruire un’educazione bilanciata ed adeguata al XXI secolo. Per questo, l’hanno messa sullo stesso piano delle discipline più tradizionali, quali la madrelingua, la matematica e le scienze. I risultati stanno arrivando. Ormai nel 30% delle scuole elementari di tutti gli stati USA si insegna l’informatica (ricordo che è una decisione di competenza di ogni singolo stato) ed il numero delle ragazze che scelgono, alla fine della secondaria, l’esame AP di informatica (che è un indicatore attendibile dell’interesse verso la disciplina negli studi universitari) è raddoppiato.

Formare le persone nella cultura scientifica alla base della trasformazione digitale è un fattore strategico per qualunque nazione. La vitalità ed il successo di un paese democratico in un futuro sempre più digitale dipenderanno in larga misura dal livello di cultura informatica dei suoi cittadini. Gli Stati Uniti l’hanno capito.

Sappiamo tutti, dalla sfortunata vicenda del Titanic – appunto – come rischia di andare a finire per il nostro Paese se non facciamo attenzione a ciò che sta sotto la superficie.

Ho approfondito questi temi nella relazione invitata “Cittadinanza nello Stato digitale” che ho tenuto martedì 30 novembre al Politecnico di Torino per l’apertura della 13° conferenza del Nexa Center for Internet and Society. Potete vedere il mio intervento qui.

--
Versione originale pubblicata su "Key4Biz" il 29 novembre 2021.

venerdì 15 ottobre 2021

Informatica e sistema produttivo: quindici anni dopo

di Enrico Nardelli

Quindici anni fa, quando ero il presidente del GRIN (l'associazione italiana dei professori e ricercatori universitari di informatica), organizzai insieme al GII (l'omonima associazione per l'ingegneria informatica) un convegno presso la Camera dei Deputati dal titolo "Informatica, cultura e società". La parola d'ordine europea a quel tempo era "Società della conoscenza", erano imminenti nel nostro Paese le elezioni politiche e la nostra comunità voleva spingere la politica a fare finalmente i conti con la necessità di utilizzare l'informatica per favorire lo sviluppo economico. Gli atti sono stati pubblicati qui.

I governi sono arrivati e se ne sono andati, le parole d'ordine son cambiate, adesso si parla di "trasformazione digitale", ma l'informatica continua a rimanere sostanzialmente assente dai programmi di sviluppo del nostro Paese. Se non fosse per l'intelligenza artificiale, per la quale – non fosse altro perché ne parlano tutti nel mondo – ci sono un po' di investimenti, avremmo davvero una desolazione cosmica, simile a quella in cui viaggiano le sonde Voyager che abbiamo inviato decenni fa nello spazio profondo alla ricerca di eventuali civiltà extraterrestri.

Essendo stato educato su basi classiche, anche se poi ho studiato da ingegnere, so bene che, come ha scritto George Santayana (scrittore e filosofo spagnolo del secolo passato), «chi non ricorda il passato è condannato a ripeterlo». Per questo, approfittando della tecnologia digitale che non dimentica niente e permette di cercare molto più facilmente che scartabellando in un archivio cartaceo, di tanto in tanto riprendo in considerazione vecchi appunti.

Tra le carte risalenti all'epoca di quel convegno ho quindi ritrovato la nota, mai pubblicata, che riproduco integralmente nel seguito. Si sente che il tempo è passato, perché alcune espressioni ormai non si usano più. D'altro canto, invece, sono da un lato lieto di constatare che i concetti espressi hanno resistito alla prova del tempo, e dall'altro addolorato al pensiero che non è accaduto nulla di quanto ritenevo necessario. Il risultato netto è che il nostro Paese ha perso inutilmente molti anni, e che stiamo lasciando ai nostri figli un futuro peggiore di quello i nostri genitori hanno preparato per noi. Hanno contribuito anche altri fattori, ovviamente, a determinare la situazione attuale, ma questo mi sta particolarmente a cuore, essendo quello della mia attività professionale.

Chiudo qui il preambolo e lascio parlare il me stesso del 2006, senza cambiare una virgola.

==========

La società in cui viviamo viene comunemente definita la Società della Conoscenza, perché il sapere è sempre più essenziale nel lavoro e nell'economia. Il sapere è però un concetto complesso e con molte sfumature. Esso è tradizionalmente posseduto e reso operativo gli esseri umani, i quali lo detengono nei suoi costituenti statici (dati, fatti, relazioni, ...) e dinamici (procedure, finalità, motivazioni, ...).

Negli ultimi cinquant'anni del secolo scorso, partendo da uno dei più antichi filoni della matematica, la scienza dell'informatica ha cominciato ad investigare in modo sempre più intenso ed approfondito gli elementi formali e strutturati del sapere e della conoscenza, con lo scopo di capire cosa poteva essere realizzato in modo automatico.

In questo suo cammino ha avuto presto a disposizione un'evoluzione tecnologica impensabile ed incomparabile con quella di qualunque altro settore della conoscenza umana. è diventato possibile rappresentare enormi quantità di dati ed eventi a costi irrisori; realizzare dispositivi automatici in grado di eseguire complicatissime procedure che, con velocità esponenzialmente sempre maggiori, analizzano tali dati e le loro relazioni; connettere tali dispositivi in sistemi via via più complessi ed interconnessi, che ormai avvolgono l'intero pianeta e sono a disposizione di larga parte (anche se molta ne è ancora esclusa) dell'umanità. Analizzando più attentamente la situazione, però, ci si rende conto che tali dispositivi e tali sistemi sono ‘meccanici’ nel senso più assoluto del termine, perché richiedono una completa, minuziosa e specifica descrizione di ciò che devono realizzare, dal momento che non sono in grado di capire e di apprendere nel modo con cui apprendono i piccoli del genere umano.

Da questo stato di cose nascono le sempre maggiori difficoltà dell'utilizzo dell'informatica in qualunque struttura sociale organizzata: perché queste sono fatte di donne e uomini in grado di usare intuizione ed esperienza per dare un senso – a qualunque livello di governo essi siano – a regole e procedure delineate nei loro passi essenziali ma non dettagliatamente esplicitate per trattare tutti i casi possibili. Poiché invece i sistemi informatici non hanno questa capacità, dispiegarli bene nel contesto di una qualunque organizzazione, anche piccola, è un compito molto più complicato dell'inserire in essa nuove persone.

All'inizio è stato molto facile: si è trattato di usare i calcolatori per ordinare dati e fatti sulla base di semplici criteri, per trovare in questi insiemi elementi che soddisfacessero specifiche ed esplicite condizioni, per trasferirli da una parte all'altra secondo protocolli ben definiti, per calcolare dati di sintesi o di previsione mediante formule matematiche.

Negli ultimi quindici-venti anni la rete di comunicazione che ha avvolto il globo ha messo (quasi) qualunque dato a disposizione di (quasi) qualunque essere umano, perlomeno in potenza. Ma l'analisi, la comprensione e la decisione rispetto all'enorme mole di questi dati sono ancora attività specifiche degli esseri umani. Analogamente, all'interno di qualunque organizzazione, si possono ormai facilmente raccogliere dati su qualunque elemento del suo funzionamento, ma cosa-quando-perché elaborarli deve essere esplicitato fin nei suoi più minimi dettagli affinché la risposta fornita da un calcolatore sia usabile.

Questo compito non è facile, richiede tempo e pazienza, molto più di quanti non ne sarebbero necessari se al posto di un calcolatore usassimo un essere umano. Ma allora perché dovremmo usare i calcolatori? Perché sono più veloci (enormemente più veloci) e non commettono – per quanto attiene a loro – errori (mai, ma proprio mai), e questo ha un enorme valore economico. Riuscire a farlo appropriatamente è la sfida che in questi anni ogni società avanzata si trova ad affrontare. L'elemento chiave è capire che quanto si sta facendo non è la semplice sostituzione del contabile che calcola le somme del bilancio annuale con una macchina più veloce, ma è la molto più difficile sostituzione dell'essere umano che non si blocca di fronte ad una pratica od un oggetto fuori posto ed è in grado di capire quando un caso eccezionale è un errore, una truffa o un evento importante.

Uno degli elementi culturali determinanti nel causare lo sgonfiamento della bolla della new economy è stato che la gente aveva – erroneamente – pensato che “enorme potenza di calcolo” più “larghissima capacità dei canali di telecomunicazione” dessero automaticamente come somma una nuova “età dell'oro”. Ma questa somma è vera solo se tutti gli attori sono dispositivi tecnologici, non se sono coinvolti gli esseri umani. Infatti, nel mondo delle telecomunicazioni, dove sono solo macchine ad interagire per portare dati da un punto ad un altro, il futuro è già tra noi. In venti anni abbiamo dato a (quasi) ogni abitante del mondo industrializzato una scatoletta del peso di pochi grammi con la quale può mettersi in comunicazione con (quasi) ogni altro abitante della stessa parte del mondo, a costi irrisori rispetto alle distanze coinvolte. Ma poi, se questi esseri umani sono i componenti di una stessa organizzazione, quest'innovazione tecnologica li mette certamente in grado di lavorare insieme anche se sono fisicamente distanti, anche di scambiarsi documenti e di lavorarci sopra collettivamente (grazie alle reti ed alla posta elettronica) ma il cosa-come-perché della manipolazione di questi dati e documenti è in gran parte ancora nelle loro teste.

L'organizzazione e la formalizzazione di questo sapere in sistemi informatici che siano in grado di aiutare donne e uomini nelle loro decisioni, semplificando e migliorando i processi produttivi in cui essi operano, non sono né semplici né veloci, e richiedono soprattutto un cambiamento culturale. Cioè quello di capire che l'informatica non è solo il calcolo o la rete di comunicazione, ma una componente importante del modo di lavorare. Non è solo la disponibilità di tanti computer e di connessioni veloci ad Internet, ma la capacità di integrare queste ‘stupide’ ed ‘ottuse’ componenti tecnologiche in un processo ‘intelligente’ nel quale gli esseri umani devono essere supportati ed accompagnati ma non ostacolati e asserviti alle macchine, nel quale l'organizzazione deve essere alleggerita e snellita per acquisire più potenza per il raggiungimento dei suoi fini. Ed è, infine e non meno importante, la capacità di capire che questa innovazione tecnologica è così dirompente che se non viene introdotta e fatta crescere gradualmente, insieme alla comprensione culturale di essa da parte di chi ci interagisce, e sempre in accordo con i bisogni e le finalità dell'organizzazione, essa non realizzerà mai le sue splendide promesse.

Diffondere la cultura dell'informatica ed il suo corretto utilizzo è quindi uno degli interventi strategici necessari per ridare competitività al sistema italiano.

Essenziale, ai fini di questa strategia, è l’intervento nell’ambito della Pubblica Amministrazione. Negli ultimi quindici anni sia i governi centrali che quelli locali hanno infatti speso molto per introdurre innovazione nell'ambito delle tecnologie dell'informazione. Con quanto successo è difficile giudicarlo. Un elemento di criticità è che ‘innovazione’ è un termine molto alla moda, ma viene spesso utilizzato in modo distorto. Tutti la vogliono promuovere, ma pochi si rendono conto che quella che effettivamente interessa alla società è l'innovazione intesa come meta, non come strumento in sé e per sé. In quanto tale, il suo successo può essere effettivamente giudicato solo a posteriori. Nel divenire, è solo un cambiamento e poiché sappiamo che cambiare ha comunque dei costi, siamo giustamente sospettosi. Un prodotto o un servizio possono essere tecnologicamente molto innovativi ma fallire completamente il vero fine dell'innovazione: essere utile alle persone e rendere la società migliore. Le pubbliche amministrazioni centrali e locali hanno in questi ultimi anni certamente migliorato la loro tecnologia informatica. Ma i casi in cui ciò ha prodotto innovazione che ha migliorato effettivamente la vita dei cittadini sono molto pochi.

Ci sono ovviamente, soprattutto a livello centrale, problemi di complessità e di dimensioni. Ci sono, a tutti i livelli, problemi culturali: si presume, poiché sono stati acquisiti nuovi sistemi informatici, che tutto funzionerà meglio. I politici non riescono ad afferrare bene come l'informatica e le sue tecnologie cambiano la società e le organizzazioni e cedono alle suggestioni delle componenti tecnologiche ed industriali. Così si spendono molti soldi ma dell'innovazione che interessa al cittadino se ne vede molto poca. Se il cittadino fosse un imprenditore e misurasse il tasso di ritorno relativo questo investimento che è stato realizzato negli ultimi quindici anni con i soldi delle sue tasse, avrebbe dovuto già da tempo licenziare il management. Ma ci ritroveremmo praticamente senza politici, di nessun colore.

E' allora necessario che i politici capiscano che la rivoluzione informatica avrà una portata ben maggiore di quella della rivoluzione industriale che così profondamente ha trasformato il mondo nell'ottocento. Perché quella esercitava i suoi effetti essenzialmente sulle capacità fisiche dell'essere umano, mentre questa influenza la sfera delle attività cognitive, che sono quelle che fanno degli uomini ciò che sono. Successivamente bisogna intervenire perché questa comprensione sia calata nella pratica operativa e nell'organizzazione della pubblica amministrazione. Infine, è indispensabile trasformare tale consapevolezza in cambiamenti tecnologici miranti a dare più efficacia alle finalità istituzionali e misurare quantitativamente la portata dei vantaggi eventualmente ottenuti. Bisogna che i sistemi informatici siano considerati, come avviene nel settore privato ormai da almeno dieci anni, altrettanto essenziali dei sistemi amministrativo-contabili per il controllo e il governo di un'organizzazione. Così come la strutturazione e la direzione dei flussi economici disegnano i rapporti e le relazioni aziendali, altrettanto accade per i flussi informatici. La pubblica amministrazione deve far crescere al suo interno ruolo e importanza del sistema informatico ed usarlo sinergicamente con gli altri sistemi di governo aziendali per ottenere flessibilità, efficienza dei processi ed efficacia verso i cittadini. Un buon nucleo di competenze è già presente, sia a livello centrale che locale, ma bisognerà adeguatamente irrobustirlo, agendo anche in cooperazione con tutte le forze sociali competenti e disponibili, se si vuole davvero raggiungere questi obiettivi.

Intervenire in questo senso sulla pubblica amministrazione è essenziale per la crescita dell'Italia. Prima di tutto perché focalizzarsi sui risultati è l'unico approccio corretto per misurare se il miglioramento tecnologico davvero produce l'innovazione di cui il cittadino ha bisogno o no. Poi perché la pubblica amministrazione è uno dei mercati più grandi dell'intero settore dell'Information Technology ed è quello su cui la politica riesce ad intervenire in modo più diretto. La pubblica amministrazione è per il politico come la propria azienda per il top-manager. Anche il politico, infatti, deve rispondere ai suoi "azionisti", cioè i cittadini, e può intervenire direttamente su come lavora e come funziona la sua struttura.

La pubblica amministrazione, per le sue dimensioni e la sua centralità rispetto al sistema paese, è una componente essenziale per determinare il futuro dell'Italia e potrebbe costituire l’obiettivo strategico in grado di guidare e favorire lo sviluppo nel prossimo futuro.

Si tenga inoltre presente che al momento attuale la produzione italiana nel settore dell’informatica è praticamente rivolta tutta al mercato interno. Il nostro paese, caso unico fra tutti i Paesi del G7, non esporta quasi per niente software. Da questo punto di vista l’Italia è una fortissima anomalia, l’unico assente tra tutti i paesi con un’economia fortemente industrializzata. Questa situazione, che in sé e per sé appare drammatica, sul piano industriale, può però essere ottimisticamente considerata un’opportunità. È chiaro infatti che l’informatica è per l’Italia un settore che offre un’enorme spazio di crescita sui mercati internazionali, una grande opportunità di espansione economica. Il problema è che un’industria italiana del software non si improvvisa da un giorno all'altro. Certamente vanno prese misure da subito in tal senso. Però quello che richiederà molto tempo, perché è un problema di formazione ed assimilazione di nuovi concetti nella testa delle persone, è la reale e profonda consapevolezza da parte della classe dirigente del paese delle capacità e delle opportunità dell'informatica. Questa è una carenza di tipo culturale che richiede interventi di lungo respiro.

==========

Chi mi ha seguito fin qua, avrà avuto modo di sviluppare le sue riflessioni..

--
Versione originale pubblicata su "Key4Biz" l'11 ottobre 2021.

venerdì 23 luglio 2021

La carica degli apprendisti stregoni ovvero il “comma 22” del voto elettronico

di Enrico Nardelli

Il mio recente articolo, nel quale esprimevo un parere chiaramente negativo rispetto all’utilizzo del voto elettronico per le votazioni politiche generali, ha suscitato qualche “mal di pancia” e alcune incomprensioni.

Chiarisco subito che ho il massimo rispetto per i tanti imprenditori che vogliono cogliere l’opportunità dei forti investimenti sulla digitalizzazione che il nostro Paese dovrà fare nei prossimi anni e spero che, finalmente, grazie a questi investimenti si sviluppi un’industria italiana del software che ci liberi dalla schiavitù dell’utilizzo di sistemi pensati e progettati all’estero e da lì controllati.

Temo però che non si colga appieno la particolare delicatezza dell’utilizzo della tecnologia digitale in un processo elettorale, rendendola assolutamente sconsigliabile. Non basta fare appello alle migliori risorse di sicurezza informatica del nostro Paese per mettere a punto – attraverso sperimentazioni e verifiche – un processo tecnico-organizzativo che superi certe criticità. Non è così semplice.

Chi non è più tanto giovane ricorderà lo sforzo che gli Stati Uniti avviarono agli inizi degli anni ‘80 sotto la presidenza Reagan per realizzare il cosiddetto “scudo stellare” (SDI = Strategic Defense Initiative). Uno dei massimi esperti accademici di ingegneria del software coinvolto nel progetto, David Lorge Parnas, consulente di fiducia dei progetti di difesa degli USA, si ritirò dall’SDI nel giugno 1985 argomentando pubblicamente, su basi tecnico-scientifiche, che il progetto non avesse alcuna possibilità di raggiungere i suoi obiettivi.

Nonostante nei quasi quarant’anni passati l’ingegneria del software abbia fatto enormi passi avanti in termini di metodi e tecniche, i progetti di sviluppo e aggiornamento dei sistemi software continuano a fallire in quantità effettivamente imbarazzante rispetto ad ogni altra branca dell’ingegneria. Qui una rassegna recente relativa al Regno Unito, ma – come si dice – tutto il mondo è paese. Questo non vuol dire smettere di fare ricerca in questo settore, tutt’altro, la ricerca è necessaria per migliorare tale situazione. Però è necessario essere ben consapevoli che nella realizzazione dei sistemi informatici siamo enormemente lontani da quell’affidabilità che consente a tutti di salire su un aeroplano con la più che ragionevole certezza di atterrare sani e salvi.

E la situazione che Parnas criticava negli anni ’80 è nel frattempo stata resa più complicata dall’ubiquità di Internet e dei dispositivi di calcolo personali ad essa connessi. L’impossibilità di dimostrare matematicamente il corretto funzionamento di un sistema software (quando invece qualunque ingegnere di qualunque settore rilascia un progetto essendo matematicamente sicuro che se l’artefatto viene realizzato ed usato secondo quanto progettato andrà tutto bene), accoppiata alla necessità (che ho illustrato nel precedente articolo) di dover verificare tutti i componenti e tutti i sistemi coinvolti nel processo, rende lo scenario intrattabile.

I proponenti delle soluzioni per il voto elettronico insistono sul dire “sperimentiamo e verifichiamo” in modo da essere assolutamente sicuri. Nel caso dello “scudo stellare” non esistevano situazioni realistiche per verificare il sistema che non fossero quelle di un reale attacco missilistico russo. Ma ovviamente non ci si poteva esporre ad un simile rischio senza la sicurezza del funzionamento del sistema. Una situazione, appunto, da “Comma 22”, il romanzo di Joseph Heller, in cui ad un certo punto si enuncia questo comma per poter essere esentati dai combattimenti: «Chi è pazzo può chiedere di essere esentato dalle missioni di volo, ma chi chiede di essere esentato dalle missioni di volo non è pazzo».

Lo stesso accade per il voto elettronico. L’unico test realistico sarebbe quello del voto. Ma non si può mettere in pericolo il futuro di un Paese come l’Italia: ricordiamo che le elezioni politiche generali assicurano il governo della Nazione per cinque anni, in cui maggioranze sufficientemente forti possono cambiare tutte le leggi che vogliono ed anche stravolgere la Costituzione. Ora, se questo davvero avviene per volontà popolare, nulla da dire, ma se ciò invece accade per qualche broglio tecnologico, ritengo che sia da pazzi correre un simile rischio. Ed il punto fondamentale è che tutti i cittadini devono poter essere sicuri che è davvero il popolo sovrano che si è espresso, e non qualche burattinaio più o meno lontano.

Questo argomento della “fiducia dei cittadini nell’intero processo elettoraleè, purtroppo, spesso ignorato dai tecnologi. Scrivevo, nel mio precedente articolo, che «con la scheda cartacea nell’urna tutto è semplice, verificabile e comprensibile da chiunque». Lo stesso non è vero con il voto elettronico. Non si tratta di una mia osservazione particolarmente originale: colleghi che in tutto il mondo si occupano di questi temi l’hanno più volte espressa. Ciò che non sapevo (e ringrazio Roberto Di Cosmo per avermelo segnalato) è che lo stesso tipo di argomento è stato utilizzato nel 2009 dalla Corte Costituzionale tedesca per sancire la non costituzionalità in Germania del voto elettronico. Potete trovare online il comunicato stampa in inglese ed anche la traduzione in italiano del comunicato e dell’intera sentenza, curata dal Comitato per i Requisiti del Voto in Democrazia, il Centro Hermes per la Trasparenza e i Diritti Umani Digitali e il Progetto Winston Smith, tre organizzazione italiane particolarmente attive in tema di diritti digitali che invito a seguire.

Per chi va di fretta riporto la mia traduzione delle argomentazioni centrali. «Il principio della natura pubblica delle elezioni, …, prescrive che tutti i passi fondamentali di un’elezione siano soggetti alla possibilità di controllo pubblico, a meno che altri interessi costituzionali giustifichino un’eccezione». A tal proposito, la Corte Costituzionale tedesca ha osservato che l’uso di dispositivi digitali risponde a tale prescrizione «solo se i passi essenziali della votazione e della determinazione del risultato possono essere esaminati in modo affidabile e senza alcuna conoscenza specialistica».

Ha inoltre aggiunto «Mentre in un’elezione convenzionale, con schede elettorali cartacee, le manipolazioni o le frodi elettorali sono, …, possibili solo mediante uno sforzo considerevole e con un elevato rischio di essere scoperti, il che ha un effetto deterrente, gli errori di programmazione nel software o frodi elettorali commesse deliberatamente alterando il software o le macchine di voto elettronico possono essere scoperti solo con difficoltà».

Pertanto «sono necessarie precauzioni speciali per salvaguardare il principio della natura pubblica delle elezioni» e quindi «I votanti stessi devono essere in grado di comprendere, senza alcuna conoscenza di dettaglio della tecnologia digitale, se i voti che hanno espresso sono stati registrati in maniera fedele». Infine «Anche un esteso insieme di misure di sicurezza organizzative e tecniche non è da solo adatto a compensare la mancanza della possibilità per i cittadini di esaminare i passi essenziali della procedura elettorale» dal momento che «una fiducia giustificata nella regolarità delle elezioni» è possibile solo se «i cittadini stessi sono in grado di ripercorrere in modo affidabile i passi fondamentali della votazione».

È inoltre interessante osservare che, nella stessa sentenza del 3 marzo 2009, la Corte Costituzionale tedesca ha osservato che «non è richiesto dalla costituzione che i risultati delle elezioni siano disponibili subito dopo la chiusura dei seggi» e che le elezioni precedenti «hanno evidenziato che anche senza usare macchine per le votazioni i risultati ufficiali provvisori sono in genere disponibili dopo poche ore».

Io credo che l’Italia non sia seconda a nessuno in termini di creatività e capacità realizzative, per cui spesso sorrido quando si portano paesi stranieri ad esempio per indicarci come dovremmo fare le cose. Però, in questo caso, mi piacerebbe che i molti che spesso guardano alla Germania come ad un esempio da imitare fossero coerenti con sé stessi. La fiducia nel sistema elettorale è un pilastro fondamentale di ogni paese democratico, incrinarla vuol dire giocare col futuro del paese stesso.

Veniamo quindi all’altro argomento usato da chi spinge per l’introduzione del voto elettronico: il fatto che così si combatte l’astensionismo. Bisogna purtroppo dire che allo stato attuale della conoscenza, le ricerche fatte in quest’ambito non sostengono tale conclusione. Il lettore interessato può consultare il recentissimo articolo pubblicato sul Journal of Cybersecurity per un’interessante rassegna. Ricordo che uno degli autori è Ronald Rivest, uno degli inventori di quella crittografia a chiave pubblica che è alla base della sicurezza delle transazioni sulla rete. Tale articolo ricorda che uno studio realizzato in Svizzera con votazioni reali, per più anni (2003-2016 per il cantone di Ginevra e 2005-2011 per quello di Zurigo), non ha mostrato alcun impatto sulla partecipazione. Uno studio del 2014 relativo al Belgio ha evidenziato un leggero decremento. Uno studio canadese del 2020 ha evidenziato un leggero incremento concludendo, però, che «non era la soluzione per aumentare la partecipazione al voto». Studi sulle elezioni in Estonia hanno evidenziato che l’incremento di partecipazione era proporzionale al livello economico e di istruzione. Il pericolo quindi, di perdita di interesse al voto da parte di alcune fasce della popolazione è reale.

Soprattutto, dato lo stato corrente della sicurezza informatica, dove la diffusione di malware, lo sfruttamento di difetti zero-days, e gli attacchi denial-of-service sono all’ordine del giorno, qualunque eventuale aumento di partecipazione al voto deve essere confrontato con la perdita della sicurezza che i voti espressi dai cittadini siano contati tutti correttamente. Diversamente da altre infrastrutture in cui i rischi di frodi o di malfunzionamenti – che accadono regolarmente – sono tenuti presenti, gestiti e contabilizzati, nel processo elettorale non esiste nessuna assicurazione o compensazione per un’elezione compromessa. Nella situazione attuale, considerando il peso e la collocazione del nostro Paese, far votare i cittadini con meccanismi digitali sarebbe come inviare in guerra soldati con un coltello in mano a combattere contro un carro armato.

In conclusione, le evidenze per stare alla larga dal voto elettronico ci sono tutte. Un detto attribuito ad Einstein (che pare invece sia nato nella comunità degli alcolisti anonimi) recita «La pazzia è il ripetere le stesse cose aspettandosi risultati diversi».

Sono convinto che sapremo resistere alle sirene della follia.

--
Versione originale pubblicata su "Key4Biz" il 19 luglio 2021.

martedì 20 luglio 2021

Gli apprendisti stregoni del voto elettronico

di Enrico Nardelli

A novembre 2020 mi interrogavo sull'esistenza/non-esistenza di un comitato che stava lavorando sul voto elettronico. C’è ora la certezza che in effetti il comitato esisteva, dal momento che ha prodotto – in data 25 maggio 2021 – delle “Linee guida per la sperimentazione del voto elettronico”, che successivamente il Ministero dell’Interno e il Ministro per l’Innovazione Tecnologia e la Transizione Digitale hanno approvato con decreto del 9 luglio 2021.

In situazioni di questo genere, in cui si vanno a toccare meccanismi fondamentali per la democrazia, è buona prassi esporre le proposte di cambiamento alla consultazione pubblica, al duplice scopo di verificarne la qualità e di ottenere eventualmente suggerimenti migliorativi. Lo fa normalmente anche la Commissione Europea. In questo caso, un comitato, dei cui lavori si è saputo poco o niente, ha definito delle linee-guida per cambiare le modalità di voto, sulle quali nessuno ha potuto fare osservazioni prima che venissero recepite in un decreto interministeriale.

Visto che non risultano verbali dei lavori di questo comitato non si può dire se le autorità nazionali di sicurezza informatica siano state coinvolte nella definizione di tali linee guida. Il decreto, bontà sua, indica che dovranno esserlo nella predisposizione dello studio di fattibilità e dei requisiti tecnici. Meglio di niente, certamente, ma non mi pare il massimo della trasparenza per un tema così importante per la democrazia.

Nel mio articolo di novembre 2020 ricordavo le tante perplessità esistenti in tutto il mondo sul voto elettronico, riallacciandomi ad una precedente inchiesta di Nicola Biondo. La situazione a livello internazionale è abbastanza chiara. In Europa, con l’unica eccezione dell’Estonia (una nazione che ha meno della metà degli abitanti del comune di Roma e che ha avuto alcuni problemi, vedi qui e qui), il voto elettronico è generalmente evitato. In diversi paesi europei, Germania, Svizzera, Norvegia e Olanda, è stato tassativamente escluso. Negli Stati Uniti, la culla del digitale, il Paese che grazie all’informatica ed alle sue tecnologie sta dominando e controllando il mondo attraverso le sue multinazionali, ad aprile del 2020 è stata pubblicata una lettera aperta indirizzata a Governatori, Segretari di Stato, Direttori degli Uffici Elettorali, di tutti e 50 gli stati americani, dove si conclude che «la votazione via Internet non è una soluzione sicura per votare negli Stati Uniti, né lo sarà in un prevedibile futuro». La lettera (basata su vent’anni di analisi ed evidenze scientifiche) è stata preparata dal Centro per l’Evidenza Scientifica nelle Questioni Pubbliche, un centro studi della Associazione Americana per l’Avanzamento delle Scienze, in collaborazione con le tre Accademie Nazionali americane delle Scienze, dell’Ingegneria e della Medicina, il Ministero per la Sicurezza Nazionale, e l’Istituto Nazionale per gli Standard e la Tecnologia. Tra le organizzazioni che hanno firmato la lettera appaiono quelle della comunità scientifica e tecnologica dell’informatica (ACM e CRA). Tra gli esperti che l’hanno validata basta ricordare i nomi di Vinton Cerf (il papà di Internet) e di Ronald Rivest (uno degli inventori di quella crittografia a chiave pubblica che è alla base della sicurezza delle transazioni sulla rete).

Successivamente, un rapporto del mitico MIT (il Massachussets Institute of Technology) – tra i cui autori figura lo stesso Rivest – ha nuovamente sconsigliato l’uso del voto elettronico perché neanche la “catena di blocchi” (la moda del momento più conosciuta come blockchain) è in grado di fornire i livelli di sicurezza ed affidabilità che sono indispensabili per un sistema così critico per la democrazia quale quello delle votazioni. Riporto qui un’utile tabellina che caratterizza le quattro macro-categorie di modalità di votazione con la loro codifica di pericolosità (dal più verde=più sicuro al più rosso=più pericoloso – mia elaborazione dall’articolo del MIT).

Ecco, il decreto appena pubblicato dice testualmente (art.3, comma 1): «il voto elettronico è espresso mediante una web application, a cui l’elettore può accedere con qualsiasi dispositivo digitale collegato alla rete internet e dotato di uno dei browser più diffusi». Siamo proprio nel caso indicato in rosso nella tabellina qui sopra.

È come se, per fare un esempio allineato al periodo estivo, in una situazione di estrema siccità, in cui i boschi prendono fuoco per niente, qualcuno proponga di fare un grande barbecue in pineta. Cosa potrà mai andare storto?

Ci si dimentica troppo spesso che la sicurezza dei sistemi digitali (o sicurezza informatica, anche se quelli che ci tengono a farti sapere che sono dei veri esperti parlano di cyber-security dimenticando gli italianissimi cibersicurezza o sicurezza cibernetica) è soprattutto un fatto di cultura prima che di tecnologie. La situazione della sicurezza informatica è in uno stato deplorevole. I rapporti periodici che vengono annualmente prodotti indicano che il mercato dei crimini informatici è in costante aumento. Ricordo solo due degli incidenti più recenti.

A maggio di quest’anno un attacco informatico alla Colonial Pipeline ha, per qualche giorno, messo in seria difficoltà la vita quotidiana negli Stati Uniti. Come rilevato in una successiva testimonianza di fronte al Senato americano, il punto di ingresso è stata la carenza di “igiene digitale”.

Solo la settimana scorsa è arrivata la notizia che circa 1.000 clienti di un fornitore di servizi informatici via Internet sono stati contemporaneamente attaccati. Anche in questo caso, come nel precedente, mediante ransomware, un tipo di software malevolo che blocca i sistemi informatici di chi è colpito fino al momento in cui questo non paga un riscatto (=ransom). La novità di quest’ultimo caso, rispetto a quello di maggio, è che l’attacco è avvenuto attraverso la “catena di fornitura” (supply chain, per quelli fighi) che, quanto più i sistemi informatici diventano interconnessi, tanto più diventa il tallone d’Achille della nostra società.

A questo proposito, il decreto prescrive (art.5, comma 2) che «Il codice sorgente del sistema di voto elettronico è pubblicato sul sito istituzionale del Ministero dell’interno». Ora, tutti coloro che lavorano in quest’ambito sanno bene che la disponibilità del codice sorgente di un qualunque sistema è condizione necessaria ma non sufficiente ad assicurare che il sistema in esercizio si comporti come previsto. Come sottolineato circa 40 anni fa nella Turing award lecture (il premio Turing è per l’informatica quello che la medaglia Field è per la matematica o il Nobel per altre scienze) di Ken Thompson (inventore insieme a Dennis Ritchie di Unix – il sistema operativo che attraverso la sua evoluzione in Linux è il più usato al mondo) non si può avere alcuna fiducia nel codice che non è stato completamente prodotto da sé stessi (o da persone assolutamente fidate).

Il punto chiave è nell’aggettivo “completamente”, che richiede un minimo di spiegazione per i non esperti. Il cosiddetto codice sorgente è quello scritto dai programmatori. Questo diventa codice eseguibile attraverso un processo di “compilazione”, cioè di traduzione, che viene realizzato da un altro programma, detto “compilatore”. Se questo è stato alterato, il fatto che il codice sorgente sia sicuro non garantisce che il codice eseguibile lo sia. È come quando parlate con uno straniero attraverso un interprete. Se non conoscete la lingua del vostro interlocutore straniero non avete alcuna garanzia, a meno che non vi fidiate completamente dell’interprete, che le vostre parole siano state riportate fedelmente. È uno dei motivi per cui gli interpreti negli incontri di alto livello sono persone di assoluta fiducia. A complicare la situazione, si aggiunge il fatto che la vera e propria esecuzione del codice eseguibile viene effettuata, nei dispositivi informatici, attraverso il cosiddetto “microcodice” memorizzato nei circuiti hardware del dispositivo stesso. Se non li avete realizzati voi, non potete fidarvi. Purtroppo in Italia (e in generale in Europa) una politica industriale che definire miope è un eufemismo, ha fatto sì che i grandi produttori mondiali di tali circuiti siano quasi tutti distribuiti tra gli USA e l’Est asiatico. E dovete possedere questo livello di fiducia per tutti i programmi disponibili sul dispositivo informatico che state usando e per tutti i programmi e sistemi che sono coinvolti nelle comunicazioni che avvengono tra il vostro dispositivo ed i punti di raccolta dei voti espressi elettronicamente.

Questo solo per rimanere sugli aspetti tecnologici. Ma un sistema elettorale non è solo tecnologia, sono processi e persone che li mettono in opera. Identificazione del votante, verifica del godimento del diritto di elettorato attivo, prevenzione della coercizione, sono solo alcuni degli aspetti non tecnologici la cui gestione in un sistema di voto elettronico è particolarmente delicata.

È importante poi mettersi nei panni di un criminale informatico, per capire che ovviamente non ha alcun senso attaccare un sistema finché è in fase di sperimentazione o simulazione. Conviene aspettare che sia nella sua piena operatività, per poi lanciare l’attacco nel momento in cui il potenziale profitto è massimo. Quanto può valere l’alterazione di un’elezione politica generale in un Paese di 60 milioni di abitanti del livello di sviluppo e con la collocazione geopolitica dell’Italia?

Dulcis in fundo, il decreto più volte sottolinea l’importanza che il sistema di voto elettronico dovrà garantire «un’agevole comprensione e utilizzo da parte di tutti gli elettori, con informazioni chiare e trasparenti». Decenni di esperienza di interazione con sistemi informatici di tutti i tipi (e di conoscenza di come vengono sviluppati) mi danno la solida certezza che non si riusciranno ad assicurare tali condizioni.

Aggiungo infine quella che per me è la motivazione definitiva per non adottare sistemi di voto elettronico. La trasparenza e la comprensibilità da parte di tutti i cittadini del sistema elettorale, anche di quelli tecnologicamente impreparati, sono elementi assolutamente fondamentali ed irrinunciabili per la fiducia che i risultati finali esprimano davvero la volontà degli elettori e quindi per la tenuta della democrazia.

Con la scheda cartacea nell’urna il tutto è molto semplice, verificabile e comprensibile da chiunque. Con la tecnologia digitale di mezzo, bisogna affidarsi in modo assoluto ed irrimediabile agli “iniziati”.

Che succede se questi apprendisti stregoni sbagliano qualche “formula magica”?

Siamo ad un passaggio cruciale. Il futuro della nostra democrazia dipende dalle nostre scelte.

--
Versione originale pubblicata su "Key4Biz" il 13 luglio 2021.

giovedì 29 aprile 2021

PNRR e trasformazione digitale: dov'è l'informatica?

di Enrico Nardelli

Il Piano Nazionale di Ripresa e Resilienza (PNRR), appena arrivato alla Camera dei Deputati, riconosce l’importanza della “transizione digitale”, che viene citata 21 volte. D’altro canto, questo è uno dei sei pilastri sui quali la Commissione Europea richiede di fondare tali piani e non si poteva quindi fare diversamente.

Mi sembra, però, che le linee progettuali che il PNRR espone per sviluppare in Italia il processo di transizione digitale siano carenti sul piano della formazione.

La tecnologia digitale sta cambiando la società in modo estremamente più radicale di quanto accaduto con la rivoluzione industriale. Ciò dipende dal fatto che le sue macchine potenziano le capacità di ragionamento delle persone, ma sono completamente sprovviste dell’adattabilità e della capacità di apprendere che hanno gli esseri umani. Ciò fa sì che la trasformazione digitale venga realizzata secondo i tradizionali schemi dell’automazione industriale, che però ha riguardato macchine che amplificavano solo le capacità fisiche delle persone. Il risultato sono sistemi digitali che ingessano il lavoro anziché renderlo più snello (quando non falliscono il loro obiettivo di automazione).

Lo snodo quindi fondamentale e prioritario affinché la transizione digitale possa avvenire in modo non solo efficace ma anche rispettoso della dignità dell’uomo e del benessere della società è attuare prima di tutto una trasformazione culturale, cioè investire in istruzione e formazione. Un’azione indispensabile per avere cittadini adeguatamente preparati nei concetti fondamentali della scienza alla base dell’odierna società digitale è introdurre l’insegnamento dell’informatica nella scuola. Nelle nazioni più avanzate questo viene attuato non solo per formare cittadini consapevoli di tutti gli aspetti in gioco nel mondo digitale ed in grado di partecipare attivamente alla sua evoluzione, ma anche per consentire la crescita e lo sviluppo economico della società. Formare le persone nelle materie alla base della trasformazione digitale consente ad un Paese di governare la sua direzione di sviluppo avendo “in casa” le competenze necessarie per la produzione dei beni e servizi che sempre di più in futuro saranno basati sui sistemi digitali. Si ottiene quindi anche il beneficio di un effetto moltiplicatore sul futuro dell’economia.

Si tratta di un fattore strategico per qualunque nazione. Da un lato vi è infatti una sempre maggiore dipendenza di prodotti e servizi dalle tecnologie informatiche in tutte le fasi di progettazione, realizzazione ed erogazione. Dall’altro va tenuto presente che lo stesso tessuto sociale (relazioni e comunicazioni) è ormai fittamente innervato da strumenti digitali. La vitalità ed il successo di un paese democratico in un futuro sempre più digitale dipenderanno quindi in larga misura dal livello di cultura informatica dei suoi cittadini.

A fronte di un panorama internazionale di Paesi che, senza fronzoli su digital skills e problem solving, hanno semplicemente inserito l’informatica nei programmi di studio scolastici a tutti i livelli, nel PNRR si parla di “competenze digitali” per ben 24 volte, senza mai citare una sola volta l’informatica come materia di studio. Nel PNRR, a proposito delle nuove competenze per gli studenti si dice (p.189): «La misura più importante sarà un corso obbligatorio di coding per tutti gli studenti nell’arco del loro ciclo scolastico.» Questa era una misura del vecchio Piano di Azione per l'Istruzione Digitale della Commissione Europea.

Ricordo che gli USA già nel dicembre 2015 hanno introdotto l’informatica nella legislazione federale tra le materie fondamentale per fornire a tutti gli studenti un’educazione bilanciata e adeguata al 21-mo secolo, a pari merito con discipline più tradizionali (quali la madrelingua, la matematica, le scienze, solo per citarne alcune). Da allora tutti e 50 gli Stati hanno messo in opera, in misure diverse, politiche per realizzare tale indirizzo ed i frutti si stanno vedendo in termini di incremento del numero di studenti (e di studentesse!) che si iscrivono a corsi universitari in cui si studia informatica. Nel Regno Unito, il governo britannico ha stanziato nel novembre 2018 un fondo di 82 milioni di sterline per l’avviamento di un istituto per la formazione dei docenti all’insegnamento dell’informatica nella scuola che sta procedendo a pieno regime. Solo pochi mesi fa in Danimarca è iniziata la discussione per uno stanziamento di 750 milioni di corone (equivalenti circa a 100 milioni di euro) per un intervento analogo. In Polonia l’informatica è materia obbligatoria, dal 2018-19, fin dalla primaria. In Israele informatica può essere studiata come materia a scelta, disponibile fin dalla quarta elementare con copertura di argomenti avanzati al liceo. In Francia è stata introdotta una certificazione per l'insegnamento dell'informatica nella scuola media (2018-19).

In un’audizione al Senato dedicata al PNRR ho presentato la situazione sopra esposta.

Nel nuovo Piano di Azione per l’Istruzione Digitale (DEAP 2021-27) la Commissione Europea ha dichiarato [COM(2020) 624 final del 30 settembre 2020]: «L'educazione informatica nelle scuole consente ai giovani di acquisire una solida comprensione del mondo digitale. L'introduzione all'informatica fin dalla più giovane età, attraverso approcci innovativi e motivanti all'insegnamento, in contesti sia formali che non formali, può contribuire a sviluppare competenze in materia di risoluzione dei problemi, creatività e collaborazione. Può inoltre promuovere l'interesse per gli studi relativi alle discipline STEM e le future carriere in tale ambito, contrastando nel contempo gli stereotipi di genere. Le azioni volte a promuovere un'educazione informatica inclusiva e di elevata qualità possono anche avere un impatto positivo sul numero di ragazze che seguono studi informatici nell'istruzione superiore e lavoreranno poi nel settore digitale o svolgeranno professioni digitali in altri settori economici

La domanda quindi sorge spontanea: ma come pensiamo di gestire la transizione digitale in Italia se non forniamo a tutti gli studenti un’istruzione di base in informatica?

Ogni cittadino, nel vedere un qualunque macchinario non pensa più si tratti di una “diavoleria” perché ha studiato a scuola quei princìpi scientifici di base che gli permettono di capire che non ci sono “miracoli” nella tecnologia.

Cosa aspettiamo a fare lo stesso per il digitale?

--
Versione originale pubblicata su "Key4Biz" il 26 aprile 2021.