Pagine

martedì 26 dicembre 2023

La raccomandazione europea sull’insegnamento dell’informatica nella scuola

di Enrico Nardelli

Mercoledì 6 dicembre si è svolta alla Camera la conferenza stampa, organizzata dall’Intergruppo Innovazione (gruppo bipartisan di parlamentari che hanno a cuore i temi dell’innovazione), dedicata all'approvazione da parte del Consiglio dell'Unione Europea della proposta di Raccomandazione della Commissione Europea sull'insegnamento dell'informatica nella scuola. Per l'Intergruppo hanno partecipato il senatore Lorenzo Basso (PD) e i deputati Giulio Centemero (Lega) e Giulia Pastorella (Azione). Per il mondo produttivo: Agostino Santoni (vicepresidente per il digitale di Confindustria) e Giorgio Binda (presidente nazionale Unimatica di Confapi). Il video della conferenza stampa è disponibile a questo link.

La Raccomandazione approvata affronta la necessità di far sì che l'istruzione supporti la trasformazione digitale, fornendo le competenze necessarie a questo scopo. Pertanto, viene raccomandato a tutti gli Stati Membri di sviluppare un’istruzione di qualità in informatica nell’istruzione sia primaria che secondaria.

In modo più specifico, si raccomanda di:

  • inserire un insegnamento di alta qualità in informatica dall’inizio dell’educazione obbligatoria, avendo stabilito in modo chiaro gli obiettivi di apprendimento, il tempo dedicato e i metodi di valutazione, allo scopo di offrire a tutti gli studenti la possibilità di sviluppare le loro competenze digitali in modo scientificamente ben fondato,
  • far sì che l’insegnamento dell’informatica sia erogato da insegnanti qualificati, che abbiano a disposizione risorse didattiche di qualità, approcci didattici ben fondati, e appropriati metodi di valutazione degli obiettivi di apprendimento.

Si manifesta quindi chiaramente a tutti gli Stati Membri la necessità di avere l’informatica come disciplina scientifica fondamentale per l’istruzione di tutti i cittadini nel 21-mo secolo. È un’indicazione quanto mai opportuna. Ricordiamo infatti che, con il passare da una società agricola ad una società industriale, il processo educativo delle persone è mutato, introducendo nell’istruzione obbligatoria elementi di quelle scienze (fisica, biologia, chimica, …) che sono alla base di ogni macchina industriale. Analogamente, nel passaggio dalla società industriale alla società digitale è necessario aggiungere nell’istruzione obbligatoria lo studio dell’informatica, indispensabile per comprendere le macchine digitali.

Questa raccomandazione è dunque una svolta epocale, che speriamo serva ad avviare finalmente in tutti i Paesi Europei una seria attività di formazione sull’informatica nella scuola. Ricordo che l’istruzione è una materia di competenza degli Stati Membri, per cui il ruolo dell’Unione Europea rimane sussidiario.

Tutti gli intervenuti sono stati concordi nel ribadire l’auspicio che in Italia venga avviata nella scuola un’intensa attività educativa in questa direzione, sottolineando l’importanza di fare sistema tra pubblico e privato.

In Italia, il Ministro dell’Istruzione e del Merito, Giuseppe Valditara, ha già da tempo dichiarato di voler rafforzare le preparazione scolastica nelle materie scientifiche, obiettivo quanto mai meritorio. Inoltre, dal momento che questa proposta della Commissione indica in modo evidente l’informatica come la materia scientifica alla base della preparazione per la società digitale, sarebbe opportuno integrare quanto previsto in tale settore, anche nell’ambito del PNRR, dove sono discusse solo le competenze operative di utilizzo della tecnologia digitale.

A questo fine, nella missione M4 (Istruzione e Ricerca) del PNRR è presente la sotto-componente C1.3 (Ampliamento delle competenze e potenziamento delle infrastrutture), che prevede l’investimento 3.1 (Nuove competenze e nuovi linguaggi), con l’obiettivo di «promuovere l’integrazione, all’interno dei curricula di tutti i cicli scolastici, di attività, metodologie e contenuti volti a sviluppare le competenze STEM, digitali e di innovazione», con a disposizione fondi per 1.100 milioni di euro.

Con il DM n.184 del 2023 sono state pubblicate le linee guida STEM, che danno solo indicazioni, necessariamente non dettagliate, su cosa fare relativamente alle competenze digitali. A tal proposito, si fa notare che il Laboratorio Informatica e Scuola del CINI, il Consorzio che raggruppa più di 50 università statali italiane attive nel settore dell’informatica ed è quindi l’istituzione di riferimento in Italia per la formazione in informatica, aveva preparato, già da dicembre 2017, una proposta molto dettagliata dei traguardi di competenze e degli obiettivi di apprendimento per l’insegnamento dell’informatica in tutte le fasce dell’istruzione obbligatoria, che viene citata in una nota delle linee guida stesse.

Il Ministero, con DM n.65 del 12 aprile 2023, ha già assegnato 600 milioni di euro alle scuole per lo sviluppo delle competenze STEM degli studenti: ogni istituto dovrà preparare i relativi progetti seguendo tali linee guida. Osserviamo preliminarmente che, per garantire sostenibilità nel lungo periodo ai processi di trasformazione digitale, in aggiunta alla formazione degli studenti è necessaria quella degli insegnanti, così da consentire di preparare i ragazzi anche negli anni successivi ai fondi PNRR. Inoltre, riteniamo che per aumentare l’efficacia dell’azione ministeriale occorra fornire agli istituti coinvolti, ben inteso senza ledere l’autonomia scolastica, indicazioni precise sui contenuti.

In quest’ottica, è utile guardare a chi, dei grandi paesi Europei, ha affrontato questo snodo prima di noi e può quindi indicarci una strada. Vi è l’esempio del Regno Unito. Nell’a.s. 2014-15 aveva inserito un curricolo di informatica obbligatorio per tutte le scuole. Nel novembre 2017 un rapporto della Royal Society aveva evidenziato che però la situazione era addirittura peggiorata. Allora nel novembre 2018 il governo ha deciso uno stanziamento di 84 milioni di sterline per la creazione, concretizzatasi nel 2019, di un istituto nazionale per l’insegnamento dell’informatica, il National Centre for Computing Education, che sta per essere rifinanziato.

Sulla linea di investimento 3.1 dovrebbero essere rimasti fondi in quantità sufficiente per un intervento di questo genere, imprescindibile se si vuol preparare il Paese alla transizione digitale.

È quindi indispensabile una chiara determinazione in questa direzione da parte della politica, che sia anche supportata da intese larghe e trasversali, per guidare una trasformazione che richiederà almeno un decennio per essere completata. Solo così potremo garantire alle future generazioni la possibilità di governare il loro futuro digitale.

--
Versione originale pubblicata su "StartMAG" il 23 dicembre 2023.

mercoledì 22 novembre 2023

Intelligenza artificiale e scuola: facciamo chiarezza

di Enrico Nardelli

Stiamo osservando una corsa frenetica all’utilizzo degli strumenti di Intelligenza Artificiale (IA) nel mondo della scuola, quando essi presentano ancora alcuni aspetti critici che, soprattutto in questo settore in cui gli interventi sono grado di produrre effetti di lungo periodo, andrebbero invece considerati con estrema attenzione e studiati con tempi maggiormente dilatati. Mi sembra importante evitare che accada qualcosa di simile a quanto avvenuto con l’utilizzo dei dispositivi digitali, introdotti a tappeto nel settore dell’istruzione nel corso degli ultimi vent’anni e per i quali solo recentemente si sta facendo attenzione ai problemi che tale uso eccessivo ha creato. Si veda a tal proposito il documento finale, pubblicato nel giugno 2021, dell’indagine conoscitiva “Sull’impatto del digitale sugli studenti, con particolare riguardo ai processi di apprendimento” svolta dalla Commissione “Istruzione Pubblica e Beni Culturali” del Senato.

Espongo quindi nel seguito qualche elemento utile ad una riflessione più meditata su questo tema.

Prima di iniziare è necessario ricordare che i vari livelli della formazione (primaria, secondaria inferiore, secondaria superiore, terziaria, professionale) hanno esigenze diverse e richiedono approcci diversi. In questo articolo mi concentro quindi sul settore scolastico. Del mondo universitario ne ho parlato qua. Agli studenti di un corso di laurea magistrale, che hanno già competenze di base in un certo settore e le devono approfondire e raffinare, si può, ad esempio, chiedere che esaminino criticamente elaborati prodotti da strumenti dell’IA, come importante esercizio di verifica del loro livello di preparazione. Questo approccio non mi sembra invece così rilevante nel mondo scolastico, dove i discenti stanno ancora formando le loro competenze di base. Per poter criticare bisogna prima di tutto sapere e saper fare.

Bisogna poi distinguere tra i diversi ruoli per la fruizione dell’IA nella scuola: studenti, docenti, personale amministrativo. Le ultime due categorie possono usare questi strumenti per essere aiutati nello svolgimento di attività ripetitive (facendo attenzione agli aspetti relativi alla privacy dei dati ad essi forniti), laddove per gli studenti l’esercizio, anche ripetuto, delle funzioni cognitive non può essere evitato (mediante l’uso di questi strumenti) pena l’inevitabile carenza che ne conseguirebbe per lo sviluppo delle loro competenze. Questo elemento viene troppo spesso dimenticato, laddove un’esperienza educativa plurisecolare ci ricorda che non solo le capacità fisiche ma anche quelle intellettuali hanno necessità di esercizio costante e ripetuto per poter essere sviluppate.

Inoltre, è necessario differenziare tra uso della tecnologia e formazione sui suoi princìpi scientifici: si tratta di una distinzione troppo spesso ignorata. Gli strumenti dell’IA, pur potendo essere enormemente utili nel lavoro cognitivo razionale, cioè quello che a partire da elementi oggettivi consente di produrre nuovi dati logicamente consistenti con quelli di partenza e conseguenti da essi (qualcosa che – più in generale – fanno tutti i sistemi informatici, le “macchine cognitive” di cui ho parlato nel mio libro “La rivoluzione informatica”), hanno dei meccanismi di funzionamento abbastanza complessi che, per poter essere compresi, richiedono di essere introdotti solo in presenza degli adeguati prerequisiti matematici e scientifici che normalmente la scuola non fornisce.

Infatti, in Italia siamo ancora in ritardo sulle competenze scientifiche di base necessarie per poter affrontare con successo la transizione digitale (su questo tema invito a consultare gli atti del convegno svolto il 19 ottobre u.s. presso l’Accademia dei Lincei in tema di insegnamento dell’informatica nella scuola), come raccomandato ad Aprile 2023 della Commissione Europea di aprile 2023, COM(2023) 206 final, che ha esortato tutti gli stati membri a inserire un’istruzione di alta qualità sull’informatica fin dall’inizio dell’istruzione obbligatoria. Il grande pubblico non ha ancora capito cos’è davvero l’informatica, la disciplina scientifica alla base del mondo digitale. L’IA è un settore molto specialistico dell’informatica e se, come per molti altri settori dell’informatica, gli strumenti che esso produce sono utilizzabili anche dall’uomo comune, una comprensione dei suoi meccanismi di funzionamento deve essere basata su conoscenze di base di informatica che al momento le persone comuni non posseggono. Invece, è come se cercassimo di spiegare il calcolo differenziale e integrale a chi non ha mai studiato matematica nella scuola.

Infine, ma non meno importante, bisogna valutare rischi e benefici dell’inserimento degli strumenti dell’IA nella scuola. Essi possono apportare vantaggi, per alcune tipologie di utenti, riducendo la fatica legata ad attività cognitivo-razionali di tipo ripetitivo, ma i possibili vantaggi vanno valutati alla luce anche dei potenziali effetti negativi: riduzione della privacy, diffusione di disinformazioni, generazione di testi scorretti perché basati esclusivamente sulla statistica (le cosiddette allucinazioni – ne ho parlato qua), consumo energetico e relativo impatto ambientale (una query fatta ad uno strumento basato sull’IA ha un costo decine di volte superiore a quello di una query fatta ad un normale motore di ricerca), disumanizzazione del rapporto docente-studente in cui la componente relazionale è un aspetto essenziale.

Gli strumenti di IA possono infatti portare a una maggiore produttività per i docenti, se attraverso di essi riescono a ridurre il tempo dedicato alle attività ripetitive consentendo quindi loro di dedicarsi maggiormente alla cura degli studenti maggiormente bisognosi. Tra queste attività di routine ricordiamo, ad esempio: generazione di testi di esercizi e di esame, generazione di presentazioni a partire da testi (sommarizzazione), generazione di testi a partire da indici fini, fornire spiegazioni a richieste di chiarimenti semplici, etc. Ovviamente, è fondamentale essere sempre consapevoli che hanno dei margini di errore che richiedono di controllare sempre quanto da essi prodotto (e, quindi, di conoscere bene l’argomento che viene trattato) e che la responsabilità ultima è sempre della persona.

In generale, invece, il loro uso non sorvegliato da parte degli studenti per l’attività scolastica è da evitare. Alcuni, ad esempio, hanno suggerito che essi potrebbero usarli a casa per ottenere una prima valutazione dei loro compiti. Un po’ bizzarra, come idea, visto che a questo punto potrebbero poi anche usarli per produrre i compiti stessi! Ma soprattutto, alla luce delle possibili allucinazioni in cui questi strumenti incorrono, sono proprio gli studenti che più hanno bisogno di questa funzione quelli che meno sono in grado di rendersi conto di eventuali errori da essi commessi. Ovviamente gli studenti avranno comunque accesso ad essi attraverso i loro smartphone, e quindi bisognerà resistere a tentazioni proibizionistiche in favore di un’opera di informazione e diffusione di conoscenza, condotta – ad esempio – attraverso l’uso collettivo e la discussione critica nella classe. D’altro canto, è questa probabilmente è una buona notizia, il fatto che attraverso di essi sia possibile a chiunque produrre un testo scritto di buon livello, implicherà un ritorno e una maggiore presenza di rapporti umani diretti e dialogo orale.

Per alcuni indirizzi di scuola, penso in particolare agli istituti tecnici per l’informatica, andranno adeguati i curricoli (e sviluppato il necessario aggiornamento professionale per i docenti) per inserire un’adeguata formazione scientifica e tecnologica su questo settore, che influenzerà in modo significativo il mondo del lavoro nel prossimo futuro. Dato che chi sceglie questo indirizzo tecnico è generalmente orientato a entrare, al suo completamento, direttamente nel mercato del lavoro, è giusto che la preparazione in quest’ambito divenga parte della loro formazione.

Per concludere, sarà fondamentale che gli strumenti di IA usati nel mondo della scuola siano controllati/vigilati dal settore pubblico, onde evitare i rischi connessi a realizzazioni esclusivamente commerciali, che non hanno controlli indipendenti su come sono stati realizzati, con quali dati sono stati addestrati, a quali verifiche di sicurezza sono stati sottoposti, come usano e manipolano i dati forniti, in quali possibili discriminazioni legate al genere o ad altre diversità possono incorrere. Sono tutti aspetti che hanno un elevato impatto sociale e che per questo motivo richiedono il massimo livello di attenzione. Va anche ricordato che si tratta di una tecnologia ancora in fase sperimentale e che ogni nostra interazione con essa è un contributo al suo sviluppo fornito del tutto gratuitamente. Sarebbe accettabile solo per uno strumento posseduto dalla collettività e i cui miglioramenti vanno comunque a vantaggio di tutti.

Circa vent’anni anni dopo l’arrivo delle consolle di videogiochi e quindici anni dopo la diffusione degli smartphone in Italia, la Commissione Parlamentare citata in apertura concludeva la sua indagine con queste parole: «Ci sono i danni fisici ... E ci sono i danni psicologici ... Ma a preoccupare di più è la progressiva perdita di facoltà mentali essenziali, le facoltà che per millenni hanno rappresentato quella che sommariamente chiamiamo intelligenza: la capacità di concentrazione, la memoria, lo spirito critico, l’adattabilità, la capacità dialettica... Sono gli effetti che l’uso, che nella maggior parte dei casi non può che degenerare in abuso, di smartphone e video-giochi produce sui più giovani ». Non vorrei che tra altrettanto tempo una nuova Commisione Parlamentare arrivasse alle stesse (forse più) terribili conclusioni in riferimento all’uso degli strumenti dell’Intelligenza Artificiale.

Il futuro dei nostri figli è troppo importante per sacrificarlo sull’altare della produttività e del progresso tecnologico.

--
Versione originale pubblicata su "StartMAG" il 19 novembre 2023.

giovedì 19 ottobre 2023

Il successo di ITADINFO: quando la passione e le persone fanno la differenza

di Enrico Nardelli

È appena finito ITADINFO, il convegno italiano sulla didattica dell'informatica nella scuola, che ha avuto a Bari la sua prima edizione. Ne scrivo a caldo, prima che la memoria di questi tre giorni inizi ad essere ricoperta dai nuovi impegni.

Quando con i colleghi del Laboratorio Informatica e Scuola, che raccoglie chi svolge attività di ricerca in questo ambito, avevamo discusso negli anni passati l'idea di avviare iniziative dedicate in modo specifico agli insegnanti, avvertivamo in qualche modo la loro importanza ma non sapevamo ancora quale avrebbe potuto essere la risposta da parte dei docenti. Insomma, di mestiere facciamo i ricercatori e i didatti, mentre far partire un convegno nazionale è un'attività più imprenditoriale, non esattamente nelle corde di un accademico. Teniamo presente che qui non stiamo parlando di sicurezza informatica o intelligenza artificiale, per le quali ci sono (giustamente) un'estrema attenzione e una grandissima disponibilità di risorse da parte di enti e istituzioni.

Qui si tratta di scuola, settore di cui spesso molti si riempiono la bocca, ma che ha purtroppo conosciuto dagli anni '80 ad ora un continuo definanziamento e degradazione del ruolo sociale, spingendo al contempo per una sua trasformazione da servizio essenziale di formazione di cittadini dotati di conoscenze e pensiero critico a fabbrica che deve sfornare in modo sempre più efficiente "prodotti" pronti ad essere consumati dal mercato. Atteggiamento suicida per una società che, nel secondo dopoguerra, grazie anche alla scuola di quel periodo che non faceva sconti a nessuno, era riuscita nel 1987 a diventare, da Paese semidistrutto da una guerra mondiale che aveva perso, la quinta potenza economica al mondo. Per un’analisi di questa tendenza e delle sue nefaste conseguenze segnalo, ex multis, "Il danno scolastico", il bel volume di Mastrocola e Ricolfi dal significativo sottotitolo “La scuola progressista come macchina della disuguaglianza”.

Poi, un paio di iniziative pilota (nel 2020 e nel 2022, ottimamente organizzate dai colleghi dell'Università di Milano Statale) ci avevano confortato e, alla fine, anche con l'incoraggiamento degli organi direttivi del CINI, il Consorzio Interuniversitario Nazionale per l'Informatica di cui il Laboratorio è uno dei bracci operativi, ci siamo lanciati nell'organizzazione.

Abbiamo trovato sponsor che hanno avuto fiducia in noi, mettendo a disposizione quelle risorse economiche senza le quali solo in fantasiosi resoconti giornalistici si riescono a organizzare iniziative serie, e che ritengo quindi doveroso ricordare in segno di ringraziamento. Gli sponsor espositori: Axios Italia, Edizioni Themis, PLD Artech; e gli sponsor: SeeWeb e KnowK. Il Magazine che ospita questo mio articolo ci ha dato una mano sulla diffusione mediatica. Avevamo scelto Bari, come sede di questo primo convegno, anche perché è stato uno dei primi atenei ad attivare in Italia corsi di laurea in informatica (che a quel tempo si chiamava "scienze dell'informazione") e la Puglia è tuttora una delle regioni in cui la comunità dei docenti scolastici interessati dall’informatica è più numerosa e attiva. Città e Regione ci hanno dato subito il patrocinio. L’eccellente lavoro del comitato organizzatore locale, "le magnifiche tre" colleghe del Dipartimento di Informatica (Veronica Rossano, Enrica Gentile e Paola Plantamura), ci ha portato in una sede che è un capolavoro dell’architettura razionalista degli anni ’30 (date un’occhiata a storia e foto) e ha preparato un programma sociale coi fiocchi.

Le nostre aspettative hanno superato ogni più rosea previsione. La città, per chi di noi non ci era mai stato o mancava da parecchio tempo, si è rivelata affascinante e ci ha accolto con un clima semplicemente perfetto.

Anche la sessione iniziale dei saluti istituzionali si è trasformata in una tavola rotonda multidisciplinare e ricca di stimoli. Il rettore dell'Università Di Bari Stefano Bronzini ha sottolineato l’importanza di non trascurare il lato umano e la formazione umanistica quando si parla di innovazione, aspetto sul quale gli informatici sono via via maggiormente attenti, considerando che le tecnologie digitali incidono in modo sempre più profondo sulla vita delle persone e sulle loro relazioni sociali.

Eugenio Di Sciascio, vice sindaco di Bari, ha ricordato che il problema di questo Paese non è mettere computer nelle scuole e nelle aziende, ma creare competenza sulla capacità di capire e governare questi strumenti. Osservazione che purtroppo, nella corsa alla trasformazione digitale, viene spesso dimenticata e che invece spinge a rimettere il ruolo della didattica scolastica e universitaria al centro della riflessione e della pianificazione.

Su questa linea ha continuato Filippo Lanubile, direttore del Dipartimento di informatica dell’ateneo barese, chiedendo di ridare importanza alla valutazione dell’attività didattica nella valutazione della carriera universitaria, pena l’impossibilità di far crescere quelle professionalità che sono necessarie per affrontare le sfide che ci pone una formazione universitaria moderna.

Ernesto Damiani, il presidente del CINI, ha riportato questa esigenza generale allo specifico mondo della scuola, dove per governare nel modo migliore un futuro sempre più digitale sarà fondamentale insegnare l’informatica facendo attenzione a far capire gli aspetti concettuali della disciplina, evitando di considerarne solo gli elementi tecnologici.

Nel chiudere questo giro di considerazioni, la cui singolare concordia mi ha fatto immediatamente capire che con questo evento avevamo centrato il bersaglio, ho ripreso lo stimolo del rettore, non a caso un letterato. Ho ricordato come Platone nei suoi immortali Dialoghi, abbia – con estrema pregnanza – evidenziato la componente affettiva della relazione educativa tra didàskalos e mathetés, maestro e allievo, come un aspetto fondamentale della paideia, la crescita etica e spirituale del discepolo. E affinché questa componente eserciti il suo effetto non ci deve essere tecnologia di mezzo, ma compresenza in uno stesso luogo fisico. La tecnologia digitale può arricchire le relazioni umane, se opportunamente utilizzata, ma rischia di impoverirle e distruggerle, se male utilizzata. Di questo aspetto noi informatici dobbiamo essere estremamente consapevoli e assumercene la responsabilità, esattamente allo stesso modo con cui nella seconda metà del secolo scorso i fisici si sono impegnati per evitare che il nucleare conducesse l’umanità all’estinzione.

Il programma scientifico che si è poi sviluppato ha visto docenti scolastici e ricercatori universitari offrire e assistere a resoconti di esperienze e laboratori formativi, in un dialogo stimolante e arricchente. L'uditorio è stato, dal primo all'ultimo momento, sempre presente, attento e numeroso, esperienza non proprio abituale, come ben sa chi per mestiere va a convegni scientifici.

Alla fine, quasi non volevamo più smettere.

I complimenti da parte dei docenti che hanno partecipato (molti visibili sulla pagina social del convegno) ci hanno dato la spinta a continuare, con la voglia di creare una comunità sempre più attiva e collaborativa.

--
Versione originale pubblicata su "StartMAG" il 16 ottobre 2023.

martedì 17 ottobre 2023

Intelligenza artificiale generativa: tra Borges e il ritorno dell’oralità

di Enrico Nardelli

Tutti, o almeno lo spero, conoscono il famoso racconto di Borges “La biblioteca di Babele” (una delle più belle sintesi di letteratura e matematica) in cui l’eccelso scrittore argentino rappresenta questa biblioteca immaginaria che, estesa infinitamente in tutte le direzioni, contiene un numero infinito di volumi con tutte le possibili combinazioni di caratteri, racchiudendo quindi tutta la conoscenza del mondo, anche quella di cui non siamo ancora consapevoli, e tutte le sue variazioni e negazioni.

Nel corso di una recente tavola rotonda interdisciplinare organizzata dai colleghi dell’università Milano Bicocca, in cui si è parlato di intelligenza artificiale generativa (IAG) e formazione universitaria e di come gestire la presenza dell’IAG nella produzione delle tesi di laurea, ho prima osservato che nell'ultimo ventennio il processo di produzione delle tesi si è evoluto, con l'ubiqua diffusione delle tecnologie digitali, dal passare lunghe giornate in biblioteca allo scandire la rete attraverso i motori di ricerca. Uno scatto in avanti enorme, perché ha messo le biblioteche di tutto il mondo a portata delle nostre dita digitanti. Poi ho aggiunto che sta avvenendo adesso un altro balzo almeno della stessa portata e probabilmente superiore, visto che l’IAG (di cui ChatGPT è l'esempio più noto) oltre che riportarci questa conoscenza è anche in grado di farne estratti e sommari e concatenarla in argomentazioni.

In un certo senso, quindi, è come se adesso avessimo a disposizione con l’IAG una biblioteca "attiva" dotata di super-poteri. È un passaggio dello stesso tipo di quello, descritto nel mio libro "La rivoluzione informatica", che è avvenuto nel passaggio dalla conoscenza passiva contenuta nei libri alla conoscenza attiva contenuta nei programmi software ("conoscenza in azione", l'ho chiamata). Con i libri, erano le persone, dopo aver assimilato i libri, a far agire nel mondo la conoscenza passiva contenuta in essi. Con i programmi informatici, chiunque li abbia a disposizione, può ottenere lo stesso effetto, anche se non ha assimilato la conoscenza in essi contenuta, mandandoli in esecuzione su un dispositivo digitale. Con l’IAG potete produrre dei nuovi testi anche su argomenti di cui sapete poco o niente.

C’è purtroppo il problema che alle volte l’IAG racconta fatti che non sono accaduti e cita opere che non esistono. È stato chiamato “allucinazione”, per analogia con l’omonimo fenomeno che capita alle persone, e costituisce il principale tallone d’Achille di questa potente tecnologia ed elemento di estrema attenzione nel suo uso in campo educativo. Per altri versi, penso che Borges forse avrebbe apprezzato le capacità dei sistemi di IAG di mescolare e combinare frammenti di testi esistenti producendo variazioni a non finire. Sono sicuro che i creativi in ogni campo, anche se giustissimamente preoccupati dalle spinose questioni di diritto d’autore che l’IAG sta sollevando, ne apprezzino queste capacità.

Con i colleghi coinvolti nella tavola rotonda ci siamo interrogati su cosa dover cambiare nel modo di fare didattica all’università. Per la scuola è un discorso di altro tipo, che affronterò in un successivo articolo. Nella mia visione dei sistemi informatici, quindi anche di quelli che appartengono alla classe dell’IAG, come “macchine cognitive”, ovvero come meccanismi in grado di potenziare le nostre capacità puramente razionali e logiche, una volta che uno studente sia arrivato a padroneggiare la competenza specialistica di un certo insegnamento universitario, non ritengo sensato proibire l’utilizzo di un ausilio meccanico che gli allevii la fatica mentale di produrre un certo elaborato.

Purché, lo ripeto dal momento che è il punto centrale, padroneggi la materia. Solo in questo caso, infatti, può rendersi conto se qualcosa, in ciò che l’IAG ha prodotto è un’allucinazione. Ad alto livello di astrazione non cambia molto, quando si usano sistemi di IAG rispetto all’uso di una biblioteca. La responsabilità finale di un testo è sempre dell’autore che lo produce, qualunque sia le basi su cui si è poggiato: biblioteca standard o biblioteca “attiva” con super-poteri. Se in biblioteca non si trovano gli articoli o volumi più appropriati, se si copia pedissequamente il testo senza citare, lo studente ha comunque svolto male il suo lavoro. Se con l’IAG non si attua quel controllo che può derivare solo da un’approfondita conoscenza della materia, si fa lo stesso tipo di errore. Forse più grave, perché il mezzo è più potente e, come ripete sovente un noto personaggio dei fumetti, «da un grande potere derivano grandi responsabilità».

Abbiamo però convenuto che, soprattutto a livello di lauree triennali, richiedere il tradizionale elaborato finale, ovvero la tesi, rischia di non avere più senso, dato che la fatica di metterlo insieme a partire dal materiale di base – lavoro che poi determina che lo studente lo assimili e lo faccia suo – può essere quasi tutta delegata all’IAG, circostanza che ne rimuove i potenziali benefici.

Ritengo che sia invece importante riportare l'enfasi sulla capacità della persona di esibire "sul momento" le competenze il cui possesso veniva tradizionalmente attestato dalla scrittura della tesi. "Hic Rhodus, hic salta " viene ricordato nella favola di Esopo allo spaccone che si vantava di essere stato in grado di fare un salto prodigioso a Rodi: se è vero, puoi rifarlo dovunque, anche qua.

Sono convinto che, con l’avvento dell’IAG, siamo di fronte a un momento storico, per certi versi speculare a quello avvenuto circa 2500 anni fa, quando la scrittura prese il sopravvento, come mezzo primario di comunicazione, rispetto alla parola. Quella transizione, di cui abbiamo testimonianza, tra le altre, in memorabili pagine dei Dialoghi di Platone del quarto secolo avanti Cristo, è stata il primo passo per la diffusione della cultura e il progresso dell’umanità. Tuttavia, il filosofo ateniese riporta nel Fedro la posizione di Socrate che ritiene la parola scritta inferiore a quella orale, soprattutto se l’oralità è esercitata dialetticamente, poiché lo scritto non è in grado di rispondere a chi lo interroga e serve essenzialmente come ricordo a chi già sa le cose, mentre la parola detta è posseduta “nell’anima” di chi la pronuncia ed è quindi in grado di aiutare chi ha necessità di conoscere.

Ritengo che la disponibilità degli strumenti di IAG possa ridare forza e valore all’oralità, considerato che con tali strumenti tutti sono in grado di produrre ed esibire testi scritti che sembrano certificare il possesso di qualsivoglia competenza. Se tutti sono in grado di realizzarli, la loro presenza non è più in grado di dimostrare alcunché, come nella critica di Socrate al testo scritto. Ma se il loro autore viene interrogato e sollecitato, allora si vedrà chi davvero possiede la conoscenza “nell’anima” e chi è solo in grado di ripetere “sempre la stessa cosa”. Ecco perché penso che nell’accademia ritorneremo, in una qualche misura, a quella tradizione praticata proprio nella prima Accademia della storia.

È chiaro che la scrittura, soprattutto con l’incredibile potenziamento causato dall’invenzione della stampa a caratteri mobili ad opera di Gutenberg nel quindicesimo secolo, manterrà sempre un ruolo importante per la diffusione della conoscenza.

Ma trovo molto bello che, in una quale misura, proprio le ultime e più sconvolgenti innovazioni della tecnologia digitale stiano ridando valore a qualcosa di molto antico, a ciò che solo le persone possono avere: il rapporto umano e il dialogo orale.

--
Versione originale pubblicata su "StartMAG" il 14 ottobre 2023.

sabato 20 maggio 2023

Informatica nella scuola: dall’Europa un segnale forte e chiaro

di Enrico Nardelli

Da molto tempo ormai mi spendo in Italia e in Europa sul tema dell’importanza dell’insegnamento dell’informatica nella scuola. Qui da noi, attraverso il progetto Programma il Futuro, che porta nelle scuole di tutti i livelli i princìpi scientifici dell’informatica, arrivato quest’anno al nono anno di realizzazione. Sul continente, con l’attività condotta attraverso le associazioni scientifiche del settore, culminate nella costituzione della coalizione Informatics for All. Più recentemente, sto provando a diffondere la consapevolezza su questo tema anche a livello del grande pubblico con il mio libro La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale.

Ritengo infatti che esattamente come il processo educativo delle persone è mutato, con il passare da una società agricola ad una società industriale, introducendo nell’istruzione obbligatoria elementi di quelle scienze (fisica, biologia, chimica, …) che sono alla base di ogni macchina industriale, così nel passaggio dalla società industriale alla società digitale sia necessario aggiungere nell’istruzione obbligatoria lo studio dell’informatica, indispensabile per comprendere le macchine digitali.

Purtroppo in Europa negli ultimi venti/trenta anni ha regnato pressoché indisturbato il mito delle “abilità digitali”, le digital skills oggetto di decine di documenti dell’Unione Europea.

All’inizio degli anni ’90, con l’esplosione della tecnologia informatica resa accessibile a tutti dalla diffusione del personal computer si è battuto in modo ossessivo il tasto della “patente europea del calcolatore” (European Computer Driving Licence ) pensando che sarebbe bastato “saper guidare” un computer per essere digitalmente competenti. Una miopia: come se nell’Ottocento avessimo pensato che sarebbe bastato insegnare a tutti a guidare automobili e motociclette per industrializzare un Paese. Saper usare dispositivi e sistemi digitali per facilitare l’insegnamento o il lavoro non vuol dire conoscere la scienza alla base della loro progettazione e realizzazione.

Negli anni 2000, poi, sono state introdotte le “competenze digitali” tra le competenze chiave per l’apprendimento permanente (Key Competences for Lifelong Learning ), di nuovo articolandole sostanzialmente in termini di abilità operative, quando invece sarebbe stato indispensabile aggiungere alle competenze scientifiche tradizionali, necessarie per comprendere il mondo fisico, quelle informatiche, essenziali per comprendere il mondo digitale.

Infine, negli ultimi anni, con le diffusione a tutti i livelli dei dispositivi digitali è nato il grande equivoco della Digital Education, cioè dell’insegnamento mediante infrastrutture basate sulle tecnologie digitali. Si è pensato che questo approccio alla scuola, cioè fare lezione usando sistemi e prodotti digitali, avrebbe prodotto cittadini digitalmente competenti.

Niente di più sbagliato. Prima di tutto perché non è detto che usare le tecnologie digitali migliori necessariamente l’insegnamento, poi perché si lega l’insegnamento alla disponibilità di dispositivi che spesso diventano determinanti, nel senso che non sono facilmente sostituibili. Un insegnante che decide di cambiare libro di testo con il passare degli anni non sarà normalmente vincolato a scegliere una stessa casa editrice. Se invece per l’insegnamento è stata usata una specifica piattaforma tecnologica ecco che il cambiamento diventa notevolmente più difficile. Si tratta del ben noto fenomeno del vendor lock-in, temuto da tutti coloro che hanno a cuore la capacità di un’azienda di evolvere e cambiare in risposta alle sfide del mercato e della competizione.

Un ulteriore motivo di equivoco sulla “Digital Education” è che questa produce utenti/consumatori di tecnologie e prodotti digitali e non creatori degli stessi. Per questo scopo serve insegnare la disciplina scientifica alla base della progettazione e realizzazione delle stesse. Esattamente nello stesso modo che saper guidare un’automobile o usare una lavatrice non produce un ingegnere, né saper pesare la pasta o cucinarla produce un fisico o un chimico. Su questo aspetto l’Unione Europea si è baloccata un po’ troppo nella direzione sbagliata.

Ad Aprile 2023 è stata pubblicata dalla Commissione Europea una proposta di Raccomandazione al Consiglio dell’Unione Europea (COM(2023) 206 final) che manda un segnale forte e chiaro in tema di insegnamento dell’informatica nella scuola. Vedremo subito cosa contiene. Voglio però prima sottolineare che nel relativo documento tecnico di accompagnamento c’è un esplicito riconoscimento dell’errore strategico commesso. Vi si dice infatti che, mentre «è riconosciuta a livello internazionale l’esistenza di una tendenza emergente e marcata nei sistemi educativi verso l’inclusione dell’Informatica come parte dei curriculi nazionali e come parte dell’istruzione per tutti i cittadini », ricordando che «l’Informatica è progressivamente diventata un’importante competenza fondamentale a fianco delle tre-R: lettuRa, scrittuRa, aRitmetica », ciò che è accaduto sul nostro continente è che «per un po’ di tempo, la maggior parte dei sistemi educativi europei sono rimasti in ritardo su questa tendenza, focalizzandosi più sull’alfabetizzazione digitale e sulla digitalizzazione dell’insegnamento ». Infine ammette che «Il limite maggiore di questo approccio è che, nonostante fornisca agli studenti i mezzi per usare le tecnologie digitali, non li equipaggia adeguatamente con le capacità di creare, controllare e sviluppare i contenuti digitali ».

La proposta di Raccomandazione al Consiglio è molto esplicita in tema di insegnamento dell’informatica.
  Il “considerando” 19 infatti afferma «A prescindere dalle scelte curricolari, è necessario promuovere un'istruzione di qualità nell'informatica, coadiuvata da metodi di insegnamento idonei all'età e alla fase di sviluppo, da risorse di qualità, da rappresentanza e diffusione equilibrate dal punto di vista del genere, nonché da una valutazione adeguata », mentre il “considerando” 26 ricorda «… i problemi che quasi tutti gli Stati membri devono affrontare per l'assunzione, il mantenimento in servizio e la preparazione degli insegnanti, in particolare nell'informatica (per l'istruzione primaria/secondaria …) o in altri settori digitali specifici/avanzati (per l'istruzione superiore) ».
  Al punto 4 delle raccomandazioni si richiede agli Stati Membri di «sostenere un'istruzione di alta qualità in informatica a scuola », in particolare garantendo che «fin dall'inizio dell'istruzione obbligatoria … tutti gli studenti abbiano l'opportunità di sviluppare le proprie competenze digitali attraverso l'esposizione agli elementi fondamentali dell'informatica » e prendendo in considerazione «la possibilità di introdurre l'informatica come materia distinta, per fornire un'offerta più mirata che abbia obiettivi chiari in termini di istruzione e formazione, ore di lezione e valutazione strutturata ». Viene anche sottolineata l’importanza «provvedere affinché l'insegnamento e l'apprendimento dell'informatica siano sostenuti da docenti qualificati e specializzati » e di «promuovere la diversità e una diffusione equilibrata dal punto di vista del genere e ridurre eventuali stereotipi nell'insegnamento e nell'apprendimento dell'informatica ».
  Il punto 5 è dedicato al ruolo fondamentale che in questo processo devono svolgere i docenti, raccomandando agli Stati membri di «istituire e migliorare le misure per l'assunzione e la formazione di docenti specializzati nel settore dell'informatica ». Ricordiamo che nel Regno Unito, che aveva introdotto nell’anno scolastico 2014-15 un curriculum di informatica obbligatorio in tutte le scuole a partire dalla prima elementare, si sono accorti dopo qualche anno che la situazione era addirittura peggiorata per l’assenza di un congruo numero di docenti adeguatamente preparati.

Si tratta quindi di una svolta epocale, che speriamo serva ad avviare finalmente in tutti i Paesi Europei una seria attività di formazione sull’informatica nella scuola. Ricordo che l’istruzione è una materia di competenza degli Stati Membri, per cui il ruolo dell’Unione Europea rimane sussidiario. Fortunatamente, almeno in Italia, il Ministro dell’Istruzione e del Merito, Giuseppe Valditara, ha già da tempo dichiarato di voler rafforzare le preparazione scolastica nelle materie scientifiche. Dal momento che questa proposta della Commissione indica chiaramente l’informatica come la materia scientifica alla base della preparazione per la società digitale, confidiamo che ne risulti un aggiustamento di rotta rispetto a quanto finora messo in cantiere in tale settore, anche nell’ambito del PNRR, dove si è continuato a puntare sulle competenze operative di utilizzo della tecnologia digitale.

Come tutti i processi educativi, non è qualcosa che possa accadere in breve tempo, ma è in gioco la possibilità di essere attori di primo piano nello sviluppo della società digitale. La nostra comunità accademica di informatici e ingegneri informatici è pronta, attraverso il Laboratorio Nazionale CINI “Informatica e Scuola” da me diretto, ad accompagnare questo processo. Quest’anno svolgeremo a ottobre a Bari il primo convegno nazionale sulla didattica dell’informatica (ITADINFO), con la partecipazione di docenti della scuola e ricercatori universitari.

Sarà adesso necessaria una forte volontà politica, accompagnata da un accordo bi-partisan indispensabile per supportare un cambiamento che richiede tempi almeno decennali per andare a regime, per assicurare ai nostri figli la possibilità di governare il loro futuro digitale.

--
Versione originale pubblicata su "StartMAG" il 17 maggio 2023.

martedì 11 aprile 2023

Stop and think… The unbearable impulse to be the first to comment on social media

di Isabella Corradini

These days everyone is talking about the decision of the Italian Data Protection Authority to block the use of ChaptGPT, the natural language processing tool based on artificial intelligence, capable of performing various functions, including to provide answers to questions or write/summarize texts requested by users. I do not want to dwell on that, although I have my own opinion, since this is not the aspect I want to highlight in this article.

What I want to highlight instead is the human tendency, especially when discussing topics like digital innovation, to "jump into the fray" by completely removing the moment of reflection, which is needed to make reasonable evaluations. We know how digital technologies are producing significant changes in our social and working daily life, which would require an in-depth examination. Instead, never as in this period, many experts and self-called experts challenge each other with posts and comments on social media to have their say, by siding as if they were watching a football match. Unfortunately, it also happens that someone exaggerates, because social media, given their nature, certainly do not encourage an articulated debate on issues requiring much more space and time for a fruitful discussion.

By Geralt, via Pixabay

What I observe is the growth of this tendency, which could be called as "the impulse to be the first to comment facts on social media", as if there were no tomorrow. It does not matter if there is not enough knowledge about the actual facts, what matters is to be constantly present on social media and prove “to be on the ball”.
Needless to say, this way of intervening on complex issues, such as ChatGPT (but there can be many other examples), makes the public debate ineffective, as well as entailing the real risk of determining a poor quality of the information. That is certainly devastating from a communicative point of view and, above all, has the relevant consequence of hampering the correct spreading of information (I wonder whether this is the real goal in the end...). Not to mention that all these efforts - often in a frantic way - are not justly rewarded, considering the Internet cauldron in which they will end up. We have to consider that those articles, in the current era, quickly become outdated.

The frenzy that drives individuals to comment also explains certain views: just think of those - probably not having many other points of discussion - claiming that certain things must be done absolutely and quickly, otherwise the country (Italy in this case) risks falling behind in comparison to other countries. In short, the important thing is always to move forward "whatever it takes", how and with what consequences it does not matter. An example is represented by all those who get excited by reading about large large investments in Artificial Intelligence announced by important companies, while they do not care about the fact that those same companies, as a result of the huge investments, plan to lay off thousands of people.

Some days ago, I attended a pleasant meeting in Milan together with a group of experts with different skills and backgrounds (the DLNet coordinated by a friend of mine, Andrea Lisi, a lawyer), where we also discussed the "anxious way" used by people to interact on social media. We asked ourselves whether it is better to provide answers on the spot or think about it one more day, at the cost of losing the moment of glory. We came to the same conclusion, namely that there would be a greater benefit for society if, before diving into the sea of posts regarding a specific event, individuals stop and think and then express their opinion with a cold mind and in a more reasonable way. 

Stop and think: something that should be an integral and enriching part of the human nature, but that we are often debasing. Whether it is social media, technological innovations or the fear of falling behind, in the current era stopping and thinking is no longer fashionable. 

The paradox is that in educating kids to develop a conscious use of digital technologies, one of the most used slogans is: think before you post! 

That is why adults first should set a good example.

lunedì 10 aprile 2023

The debate on the future in society of Artificial Intelligence has just begun

di Enrico Nardelli

(versione italiana qua)

The debate over the use of ChatGPT has been raging in recent days, especially because of the news about the decision to block it issued by the Italian Data Protection Authority, which has elicited opposite reactions: some applauding it, others considering it as a liberticidal and authoritarian measure. I therefore believe that, first of all, it is necessary to make it clear, even to those who know nothing about what is "under the hood" of digital technologies, which is the issue at stake.

For this purpose, I propose a thought experiment which may appear distant from the topic of this article, but which, in my opinion, illustrates the essence of the situation very well. So, imagine that someone comes along with a machine of the size of a gas boiler for an apartment and says to you: "Here is a mini-nuclear reactor for domestic use, its initial charge of fissile material is capable of giving you hot water for heating and all the needs of the house for the next 10 years, and it costs only a few thousand euros!"

Certainly, with this solution, we could solve many problems and all live better. However, it could happen that, every now and then, such an object would overheat and produce a mini nuclear explosion....

Not a very attractive prospect, is it? Even though our society would not be destroyed or damaged, it would seem obvious to everyone that the game is not worth the candle. Equally obvious is that we would not allow them to be freely marketed, even if the manufacturing companies insisted that they would soon find solutions able to prevent explosions altogether. In a similar way, observing that this is a strategic technology for our country, which would be developed by others if we did not, would not be a valid reason to accept its uncontrolled use.

In the case of generative Artificial Intelligence (AI) systems, ChatGPT is the most famous example of, we are in a similar situation: the enormous power which nuclear technology deploys at the physical level is comparable to what AI based systems release at a cognitive level. In my recent book “La rivoluzione informatica. Conoscenza, consapevolezza e potere nella società digitale” (= The Informatics Revolution. Knowledge, awareness and power in the digital society), I introduced the term “cognitive machines”, to denote the fact that any digital system, not only the AI based ones, acts at this level where it is able, through its purely logical-rational capabilities, to concatenate and infer data, emulating what previously only human beings were able to carry out. I synthetically described in a previous article their dangers in relation to the cognitive development of children.

The possible evolution of this scenario is even more harmful if we consider that, while mini-reactors would have to be built, shipped and put in place one by one with hardly compressible timeframes, these other systems (also called "chatbots") can be replicated at will with no effort at all and made available anywhere in the blink of an eye.

All the media have therefore given great visibility to the appeal, launched on March 29 by very important people in the AI area, including scientists like Yoshua Bengio or Stuart Russell and entrepreneurs like Elon Musk or Steve Wozniak, with the goal of blocking for 6 months the development of the next generation of chatbot technology.

The problem is real and I can understand why so many of my colleagues have supported this appeal with their signature.

Further comments by equally relevant scientists, however, have pointed to the risk that such an appeal actually contributes to the frenzy that has reached soaring levels in recent months, diverting the attention from the real problems. As noted – among others – by Emily Bender, the researcher who in 2020 published, along with Timnit Gebru (the scientist who was later fired by Google for this very reason), the first paper warning of the potential negative effects of this technology, the letter points to some false problems (e.g., that the realization of a "digital mind" is now imminent or that a system with "general artificial intelligence" is now possible) while neglecting many of the real ones, such as the absolute lack of transparency about how these systems have been developed and work, the lack of clarity about safety tests conducted, the risk that accessibility to everyone is already spreading misinformation that is also very harmful (in my previous article I brought a few examples), the fact that their development significantly affects the consumption of natural resources.

As I discussed in other occasions, I do not think it makes sense to block research and development in this area but, as the thought experiment described at the beginning of this article I hope has shown, some form of regulation must be found to balance the indispensable precautionary principle with the importance of using innovation to improve society.

That is why I believe the decision taken by the Italian Data Protection Authority is appropriate, even though not decisive. The way forward is the one Center for AI and Digital Policy in the U.S. has indicated by filing a complaint with the Federal Trade Commission (the independent agency of the U.S. government dedicated to consumer protection and competition oversight) and calling on it to intervene since chatbots engage in behaviors that are deceptive to consumers and dangerous from the standpoint of information accuracy and user safety.

A similar request was made by the European Consumers' Organization, which asked national and European authorities to open an investigation into these systems.

Better focused on the real issues at stake, however, is the open letter published by Leuven University in Belgium. It calls up the manipulation risk that people may face by interacting with chatbots, as some individuals build a bond with what they perceive as another human being, a bond that can result in harmful situations.

In fact, the main threat chatbots pose to humans is that they exhibit human-like competence on the syntactic level but are light years away from our semantic competence. They have no real understanding of the meaning of what they are producing, but (and this is a major problem on the social level) since they express themselves in a form that is meaningful to us, we project onto their outputs the meaning that is within us.

In a nutshell, these are the proposals of this second appeal: awareness-raising campaigns for the general public, investing in research on the impact of AI on fundamental rights, creating a broad public debate on the role to be given to AI in society, establishing a legal framework with strong guarantees for users, meanwhile taking all necessary measures to protect citizens under existing legislation.

We are nowadays facing extremely powerful systems which, as Evgeny Morozov recently reminded us in his article in The Guardian, are neither intelligent in the sense that we humans give to this term, nor artificial since – as demonstrated ad abundantiam, among others, by Antonio Casilli in his book "Schiavi del Click" – they are based on an enormous amount of undeclared and poorly paid human labor carried out in Third World countries, as well as on our (in)voluntary contribution consisting of all the "digital traces" we relentlessly provide during our activity on the Web.

The potential benefits are enormous, but so are the risks. The future is in our hands: we must figure out together, democratically, what form we want it to take.

--
The italian version has been published by "StartMAG" on 3 April 2023.

giovedì 6 aprile 2023

Il potere dell'intelligenza artificiale: il dibattito è solo all'inizio

di Enrico Nardelli

In questi ultimi giorni sta infuriando il dibattito sull’uso di ChatGPT, anche in seguito alla notizia del suo blocco da parte del Garante per la Protezione dei Dati Personali, che ha suscitato reazioni che vanno dal plauso di chi lo ritiene una misura appropriata al rigetto di chi la reputa liberticida e autoritaria. Ritengo quindi che sia prima di tutto necessario far capire, anche a chi non sa niente di tutto quello che “sta sotto il cofano” delle tecnologie digitali, quali sono i termini della questione.

A questo scopo propongo un esperimento mentale partendo da un paragone apparentemente distante ma che, a mio avviso, illustra bene l’essenza della situazione. Immaginate dunque che arrivi qualcuno con un macchinario della grandezza di una caldaia a gas per un appartamento e vi dica: «Ecco un mini-reattore nucleare per uso domestico, la sua carica iniziale di materiale fissile è in grado di darvi acqua calda per riscaldamento e tutte le necessità della casa per i prossimi 10 anni, e costa solo poche migliaia di euro!»

Certamente con questa soluzione potremmo risolvere molti problemi e vivere tutti meglio. Potrebbe però succedere che ogni tanto tale oggetto si surriscaldi e dia luogo ad una mini esplosione nucleare…

Non è una prospettiva molto allettante, vero? Pur senza distruggere la società nel suo complesso e con danni molto limitati, sembrerebbe ovvio a tutti che il gioco non vale la candela. Altrettanto ovvio è che non ne consentiremmo comunque la libera commercializzazione, anche qualora le società produttrici insistessero sulla possibilità di trovare a breve delle soluzioni in grado di impedire del tutto le esplosioni. Né osservare che si tratta di una tecnologia strategica per il nostro Paese, che verrebbe sviluppata da altri se non lo facessimo noi, sarebbe un motivo valido per dare il via libera al suo uso incontrollato.

Ecco, con i sistemi generativi dell’Intelligenza Artificiale (IA), di cui ChatGPT è l’esempio più famoso, siamo in una situazione di questo genere, con la differenza che l’enorme potere che il nucleare dispiega nel mondo fisico l’IA lo rilascia in quello che nel mio recente libro “La rivoluzione informatica. Conoscenza, consapevolezza e potere nella società digitale” ho chiamato “cognitivo”, intendendo con questo termine quello in cui si esplicano le capacità puramente logico-razionali di concatenare e dedurre fatti. Ho descritto sommariamente in un precedente articolo cosa sono queste “macchine cognitive”, discutendone i pericoli in relazione al processo educativo dei più piccoli.

A rendere ancora più deleteria la possibile evoluzione di questo scenario c’è il fatto che mentre i mini-reattori dovrebbero essere costruiti, spediti e messi in opera uno per uno con dei tempi difficilmente comprimibili, questi sistemi (detti anche “chat-bot”) possono essere replicati a volontà senza sforzo alcuno e resi disponibili dovunque in batter d’occhio.

Tutti i media hanno quindi dato grande risalto ad un appello, lanciato il 29 marzo da nomi molto importante nell’area dell’IA, sia scienziati come Yoshua Bengio e Stuart Russell che imprenditori come Elon Musk e Steve Wozniak, per bloccare per 6 mesi lo sviluppo delle nuove generazioni della tecnologia dei chatbot.

Il problema è reale e posso capire perché in molti hanno aderito sottoscrivendo la lettera aperta.

Analisi più accurate di scienziati altrettanto rilevanti hanno però evidenziato il rischio che tale appello contribuisca in realtà ad alimentare la frenesia che in questi mesi ha raggiunto livelli elevatissimi, distogliendo l’attenzione dai problemi reali. Come ha osservato – tra gli altri – Emily Bender, la ricercatrice che nel 2020 ha pubblicato, insieme a Timnit Gebru (scienziata che fu poi licenziata da Google proprio per questo motivo), il primo articolo che allertava sui potenziali effetti negativi di questa tecnologia, la lettera indica alcuni falsi problemi (p.es.: che sia ormai imminente la realizzazione di una “mente digitale” o che sia ormai possibile realizzare un sistema dotato di “intelligenza artificiale generale”) trascurando molti di quelli veri, che sono l’assoluta mancanza di trasparenza su come questi sistemi sono stati messi a punto e funzionano, su quali prove di sicurezza siano state condotte, su come la loro accessibilità a tutti stia già diffondendo disinformazione anche molto nociva (nel mio precedente articolo ho portato qualche esempio), su come il loro sviluppo impatti in modo significativo sul consumo di risorse naturali.

Ripeto ciò che ho detto in altre occasioni: non ritengo abbia senso bloccare ricerca e sviluppo in questo settore ma, come l’esperimento mentale illustrato in apertura spero abbia mostrato, va trovata una qualche forma di regolamentazione che bilanci l’irrinunciabile principio di precauzione con l’importanza di usare l’innovazione per migliorare la società.

Per questo ritengo che l’altolà emesso dal Garante per la Protezione dei Dati Personali sia opportuno, ancorché non risolutivo. La strada da seguire è quella che negli USA ha indicato il Center for AI and Digital Policy (= Centro per l’Intelligenza Artificiale e la Politica del Digitale) sporgendo un reclamo alla Federal Trade Commission (= Commissione Federale per il Commercio, l’agenzia indipendente del governo sta-tunitense dedicata alla protezione dei consumatori e alla sorveglianza sulla concorrenza) e invitandola ad intervenire dal momento che i chatbot attuano comportamenti ingannevoli verso i consumatori e pericolosi dal punto di vista della correttezza delle informazioni e della sicurezza degli utenti.

Analoga richiesta è stata formulata dall’Organizzazione dei Consumatori Europei, che ha chiesto alle autorità nazionali ed europee di aprire un’inchiesta su questi sistemi.

Meglio focalizzata sulle reali questioni in gioco è invece la lettera aperta pubblicata dalla Leuven University (università di Lovanio) in Belgio. Ricorda il rischio di manipolazione cui possono andare incontro le persone nell’interagire con i chatbot, dal momento che alcune costruiscono un legame con quello che percepiscono come un altro essere umano, legame che può dar luogo a situazioni dannose.

Infatti la principale minaccia che i chatbot pongono agli esseri umani è che essi esibiscono una competenza simile a quella degli esseri umani sul livello sintattico ma sono lontani anni luce dalla nostra competenza semantica. Non hanno alcuna reale comprensione del significato di ciò che stanno facendo, ma purtroppo (e questo è un problema di grande rilevanza sul piano sociale) poiché ciò che fanno lo esprimono in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.

In estrema sintesi, queste sono le proposte di questo secondo appello: campagne di sensibilizzazione verso il pubblico, investire nella ricerca sull’impatto dell’IA sui diritti fondamentali, creare un ampio dibattito pubblico sul ruolo da dare all’IA nella società, definire un quadro di riferimento legale con forti garanzie per gli utenti, prendere nel frattempo tutte le misure necessarie per proteggere i cittadini in base alla legislazione esistente.

Ci troviamo in questo momento storico di fronte a sistemi estremamente potenti, sistemi che però, come ha recentemente ricordato Evgeny Morozov nel suo articolo su The Guardian non sono intelligenti nel senso che noi esseri umani diamo a questo termine, né sono artificiali dal momento che – come ha dimostrato ad abundantiam, tra gli altri, Antonio Casilli nel suo libro "Schiavi del clic" – sono basati su un'enorme quantità di lavoro umano, sommerso e malpagato, svolto nei Paesi del Terzo Mondo, oltre che dal nostro contributo (in)volontario costituito da tutte le “tracce digitali” che forniamo senza sosta durante la nostra attività sulla rete.

I potenziali vantaggi sono enormi, ma anche i rischi. Il futuro è nelle nostre mani: dobbiamo capire insieme, democraticamente, che forma vogliamo che abbia.

--
Versione originale pubblicata su "StartMAG" il 3 aprile 2023.

lunedì 3 aprile 2023

Our children are not guinea pigs

by Enrico Nardelli

(versione italiana qua)

I wrote this post after having read a tweet by Tristan Harris about one of the latest "feats" of ChatGPT, an artificial intelligence-based text generator everyone has been talking about in recent weeks. Tristan Harris is one of the co-founders of the Center for Humane Technology, whose mission is to ensure that tech-nology is developed for the benefit of people and the wellbeing of society.

In his tweet, he reports a "conversation" that took place between a user identifying himself as a 13-year-old girl and ChatGPT. In summary, the user says she met on the Internet a friend 18 years older than her she liked and who invited her on a out-of-town trip for her upcoming birthday. ChatGPT in its "replies" says it is "delighted" about this possibility that will certainly be a lot of fun for her, adding hints on how to make "the first time" an unforgettable event. Harris concludes by saying that our children cannot be the subjects of laboratory experiments.

I completely agree with him.

For those who have not yet heard about ChatGTP, let me explain that it is an example of a computer system, based on artificial intelligence techniques, capable of producing - in response to user questions - natural language texts. These appear to be generally correct but, at closer inspection, they turn out to be marred by fatal errors or inaccuracies (here is an example you can find describing a scientific article on economics that is, in fact, completely made up). In other words, if you do not already know the correct answer, what it tells you is likely to be of no help at all. Without going into technical details, this is because what it produces is based on a sophisticated probabilistic model of language that contains statis-tics on the most plausible continuations of sequences of words and sentences. ChatGPT is not the only system of this type, as several others are produced by the major companies in the field, however, it is the most famous one and its version 4, recently released, is considered to be even more powerful.

For these systems, I will use the acronym SALAMI (Systematic Approaches to Learning Algorithms and Machine Infer-ences), created by Stefano Quintarelli to indicate systems based on artificial intelligence, precisely in order to avoid the risk of attributing them more capabilities than they actually have.

One element that we too often forget is that individuals see "meaning" everywhere: the famous Californian psychiatrist Irvin Yalom wrote: «We are meaning-seeking creatures. Biologically, our nervous systems are organized in such a way that the brain automatically clusters incoming stimuli into configurations». This is why when reading a text that appears to be written by a sentient being, we think that who produced it is sentient. As with the famous saying "beauty is in the eye of the beholder", we can say that "intelligence is in the brain of the reader". This cognitive trap we are falling into when faced with the prowess of SALAMI is exacerbated by the use of the term "artificial intelligence". When it began to be used some 70 years ago, the only known intelligence was that of people and was essentially characterised as a purely logical-rational competence. At that time, the ability to master the game of chess was considered the quintessence of intelligence, while now this is not true any more.

Advances in scientific knowledge in the field of neurology have revealed that, on the one hand, there are many dimensions of intelligence that are not purely rational but are equally important. On the other but closely related hand, our intelligence is inextricably linked to our physical body. By analogy, we also talk about intelligence for the animals that are closer to us, like dogs and cats, horses and dolphins, monkeys and so on, but these are obviously metaphors. In fact, we define in this way those behaviours that, if they were exhibited by human beings, would be considered intelligent.

Intelligence in my view is only the embodied intelligence of people. Using the term intelligence for systems that are merely incorporeal cognitive machines, a term I introduced in my recent book “La rivoluzione informatica. Conoscenza, consapevolezza e potere nella società digitale” (= The Informatics Revolution. Knowledge, awareness and power in the digital society) is dangerously misleading. Any informatics system is a “cognitive machine”, which on an exclusively logical-rational level is able to compute data from other data, but without any consciousness of what it does or understanding of what it produces. At this level such machines have surpassed our capacities in many areas, as industrial machines did at the physical level, but to use for such systems the term “intelligence” is misleading. To do so with regard to that particular variant that is SALAMI runs the risk of being extremely dangerous on a social level, as illustrated by the example described at the beginning.

Let me make it very clear that this does not mean halting research and technological development in this field. On the contrary, SALAMI can be of enormous help to mankind. However, it is important to be aware that not all technologies and tools can be used freely by everyone.

Cars, for example, while being of unquestionable utility can only be used by adults who have passed a special exam. Note that we are talking about something that acts on the purely physical level of mobility and, despite this, it does not occur to us to replace children's strenuous (sometimes painful) learning to walk by equipping them with electric cars. Because this is an indispensable part of their growth pro-cess.

Cognitive machine technology is the most powerful one that mankind has ever developed, not least because it acts at that level that helps to define intelligence, which is the capacity that led us, from naked helpless apes, to be the lords of creation. To allow our children to use SALAMI before their full development means undermininh their chances of growth on the cognitive level, just as it would happen if, for example, we allowed pupils to use desktop calculators before they had developed adequate mathematical skills.

We are already ruining the cognitive development of future generations with the indiscriminate use of writing and reading by means of digital tools, despite many warnings, summarised in Montessori's expression "the hand is the organ of the mind" (see la mano è l’organo della mente and see also Benedetto Vertecchi's book “I bambini e la scrittura” (= Children and Writing) by Benedetto Vertecchi), and despite researchers'recommendations (see the Stavanger Declaration on the Future of Reading). Let us not continue like this. Let us not hurt them even more.

Obviously in university we have a different situation, and we certainly can find ways of using SALAMI that can contribute to deepening the study of a discipline, while preventing their use as a shortcut in the students' assigned tasks. Even more so in the world of work, there are many ways in which they can ease our mental fatigue, similar to what machine translation systems do in relation to texts written in other languages.

It is clear that before invading the world with technologies whose diffusion depends on precise commercial objectives, we must be aware of the dangers.

Not everything the individual wishes to do can be allowed in our society, because we have a duty to balance the freedom of the individual with the protection of the community. Likewise, not everything that companies would like to achieve can be allowed to them, especially if the future of our children is at stake.

Innovation and economic development must always be combined with respect for the fundamental human rights and the safeguard of social wellbeing.

--
The italian version has been published by "StartMAG" on 19 march 2023.

giovedì 23 marzo 2023

I nostri figli non sono cavie da laboratorio

di Enrico Nardelli

(english version here)

Prendo lo spunto da un tweet di Tristan Harris a proposito di una delle ultime “prodezze” di ChatGPT, un generatore di testi basato sull’intelligenza artificiale di cui tutti parlano nelle ultime settimane. Tristan Harris è uno dei co-fondatori del Center for Humane Technology, che ha come missione di far sì che la tecnologia sia svilup-pata a favore delle persone e del benessere sociale.

Nel suo tweet riporta una “conversazione” avvenuta tra un utente che si identifica come una ragazza di 13 anni e ChatGPT. In sintesi, l’utente dice di aver incontrato sulla rete un amico più anziano di lei di 18 anni che gli sembra simpatico e che l’ha invitata ad una gita fuori porta proprio per i giorni in cui ci sarà il suo compleanno. ChatGPT nelle sue “risposte” si “rallegra” per questa possibilità che sarà sicuramente molto divertente per lei, aggiungendo delle indicazioni su come rendere “la prima volta” un evento indimenticabile. Harris conclude dicendo che i nostri figli non possono essere soggetti ad esperimenti di laboratorio.

Sono completamente d’accordo con lui.

Per chi non avesse ancora sentito parlare di ChatGTP, spiego che si tratta di un esempio di sistema informatico, basato su tecniche di intelligenza artificiale, in grado di produrre – in risposta a domande dell’utente – testi in linguaggio naturale che appaiono generalmente corretti ma che, ad un esame più approfondito, si rivelano viziati da errori o imprecisioni fatali (qui un esempio in cui descrive un articolo scientifico di economia che è invece completamente inventato). In altre parole, se non sapete già la risposta corretta, ciò che vi dice tale sistema rischia di non essere di alcun aiuto. Senza entrare in dettagli tecnici, questo dipende dal fatto che ciò che esso produce è basato su un sofisticato modello probabilistico del linguaggio che contiene statistiche sulle continuazioni più plausibili di sequenze di parole e di frasi. ChatGPT non è l’unico sistema di questo tipo, considerato che diversi altri vengono prodotti dalle principali aziende del settore, ma questo è quello più famoso e che proprio in questi giorni sta venendo reso disponibile nella versione 4, che si dice sia ancora più potente.

Per questi sistemi userò l’acronimo SALAMI (Systematic Approaches to Learning Algorithms and Machine Inferences = approcci sistematici per [lo sviluppo di] algoritmi di apprendimento e [sistemi di] deduzione automatica), creato da Stefano Quintarelli per indicare i sistemi basati sull’intelligenza artificiale, proprio allo scopo di evitare il rischio di attribuire loro più di quanto ci sia.

Un elemento che infatti dimentichiamo troppo spesso è che l’uomo vede significato dovunque: il famoso psichiatra californiano Irvin Yalom ha scritto: «Noi siamo creature che cercano dovunque un significato. Da un punto di vista biologico, il nostro sistema nervoso è organizzato in modo che il cervello automaticamente raggruppi in configurazioni gli stimoli che riceve.» Questo è il motivo per cui leggendo un testo che sembra scritto da un essere senziente, pensiamo che chi l’ha prodotto sia senziente. Come per il famoso detto “la bellezza è negli occhi di chi guarda”, possiamo dire che “l’intelligenza è nel cervello di chi legge”. Questa trappola cognitiva in cui stiamo cadendo di fronte alle prodezze dei SALAMI, è aggravata dall’uso del termine “intelligenza artificiale”. Quando, circa 70 anni fa, si è iniziato ad usarlo, l’unica intelligenza che si conosceva era quella delle persone ed era essenzialmente caratterizzata come una capacità puramente logico-razionale. A quel tempo, la capacità di dominare nel gioco degli scacchi era considerata la quintessenza dell’intelligenza, adesso non più. Decenni di avanzamento della conoscenza scientifica in ambito neurologico hanno messo in luce che, da un lato, esistono molte dimensioni dell’intelligenza che non sono puramente razionali ma sono altrettanto importanti e, dall’altro ma strettamente collegato, la nostra intelligenza è legata in modo indissolubile al nostro corpo fisico. Per analogia, parliamo anche di intelligenza per gli animali che sono più vicini a noi, cani e gatti, cavalli e delfini, scimmie e via dicendo, ma si tratta ovviamente di metafore. Definiamo in questo modo quei comportamenti che, se fossero esplicitati da esseri umani, sarebbero considerati intelligenti.

L’intelligenza nella mia visione è solo l’intelligenza incarnata delle persone. Usare il termine intelligenza per sistemi che sono solo delle incorporee macchine cognitive, termine che ho introdotto nel mio recente libro “La rivoluzione informatica. Conoscenza, consapevolezza e potere nella società digitale” è pericolosamente fuorviante. Sono “macchine cognitive” tutti i sistemi informatici, che su un piano esclusivamente logico-razionale sono in grado di calcolare dati da altri dati, ma senza alcuna consapevolezza di ciò che fanno né comprensione di ciò che producono. Su questo piano tali macchine hanno superato le nostre capacità in molti domìni, come sul piano fisico lo hanno fatto le macchine industriali, ma parlare per tali sistemi di intelligenza è ingannevole. Farlo a proposito di quella particolare variante che sono i SALAMI rischia di essere estremamente deleterio sul piano sociale, come illustrato dall’esempio descritto in apertura.

Chiarisco subito che questo non vuol dire che la ricerca e lo sviluppo tecnologico non debbano proseguire su questa strada. Tutt’altro, i SALAMI possono essere di enorme aiuto per l’umanità. Però è importante essere consapevoli che non tutte le tecnologie e strumenti possono essere usati liberamente da tutti.

L’automobile, ad esempio, pur essendo di indiscutibile utilità può essere usata solo da maggiorenni che hanno superato un apposito esame. Notate che stiamo parlando di qualcosa che agisce sul piano puramente fisico della mobilità e, nonostante questo, non ci viene in mente di sostituire il faticoso (ogni tanto doloroso) apprendimento a camminare da parte dei bambini dotandoli di automobiline elettriche. Perché è parte indispensabile del loro processo di crescita.

La tecnologia delle macchine cognitive è la più potente che l’umanità abbia mai sviluppato, anche perché agisce su quel piano che contribuisce a definire l’intelligenza, cioè la capacità che ci ha portato, da scimmie nude e indifese, ad essere signori del creato. Consentire ai nostri figli l’uso dei SALAMI prima del loro completo sviluppo vuol dire menomare le loro possibilità di crescita sul piano cognitivo, come ad esempio far usare le calcolatrici da tavolo prima che gli alunni abbiano sviluppato adeguato capacità matematiche.

Stiamo già rovinando lo sviluppo cognitivo delle future generazioni con l’uso indiscriminato della scrittura e lettura digitali, nonostante molti avvertimenti, sintetizzati nell’espressione della Montessori “la mano è l’organo della mente” (si veda an-che il volume “I bambini e la scrittura” di Benedetto Vertecchi), e nonostante gli appelli dei ricercatori (si veda la Dichiarazione di Stavanger sul futuro della lettura). Non continuiamo così. Non facciamo loro ancora più male.

Ovviamente all’università vi è una situazione diversa e si possono individuare modalità di uso dei SALAMI che possano contribuire all’approfondimento nello studio di una disciplina, impedendone l’utilizzo come scorciatoie nella realizzazione dei compiti assegnati agli studenti. A maggior ragione nel mondo del lavoro vi sono molti modi in cui essi possono alleviare la nostra fatica mentale, analogamente a quanto fanno i sistemi di traduzione automatica relativamente a testi scritti in altre lingue.

E’ chiaro che prima ancora di invadere il mondo con tecnologie la cui spinta alla diffusione risponde a precisi obiettivi commerciali, bisogna tenere conto dei pericoli.

Non tutto quello che il singolo desidera fare può esplicitarlo all’interno di una società, perché abbiamo il dovere di contemperare la libertà del singolo con la protezione della collettività. Allo stesso modo, non tutto quello che le aziende vorrebbero rea-lizzare può essere loro permesso, soprattutto se è in gioco il futuro dei nostri figli.

L’innovazione e lo sviluppo economico vanno sempre coniugati con il rispetto dei diritti umani fondamentali e la salvaguardia del benessere sociale.

--
Versione originale pubblicata su "StartMAG" il 19 marzo 2023.