Pagine

domenica 22 settembre 2024

Scienza e Istruzione: quo vadis Europa ?

di Enrico Nardelli

È stato pubblicato qualche giorno fa l’elenco proposto dalla confermata Presidente della Commissione Europea, Ursula von der Leyen, per i membri che saranno in servizio per il quinquennio 2025-2029. Ricordo che si tratta di una proposta, dal momento che è soggetta a un voto di approvazione del Parlamento Europeo. In tale elenco viene indicato, come accade anche in Italia per la proposta dei Ministri che il Presidente del Consiglio incaricato formula al Presidente della Repubblica, il titolo della delega assegnata ad ogni commissario (in Italia, è il titolo del Ministro).

Si tratta di un aspetto importante dal punto di vista politico, dal momento che le strutture burocratiche che supportano l’azione dei commissari, cioè i Dipartimenti (denominati Directorate-general, che in Italia corrispondono ai Ministeri), normalmente conservano lo stesso nome e la stessa struttura, mentre le deleghe assegnate esprimono la visione che il Presidente vuole imprimere al suo mandato.

Dato il mio ambito professionale, ho esaminato se e come era stata modificata quella che nella precedente commissione era la delega per “Innovazione, ricerca, cultura, istruzione e gioventù”.

Prima di tutto ho constatato che “ricerca e innovazione”, rispetto al mandato 2020-2024, sono state spostate in una delega separata per “Start-up, ricerca e innovazione”. La situazione nei 25 anni precedente era stata la seguente:
2014-19 (Juncker) – Ricerca, scienza e innovazione;
2010-14 (Barroso II) – Ricerca, innovazione e scienza;
2004-09 (Barroso I) – Scienza e ricerca;
2000-04 (Prodi) – Ricerca;
1995-99 (Santer) – Scienza, ricerca e sviluppo.

Quindi, mentre per cinque lustri, con una sola eccezione, era stata sempre assegnata una delega per la Scienza, si conferma adesso l’impostazione della precedente commissione che la Scienza non sia un tema che meriti un’attenzione politica. “Le parole sono importanti!”, si diceva in un famoso film. Ritengo che questa omissione sia inevitabilmente legata a ciò cui abbiamo assistito in questi ultimi anni con la trasformazione del dubbio scientifico in verità di fede. Penso che tale mutazione sia un tradimento dell’eredità di Galileo Galilei e che la comunità europea degli scienziati dovrebbe lottare per ristabilire la sua dignità.

In secondo luogo, la delega per la parte “cultura, istruzione e gioventù” è diventata una delega per “equità inter-generazionale, cultura, gioventù”. Lasciando a più fini esegeti l’analisi dell’espressione “equità inter-generazionale”, ricordo anche qui cosa era accaduto nei 25 anni precedenti:
2014-19 (Juncker) – Istruzione, cultura, gioventù e sport;
2010-14 (Barroso II) – Istruzione, cultura, multilinguismo e sport;
2004-09 (Barroso I) – Istruzione, formazione, cultura e gioventù;
2000-04 (Prodi) – Istruzione e cultura;
1995-99 (Santer) – Risorse umane, istruzione, formazione e gioventù.

In questo caso, quindi, almeno per 30 anni il tema dell’istruzione è stato un caposaldo nell’agenda politica della Commissione. Giustissimamente, dal momento che l’investimento nell’istruzione è il migliore che possa fare una comunità per assicurare a sé stessa un continuo miglioramento delle condizioni di vita. Secoli di storia stanno lì a dimostrarcelo. La lotta per l’istruzione obbligatoria per tutti è stata una delle conquiste fondamentali dei secoli XIX e XX, messa in moto dalla spinta illuminista verso una comprensione razionale del mondo e resa possibile dalla rivoluzione culturale causata dall’invenzione della stampa a caratteri mobili.

Adesso, un faticoso cammino plurisecolare rischia di venir cancellato con un colpo di penna. Se non insistiamo sul recuperare il fondamentale ruolo dell’istruzione (che non è l’educazione, come quelli che non sanno l’inglese traducono education) c’è davvero il rischio di un feudalesimo digitale, come ho discusso nel mio libro La rivoluzione informatica, di un nuovo Medioevo in cui signoreggiano tecno-feudatari incuranti delle masse.

Spero davvero di no, spero in un ravvedimento che possa avvenire durante il processo di approvazione di questa proposta.

Ricordo che già 5 anni fa, nella proposta di nomina della precedente Commissione, la delega assegnata alla Commissaria Mariya Gabriel era stata inizialmente intitolata solo “Innovazione e gioventù”. Di fronte alla vigorosa protesta di una ventina di premi Nobel, di più di trecento tra leader di centri universitari e di associazioni scientifiche e scienziati vincitori di finanziamenti dello European Research Council, e di più di 13.000 ricercatori, l’improvvida decisione fu modificata aggiungendo i temi della “ricerca, istruzione e cultura”.

Ci si sta provando una seconda volta: non è un bel segno. Spero che il Parlamento Europeo possa riflettere sulla domanda Quo vadis Europa ?

--
Versione originale pubblicata su "StartMAG" il 19 settembre 2024.

martedì 9 luglio 2024

La tragedia dell’istruzione digitale ovvero la rivincita di Platone

di Enrico Nardelli

No, non si tratta della situazione di cui si lamentano quelli (troppi, purtroppo) che sostengono che gli insegnanti italiani siano indietro perché «ignorano le potenzialità delle tecnologie digitali».

È invece la rivincita di quelli che, sottolineando la centralità dell’elemento umano nei processi educativi, hanno sempre ribadito che nell’istruzione non è un elemento davvero essenziale avere, ad esempio, un tablet per ogni studente o reti superveloci nell’intero edificio scolastico, mentre lo è avere insegnanti ben preparati e ben pagati, con un ruolo sociale riconosciuto e difeso. In un mio recente intervento ho ricordato come gli aspetti relazionali del rapporto tra docente e studente siano fondamentali per il successo del processo educativo. Si tratta di una riflessione elaborata da Platone nei suoi Dialoghi, dove si ritrova l’osservazione che la componente affettiva della relazione educativa tra didàskalos e mathetés, maestro e allievo, è un aspetto fondamentale della paideia, la crescita etica e spirituale del discepolo. La tecnologia, se opportunamente utilizzata, può essere eventualmente usata per potenziarla, ma non deve mai sostituirla, pena l’impoverimento e la distruzione della nostra umanità.

A questo punto abbiamo una certificazione autorevole che chi ha ragione tra queste due posizioni sono gli scettici dell’uso della tecnologia digitale nelle scuole e non gli entusiasti. Si tratta del recente rapporto UNESCO An Ed-Tech Tragedy? (= Una tragedia per l’istruzione digitale?), di cui, chissa perché, non mi pare si sia parlato molto sui grandi giornali d’opinione che avevano invece sottolineato come effetto positivo il fatto che la pandemia avesse costretto gli insegnanti italiani a “diventare digitali” (che mi sembra un po’ come tessere le lodi del Titanic perché è importante saper nuotare – ma lasciamo stare queste divagazioni).

Per farla breve, il rapporto sottolinea come all’inizio della pandemia la grande speranza fosse effettivamente quella di sfruttare questa situazione per diffondere nel mondo della scuola la tecnologia digitale. Come sempre accade, le motivazioni erano nobili e condivisibili: rendere il processo educativo più efficiente e metterlo a disposizione di tutti.

Invece, man mano che le soluzioni digitali venivano dispiegate come mezzo primario per erogare l’istruzione obbligatoria, ci si è accorti delle conseguenze dannose e non volute risultanti dalla transizione da un’educazione in presenza basata sulla scuola come luogo fisico ad un insegnamento a distanza supportato dalla tecnologia.

Il sommario del rapporto riporta che alcuni sostengono la tecnologia ha salvato una situazione di emergenza e preservato la continuità dell'apprendimento per un numero significativo di studenti, anche se non tutti gli studenti ne hanno tratto beneficio. Ma l'evidenza globale – prosegue il documento – rivela un quadro più cupo. Una dipendenza senza precedenti del sistema educativo dalla tecnologia si è tradotta in esclusione, disuguaglianza sconcertante, danni involontari e modelli di apprendimento che antepongono le macchine e il profitto alle persone.

Il semplice elenco dei capitoli della sezione del rapporto che analizza tali guasti (Act II: From Promises to Reality = Atto 2°: dalle promesse alla realtà) è sufficiente a far capire la portata del disastro compiuto:

  • la maggior parte degli allievi è rimasta indietro;
  • le disuguaglianze sono aumentate;
  • gli allievi si sono impegnati di meno, hanno raggiunto risultati inferiori, e hanno abbandonato l’istruzione obbligatoria;
  • l’istruzione è stata affossata e impoverita;
  • l’immersione nella tecnologia è stata dannosa per la salute;
  • i costi ambientali sono aumentati;
  • il settore privato ha rafforzato il controllo sull’istruzione pubblica;
  • una sorveglianza senza precedenti si è diffusa nel settore dell’istruzione.

Questi sono, lo ripeto, i titoli dei capitoli del rapporto dell’UNESCO sopra citato, non mie opinioni. Mi sembrano valutazioni assai rilevanti.

Il documento prosegue discutendo quali alternative avrebbero dovuto essere considerate, dal tenere le scuole aperte all’uso di soluzioni non tecnologiche.

La parte finale del rapporto fornisce alcune raccomandazioni per l’uso futuro della tecnologia digitale nel mondo dell’istruzione, che si auspica più rispettoso della componente umana, tra cui vale la pena sottolineare l’indicazione che sostiene che l’apprendimento in presenza ha la priorità su altre modalità e quella che sottolinea la necessità di difendere l’istruzione dalla diminuzione delle opportunità di usufruirne in modo libero, accessibile e disponibile, diminuzione che è conseguenza della tecnologia digitale.

Appunto, “la rivincita di Platone”.

--
Versione originale pubblicata su "StartMAG" il 6 luglio 2024.

lunedì 6 maggio 2024

Il doppio lato oscuro del digitale

di Enrico Nardelli

Chi crede nell’esistenza di un mondo spirituale ritiene che vi possano essere entità che prescindono dalla realtà materiale, ma per quelli agnostici non si dà una mente senza un corpo fisico. Per il digitale vale questo secondo punto di vista: i post sui social che sempre più incessantemente emettiamo (un miliardo al giorno su Facebook, mezzo miliardo su X, secondo questa fonte) hanno bisogno di appoggiarsi su qualcosa di concreto. La sempre più elevata attenzione all’impatto ambientale di ciò che l’umanità sta realizzando ha finalmente risvegliato la consapevolezza su questo elemento troppo spesso trascurato negli ultimi vent’anni, in cui la tecnologia digitale ha penetrato ogni risvolto delle nostre esistenze.

I bit saranno pure immateriali, da un punto di vista concettuale, ma non possono esistere senza una realtà fisica che li rende possibili. Da tale constatazione deve derivare l’attenzione a due “lati oscuri” (sia perché non immediatamente evidenti, sia perché potenzialmente negativi) legati alla dimensione fisica del digitale.

Affrontiamo il primo di questi lati oscuri. Nell’ubriacatura generale della società scatenata dalla diffusione nei primi venti anni di questo secolo delle tecnologie informatiche a (quasi) tutta la popolazione mondiale, ci si è dimenticati che chi controlla la dimensione fisica ha in pugno tutta la sfera digitale. Con Internet, possiamo credere di essere cittadini del mondo che viaggiano liberamente da un sito in Brasile a uno in India, ma in realtà chi controlla i sistemi fisici su cui i nostri percorsi digitali si snodano può, esattamente nello stesso modo con cui agisce un agente di dogana alla frontiera, impedirci l’accesso (ne parlo nel capitolo 7 “Impatto sociale dell’informatica” del mio volume La rivoluzione informatica).

La natura libertaria e anarchica con cui negli ultimi decenni del secolo scorso si era sviluppata quella rete Internet che è stata la condizione necessaria per la successiva esplosione, attraverso gli smartphone, delle piattaforme social, ci ha per molto tempo illuso. Invece, chi controlla “i fili elettrici” su cui transitano i bit continua, com’è sempre stata caratteristica di chi controlla le frontiere, ad avere il potere di decidere chi può passare e chi no.

L’importanza della dimensione fisica, richiamata anche in un recente intervento pubblico dell’eccellente collega Juan Carlos De Martin, sta pian piano riemergendo in modo sensibile, in conseguenza del frenetico sviluppo delle tecniche di elaborazione dati dell’intelligenza artificiale, che porta a consumare quantità di energia elettrica sempre maggiori, con un impatto ambientale significativo. John Hennessy, già presidente dell’università di Stanford e presidente del consiglio di amministrazione di Alphabet, la casa madre di Google, ha dichiarato all’agenzia di notizie Reuters che una ricerca fatta su un motore con l’intelligenza artificiale costa 10 volte di più di una ricerca tradizionale. Secondo uno studio di Alex De Vrjes, data scientist alla "De Nederlandsche Bank", pubblicato sulla rivista scientifica Joule, specializzata nel settore dell'energia, nel 2027 il settore dell'Intelligenza Artificiale potrebbe consumare complessivamente tra gli 85 e i 134 TeraWattOra, una quantità simile al consumo energetico annuale di paesi come Argentina, Olanda e Svezia.

C’è poi un ulteriore riflessione da aggiungere, legata sempre alla dimensione fisica: nonostante l’informatica, avvalendosi anche di tecniche matematiche, metta a disposizione metodi estremamente sofisticati di proteggere le informazioni scambiate, che sono alla base della sicurezza di tutti gli scambi di dati digitali (transazioni finanziarie, controllo degli accessi, etc.), chi controlla il livello fisico avrà sempre i mezzi per violare tali metodi. Nell’incorporeo universo della matematica 2+3 fa sempre 5, ma se il risultato di 2+3 deve essere computato da dispositivi fisici di cui non si ha il pieno controllo non è detto che faccia sempre 5. La crittografia è sicura solo se si rimane nell’astrazione dei teoremi matematicamente dimostrati. Quando un algoritmo viene calato nella realtà concreta dei sistemi digitali, non si può avere fiducia nella sua corretta esecuzione se non si controlla tutta la catena che dalla sua trascrizione in un programma informatico arriva fino al dispositivo fisico che lo esegue, incluso quest’ultimo, come aveva messo in evidenza sin dal 1984 Ken Thompson, ricercatore dei famosi laboratori Bell negli USA e uno dei due inventori del sistema operativo UNIX, successivamente premiato con il Turing Award – il premio Nobel per l’informatica.

Quindi, se non possediamo le infrastrutture fisiche attraverso le quali ci scambiano quei dati digitali che sono ormai essenziali per il buon funzionamento di ogni società avanzate, se non realizziamo e controlliamo quei sistemi informatici che animano tali infrastrutture, saremo sempre più colonia che stato sovrano.

Questa è un’analisi di tipo, diciamo così, “politico”, che andrebbe quindi assimilata prima di tutto da chi, per professione, fa il politico e poi da ciascun essere umano, zòon politikòn, cioè “animale politico”, secondo l’immortale definizione di Aristotele.

C’è poi un secondo “lato oscuro” del digitale (anch’esso nelle due valenze di non essere ben noto e di prestarsi ad usi potenzialmente malefici), che è importante conoscere. Gli elementi digitali con i quali interagiamo non sono quelli “passivi”, costituiti da dati che sono memorizzati in maniera più o meno permanente su qualche dispositivo fisico, ma quelli “attivi” rappresentati da un programma informatico in esecuzione su un qualche calcolatore. Però, mentre la nostra mente è indissolubilmente legata al nostro corpo fisico e noi possiamo attraverso di essa comprendere gli altri esseri umani e relazionarci pienamente ad essi proprio perché sappiamo di condividere un corpo fisico della stessa natura, l’interazione con un qualunque sistema informatico non avviene condividendo questa base comune.

Non solo, noi acquisiamo informazioni sul mondo attraverso gli organi fisici di senso del nostro corpo e le trasformiamo in dati per le nostre elaborazioni attraverso un dialogo bidirezionale che avviene tra essi e il nostro cervello, il che spiega come mai alle volte non ci si accorga di qualcosa che invece è presente in maniera sensibile. Al contrario, un qualunque sistema digitale o riceve rappresentazioni già definite (e chi controlla come vengono costruite influenza chiaramente l’esito della loro elaborazione) oppure attraverso dispositivi fisici che niente hanno in comune con i nostri sensi.

Ancora, mancando di un corpo fisico, qualunque sistema informatico è intrinsecamente privo della possibilità di avere autocoscienza, cioè coscienza di se stesso, e quindi di provare emozioni, che sono fondamentali per il buon andamento della società e per essere davvero in relazione con i nostri simili, e di essere consapevole di esse. Aggiungo che, se anche si riuscisse a dare un corpo fisico a un sistema di intelligenza artificiale, si tratterebbe sempre dell’autocoscienza di una specie aliena rispetto alla razza umana.

Si tratta di elementi assolutamente rilevanti, che dobbiamo aver ben presenti, per tutte le considerazioni che stiamo svolgendo sull’intelligenza artificiale e sull’utilizzo dei suoi strumenti nell’interazione con le persone. Essi infatti sembrano possedere caratteristiche tipiche dell’essere umano, quali la comprensione del linguaggio e delle situazioni. Però, non è così: ciò dipende essenzialmente dal fatto che noi proiettiamo le nostre capacità su ciò che essi producono (ne ho parlato qua, qua e qua) e la comprensione di questa fondamentale diversità tra persone e sistemi di intelligenza artificiale è essenziale. Essi sono “macchine cognitive” e, come tutte le macchine, possono essere di grande aiuto all’essere umano, purché facciamo sempre attenzione a non antropomorfizzarle.

Da qui ne consegue che non dobbiamo consentire in alcun modo che tali prodotti abbiano il potere di decidere su alcun aspetto della nostra esistenza. Possono fornire un utile ausilio informativo, ma la decisione finale e la sua intera responsabilità devono essere legate a un essere umano.

Questo è il punto chiave per il ruolo dell’intelligenza artificiale nella società.

--
Versione originale pubblicata su "StartMAG" il 1 maggio 2024.

mercoledì 28 febbraio 2024

Artificiale o meccanica, questo è il problema

di Enrico Nardelli

In un precedente articolo ho iniziato ad affrontare la questione terminologica legata all’uso dell’espressione “intelligenza artificiale” (IA), che ci porta ad attribuire agli strumenti digitali basati su di essa più di quanto essi siano in grado compiere.

Lo scenario non è facile da capire bene, soprattutto per i non addetti ai lavori, dal momento che le parole che compongono tale termine non aiutano la comprensione comune. Infatti, nell’espressione “intelligenza artificiale” l’aggettivo “artificiale” dà al sostantivo “intelligenza” solo una qualificazione ontologica, cioè che indica la natura costitutiva dell’ente ma non ne descrive le funzioni. Quali siano queste funzioni viene invece comunicato dal sostantivo stesso. Per chiarire attraverso un esempio più comune, quando parliamo di “cuore artificiale” è chiaro a tutti che si tratta di un oggetto fatto di una sostanza diversa da quella di quell'organo che ognuno porta nel petto (è artificiale) ma svolge le sue stesse funzioni (è un cuore).

Per questo, l’espressione “intelligenza artificiale” esprime sì correttamente il fatto che si tratta di qualcosa costituito da una materia diversa da quella sulla quale si basa l’intelligenza umana, ma inganna completamente il senso comune facendo pensare che di vera e propria intelligenza umana si tratti. Certo, indichiamo come intelligenti anche alcuni comportamenti manifestati da cani o gatti o cavalli o scimmie. Però, quando diciamo che un animale è intelligente lo facciamo esattamente perché, in una o più occasioni, si è comportato “come se” fosse stato una persona, ma l'immediatezza vividamente percepibile della sua natura non umana ci impedisce di attribuire ad esso più di quanto c'è nell'uso metaforico del termine. Data la nostra assuefazione alle interazioni digitali, quando invece riceviamo un risultato prodotto da uno strumento dell’IA, poiché la sua natura fisica fatta di circuiti elettronici è nascosta, tendiamo a vedere – a causa di questa espressione evocativa ma imprecisa – più di quello che c’è, trascurando quell’aspetto essenziale del “come se”.

Dovremmo invece chiamare l’IA “intelligenza meccanica”, dal momento che “meccanico” è un aggettivo che descrive le modalità di funzionamento o comportamento di una macchina. Si pensi, ad esempio, all’uso dell'espressione "comportamento meccanico" in opposizione a "comportamento naturale". L’utilizzo dell’aggettivo “meccanico” avrebbe quindi il pregio di richiamare l’attenzione sia sul fatto che la costruzione di nuove rappresentazioni avviene su un piano esclusivamente logico-razionale sia sul modo con cui quest’elaborazione viene eseguita. Cioè, a prescindere da ogni considerazione fisica o emotiva e, quindi, in modo alieno rispetto alla nostra natura. Il che non vuol dire che sia inutile, tutt’altro, ma che è cosa ben diversa da ciò che normalmente chiamiamo “intelligenza”. Le mancano infatti molte dimensioni che danno senso al termine intelligenza usato per le persone, da quella corporea, attraverso la quale sperimentiamo e conosciamo il mondo fisico intorno a noi e che costituisce il substrato comune alle nostre interazioni con gli altri, a quella emotiva, che ci permette di stabili relazioni autentiche e profonde con i nostri simili, a quella artistica, con la quale possiamo esprimere in modo estremamente pregnante il nostro senso estetico, solo per ricordare le più importanti.

Parafrasando un detto a proposito dell’intelligenza dei computer attribuito da questo sito a Edsger Dijkstra, uno dei grandi padri dell’informatica, dire che un sistema informatico è una “intelligenza artificiale” è come dire che un sottomarino è un “pesce artificiale”. Mi pare evidente che sia più preciso definire semmai il sottomarino un “pesce meccanico”.

Il problema è nella parola “intelligenza”: quando la usiamo ci portiamo fatalmente appresso tutte le dimensioni che, nella persona umana, sono inestricabilmente associate ad essa e dipendenti dal suo essere indissolubilmente incarnata in uno specifico corpo fisico. Invece, quella delle macchine cognitive è un’intelligenza totalmente “disincarnata”, quindi priva di tutte quelle componenti che danno senso al nostro destino di esseri umani e al nostro ruolo nella società.

Pragmaticamente, so benissimo che sarà difficile scardinare l'uso di IA, ormai diffuso da 70 anni e che nell'ultimo periodo è esploso diventando parte del discorso comune. Va però ricordato che agli albori di questa disciplina, soprattutto nel mondo accademico, era molto diffusa l’espressione machine intelligence (= intelligenza delle macchine) che certamente serve meglio allo scopo di far capire che stiamo parlando di un tipo diverso di intelligenza. Tra l’altro, era quella usata da Alan Turing, l’informatico inglese che ha inventato il modello teorico di un computer che è ancora oggi il riferimento per tutti gli studiosi del settore e che ha aperto l’area di ricerca dedicata alla comprensione di cosa possa essere l’intelligenza di un computer.

Usare quest’espressione mette bene in rilievo che un'intelligenza meccanica decide in modo puramente razionale, prescindendo dalla natura delle persone e delle relazioni umane, e può aiutare le persone comuni a comprenderla meglio. Ne ho parlato, insieme a riflessioni più generali sul ruolo dei sistemi informatici nella società nella puntata 19 e nella puntata 20 del podcast “Onlife: psicologia della vita quotidiana con Internet”.

Parlare di intelligenza meccanica sarebbe inoltre utile per ricondurla al suo ruolo di potente amplificatore delle nostre capacità di ragionamento logico, così come le macchine industriali potenziano le nostre capacità fisiche. Potrebbe percepirsi meglio, ad esempio, che l'idea di delegare alle macchine cognitive processi decisionali finora svolti dalle persone non è un'idea molto democratica. Chi ritiene che governare la società umana attraverso l'intelligenza meccanica conduca a risultati migliori per tutti non ha compreso che il cosiddetto "bene comune" può emergere solo da un dibattito democratico. Oppure, lo sa benissimo, ed è interessato proprio a svuotare di significato la democrazia. Considerando che gli attori predominanti nel settore del digitale sono multinazionali con bilanci superiori a quelli di molti Stati, l'idea che essi vogliano incrementare in questo modo la loro sfera di influenza non è del tutto peregrina.

Usare le parole in modo appropriato è condizione necessaria per poter avere un dia-logo costruttivo.

--
Versione originale pubblicata su "StartMAG" il 25 febbraio 2024.

mercoledì 21 febbraio 2024

Si scrive IA si legge InformaticA

di Enrico Nardelli

Negli ultimi anni l'intelligenza artificiale (IA) è sulla bocca di tutti. Anche l'uomo della strada ha capito che si tratta di qualcosa di importante, dal momento che ogni giorno è presente sui media, con la scusa che “cambierà radicalmente il nostro futuro”. Certamente tutte le tecnologie hanno trasformato la società in modo importante, ma la nostra natura umana è sempre la stessa ed è importante riflettere se certi messaggi vengono ripetuti in modo ossessivo per il nostro bene o per servire interessi altrui. Cui prodest ?, bisognerebbe chiedersi, ma non è questo il tema di codesta riflessione.

Nel novembre 2020 ero stato invitato a una tavola rotonda su "L'insegnamento dell'intelligenza artificiale in Italia” organizzata dall’AIxIA (Associazione Italiana per l’Intelligenza Artificiale) nell’ambito del loro convegno annuale. Nel corso del mio intervento, intitolato un po’ provocatoriamente proprio “Si scrive IA si legge InformaticA”, avevo osservato che l’esplosione dell’IA stava finalmente facendo capire a tutti l’importanza dell’informatica. Purtroppo, a questo risveglio dell’attenzione si accompagnava, e si accompagna ancora, una visione che ritiene l’IA sia qualcosa di diverso dall’informatica.

In realtà l'IA è una delle aree dell'informatica, tra le più antiche, perché il desiderio di creare qualcosa a nostra immagine e somiglianza è sempre stato forte nell'umanità. Storicamente il termine nasce nel 1955 con una richiesta di finanziamento che alcuni pionieri USA dell’informatica sottoposero alla National Science Foundation per svolgere a Dartmouth un progetto di ricerca della durata di 2 mesi (sic !). Il presupposto su cui era basato era questo: «ogni aspetto dell’apprendimento o di ogni altra caratteristica dell’intelligenza può in linea di principio essere descritto in modo così preciso che si può costruire una macchina in grado di simularlo». Anche se normalmente, quando si scrive una proposta di ricerca, si esagera sempre un pochino per impressionare positivamente chi dovrà decidere sul finanziamento, fa un po’ sorridere – a posteriori – l’ingenuità espressa in quest’affermazione, anche perché la proposta proseguiva argomentando che «un significativo avanzamento su alcuni di questi problemi si può ottenere se un gruppo attentamente selezionato di scienziati ci lavorerà sopra per un’estate». In chiusura, la proposta conteneva una descrizione più cauta e appropriata del problema dell’intelligenza artificiale, descrivendolo come «quello di una macchina che si comporta in un modo che sarebbe chiamato intelligente se fosse il comportamento di un essere umano». In effetti questa similitudine è proprio quella che applichiamo noi per descrivere come intelligente qualcosa di non umano, rimanendo perfettamente consapevoli che si tratta di un “come se” e non della “cosa reale”. Si tratta di un aspetto importantissimo, che invece troppo spesso – quando parliamo di tecnologia – tendiamo a dimenticare.

Comunque, la proposta fu approvata e nel 1956 si svolse l’incontro che battezzò al mondo il termine “intelligenza artificiale” e diede il via allo sviluppo di questo settore dell’informatica. I suoi prodotti – anche grazie a questo nome – esemplificano in modo lampante, ma non esclusivo, le capacità rivoluzionarie dell’informatica. Si tratta della possibilità di costruire quelle che ho definito “macchine cognitive”, cioè macchine che sono in grado di replicare le capacità cognitive logico-razionali dell’essere umano, costituendo – proprio grazie al fatto che sono macchine che non si stancano e non si distraggono – un potente ausilio per le attività cognitive dell’essere umano. Semplificando, possiamo dire che l’automobile sta alle nostre gambe come le “macchine cognitive” stanno al nostro cervello.

Tuttavia, come ho scritto nel novembre 2018, insieme a un gruppo internazionale di esperti, in un rapporto sul codice software sorgente come patrimonio dell’umanità per lo sviluppo sostenibile, in generale né i decisori né il grande pubblico sono consapevoli del fatto che questi artefatti informatici sono radicalmente diversi da qualsiasi precedente congegno creato dall’uomo, che è in genere in grado di potenziare solo le capacità fisiche e sensoriali delle persone. I programmi informatici (cioè il codice sorgente) sono una particolare rappresentazione della conoscenza umana, non nella consueta forma passiva e statica usata per secoli attraverso i libri, ma in un modo nuovo. Si tratta di actionable knowledge, cioè conoscenza pronta per essere messa in azione con l'hardware appropriato e in grado di interagire dinamicamente con il mondo. Il codice sorgente rappresenta quindi una meccanizzazione della conoscenza umana che non ha precedenti nella storia dell’umanità.

Queste “macchine della conoscenza” aumentano le capacità cognitive del genere umano, come le macchine industriali hanno accresciuto ed esteso le capacità fisiche e sensoriali delle persone negli ultimi tre secoli, ma non hanno la capacità di apprendimento e l’adattabilità dell’intelligenza umana.

Senza una comprensione approfondita di questa fondamentale differenza tra una macchina cognitiva e una persona, che è quanto di più lontano da una macchina possa esistere, il ruolo dei sistemi informatici nella società non può essere realmente capito. Ne ho discusso in profondità nel mio libro “La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale”.

Con l’arrivo della variante più potente dell’intelligenza artificiale, la cosiddetta Intelligenza Artificiale Generativa (IAG), la situazione rischia di essere ancora più complicata, visto che la nostra natura umana invariabilmente ci porta ad attribuire alle macchine cognitive, anche a causa delle parole che usiamo, più di quanto esse siano in grado di fare. Il deplorevole stato dello sviluppo del software, che nonostante 60 anni e più di ricerca è ancora incapace di produrre artefatti con lo stesso livello di qualità e prevedibilità delle altre costruzioni dell’ingegneria, fa il resto. Le conseguenze possono andare dalla semplice inefficacia dei sistemi informatici, che non riescono a svolgere le funzioni per cui sono stati pensati o lo fanno solo a prezzo di grande stress ed enorme fatica da parte nostra, alla vera e propria disumanizzazione degli esseri umani, trattati alla stregua di cose, oggetti disincarnati di cui poter disporre a piacimento.

In maniera analoga al famoso detto “la bellezza è negli occhi di chi guarda”, possiamo sostenere che per le macchine cognitive “l’intelligenza è nel cervello di chi legge”. In precedenti articoli ho discusso alcuni aspetti che devono essere tenuti in considerazione, quando si parla dell’uso degli strumenti dell’IAG, dal punto di vista sociale, per la formazione universitaria e per quella scolastica, sia in generale che in modo più specifico.

La questione terminologica è dunque importante: la riprenderemo discutendo più in dettaglio l’espressione “intelligenza artificiale” in un prossimo articolo.

--
Versione originale pubblicata su "StartMAG" il 18 febbraio 2024.

venerdì 9 febbraio 2024

Per il futuro digitale “ci vuole un fisico reale”

di Enrico Nardelli

C’erano state da un po’ di tempo delle avvisaglie. Con l’arrivo degli strumenti di intelligenza artificiale generativa (IAG) si erano dapprima levati alti lamenti contro la diffusione della disinformazione, tema certamente assai delicato, ma che spesso viene trattato con un’imbarazzante amnesia selettiva della storia dell’umanità, nella quale chi ha avuto il potere ha sempre usato e piegato l’informazione al fine di mantenerlo ed estenderlo (ripagato, per quanto possibile, da chi questo potere non l’aveva e voleva conquistarlo). Ci si è spinti, in nome della “corretta” informazione, a demonizzare ogni opinione o discussione che osa avvenire su media non tradizionali, dimenticandosi della lezione di Gramsci sui giornali come strumento di lotta per gruppi di interesse che hanno i mezzi per cercare di influenzare l’opinione pubblica, arrivando addirittura a trasformare i punti di vista scientifici in verità di fede cui credere ciecamente.

Poi abbiamo assistito alla diffusione di articoli generati da questi strumenti e pubblicati da chi un tempo era riconosciuto come autorevole. Sono successivamente arrivati canali di “notizie personalizzate” presentate in video da giornalisti generati sinteticamente. Poche settimane fa, abbiamo visto una famosa cantautrice americana essere colpita dalla diffusione virale di sue finte foto pornografiche, generate appunto con l’IAG. A discredito di una categoria che fino a un po’ di anni fa aveva ancora un rigore etico pressoché assoluto nella pubblicazione, stiamo assistendo al fenomeno – imbarazzante per chi fa questo mestiere ed è, come me, stato formato in un’altra epoca – di sempre più ricercatori che usano allegramente la generazione sintetica per inondare le riviste scientifiche di falsi articoli.

Adesso è arrivata la prova definitiva che i soli avvenimenti ai quali potremo davvero credere in futuro saranno quelli che avverranno alla nostra presenza. In una società finanziaria, un impiegato è stato indotto a trasferire 25 milioni di dollari verso un conto corrente truffaldino mediante una riunione virtuale avvenuta in video-conferenza, alla quale ha partecipato il direttore finanziario della società stessa insieme ad altri membri dello staff. Tutti però, tranne il malcapitato che ha poi operato il trasferimento, erano stati generati sinteticamente dall’IAG. Secondo il resoconto, la truffa era iniziata con la solita mail di phishing ma, a causa delle giustificatissime perplessità dell’impiegato, si è poi evoluta in una vera e propria “sceneggiata” completamente inventata, ma che è andata a segno. Una nota di cautela (non si sa mai!): ho verificato, per quanto in mio potere, la veridicità della notizia me, se anche non lo fosse, non cambia la sostanza del mio argomento.

Dobbiamo essere consapevoli che questa è la realtà nella quale ci troviamo immersi. Come si usa ripetere in questi casi “il genio è fuori dalla bottiglia” e certamente sarà impossibile farlo rientrare. Perché comunque, questo è molto importante da ricordare, l’IAG può offrire enormi opportunità per migliorare ogni nostra attività, se sappiamo usarla bene. Come ho discusso nel mio libro “La rivoluzione informatica” essa costituisce un esempio tra i più potenti di una macchina cognitiva, ovvero un’automazione delle capacità intellettive dell’essere umano, che replica su un piano più elevato ciò che una macchina industriale compie rispetto alle sue capacità fisiche. Siamo certamente sconcertati, dal momento che ciò accade a un livello riservato fino a pochi decenni fa esclusivamente alla specie umana, però sempre di un’attività meccanica si tratta. Il fatto che sia una macchina a svolgerlo lo vedo come un aspetto positivo. In questo senso sono completamente d’accordo con quanto disse alla fine dell’Ottocento Charles W. Eliot, che è stato per quarant’anni, dal 1869 al 1909, presidente dell’Università di Harvard, trasformandola in uno dei più importanti atenei americani: «Un uomo non dovrebbe essere usato per un compito che può essere svolto da una macchina».

Col dilagare dell’IAG diventerà sempre più rilevante la presenza fisica e ciò che fanno le persone direttamente. Mi aspetto, da un lato, lo sviluppo di un mercato di prodotti “culturali” artificialmente generati per il consumo di massa. Sta già accadendo per i libri (ad esempio le guide turistiche) e per la musica (ad esempio sulle piattaforme di streaming). Ma, dall’altro, questo riattribuirà a spettacoli teatrali, concerti ed eventi artistici in presenza, quel valore che stavamo dimenticando.

Ovviamente le conseguenze sociali di questo sviluppo tecnologico devono essere tenute in debito conto, perché rischiamo di trasformare, almeno in quest’Europa che ha visto nel secondo dopoguerra lo sviluppo di una società molto più equa ed equilibrata di quelle che avevamo nei secoli passati, le nostre comunità in nuovi domìni feudali, legati adesso non al possesso della terra ma a quello delle infrastrutture digitali.

Pensate ad esempio ai vari servizi che sono importanti in ogni società democratica: se non facciamo attenzione, chi può pagare avrà il medico o l’avvocato o l’insegnante umano, per tutti gli altri ci sarà quello sintetico. Cercheranno di convincerci che è per il nostro bene avere il professionista “artificialmente intelligente”, mentre invece servirà allo scopo per cui abbiamo visto usare la tecnologia digitale negli ultimi 50 anni. Cioè aumentare la produttività a salario sostanzialmente invariato, incrementando di conseguenza la quota profitti senza far partecipare la classe lavoratrice a questo beneficio e quindi, in ultima analisi, allargando il divario tra le classi sociali.

Giustamente, Daniel Dennett, uno dei pensatori più acuti nel settore dell’intelligenza artificiale, ha argomentato che l’utilizzo non dichiarato di persone fittizie dovrebbe essere un crimine perseguito con la stessa severità con cui vengono perseguiti gli spacciatori di denaro falso. È in gioco, ha sostenuto a ragione, il futuro della nostra civiltà.

In un mondo in cui ogni documento è diventato digitale e perciò facilmente alterabile o generabile a piacere, esso perde la sua valenza di testimonianza su ciò che è successo. A meno che non sia chiaramente legato in modo chiaro e non disconoscibile ad un autore affidabile e credibile. Cominciano ad essere disponibili soluzioni tecnologiche basate sulla certificazione dell’identità e autenticità dello strumento usato per generare un certo contenuto (sta accadendo nel campo della fotografia). In sintesi, è lo stesso principio della carta d’identità elettronica con cui possiamo dimostrare chi siamo quando operiamo sulle piattaforme digitali. Non è detto che siano definitive: ad esempio, non abbiamo ancora un utilizzo generalizzato dei tanti meccanismi di certificazione della provenienza dei messaggi di posta elettronica che pure sono stati inventati da decine di anni. Né va mai dimenticato che anche queste soluzioni, pur se assai sofisticate, possono essere alterate, disponendo di risorse sufficienti e sfruttando le opportune circostanze. E va fatta anche attenzione a non esasperare questo approccio pretendendo di certificare ogni espressione del pensiero umano, poiché ciò – impedendo di fatto il dissenso – porterebbe alla distruzione della democrazia.

Pertanto, sempre di più, nel nostro futuro digitale, le radici della fiducia torneranno ad essere legate agli esseri umani e al rapporto in presenza.

Si tratta di un ritorno all'antico che spero impareremo a riapprezzare, di cui vi è una testimonianza linguistica (che dovrebbe ricordare chi ha fatto il classico) nel verbo del greco antico che esprime l'azione di "sapere" (io so = οἶδα), che altro non è che il tempo passato del verbo che esprime l'azione di "vedere" (io vedo = ὁράω). Quindi, "io so" perché "io ho visto", in prima persona. Spero davvero sia questo il motivo dominante del nostro futuro: la sempre maggiore importanza del piano fisico in una società sempre più digitalizzata.

Il futuro che vale la pena vivere sarà in presenza: possiamo quindi dire, per parafrasare una famosa canzone, “ci vuole un fisico reale”.

--
Versione originale pubblicata su "StartMAG" il 6 febbraio 2024.

domenica 7 gennaio 2024

Il ciclone ChatGPT e la scuola: 5 punti chiave

di Enrico Nardelli

In questi mesi nel mondo della scuola c’è un enorme subbuglio – soprattutto tra i docenti, a causa degli strumenti di intelligenza artificiale generativa (che nel seguito chiamerò, per brevità, IAG), di cui il più noto è ChatGPT. Come mai sta accadendo questo? Per cominciare, gli strumenti di IAG sono oggettivamente in grado di esibire prestazioni (nella produzione di testi, ma anche di immagini, e di molti altri prodotti cognitivi tipicamente realizzati dagli esseri umani) che in molti casi non sono distinguibili da quelle delle persone. Quindi, quelli che nella bella definizione di Stefano Quintarelli sono solo dei SALAMI (Systematic Approaches to Learning Algorithms and Machine Inferences = approcci sistematici per [lo sviluppo di] algoritmi di apprendimento e [sistemi di] deduzione automatica), vengono, a causa di un processo di proiezione che è tipico degli esseri umani che vedono significati dappertutto, erroneamente percepiti nell’interpretazione comune come delle entità realmente intelligenti.

Poi, sono in gioco enormi interessi commerciali, miliardi di euro (o dollari) investiti annualmente per tentare di accaparrarsi quote di mercato che si proiettano in valori almeno mille volte maggiori. Questi spingono ogni giorno, in modo incessante, a descrivere sui mezzi di comunicazione scenari che oscillano dal fantascientifico (risolveremo tutti i problemi dell’umanità) all’apocalittico (perderemo tutti il lavoro), ma sempre finalizzati a costruire una convinzione di ineluttabilità: non c’è alternativa! In particolar modo, dal momento che il modo migliore di convincere qualcuno ad usare un certo prodotto è quello di abituarlo all’uso sin da piccolo, il settore della scuola è quello su cui si concentra la maggiore pressione.

Inoltre, gli strumenti di IAG sono ormai integrati nell’appendice tecnologica di cui tutti siamo dotati, lo smartphone e quindi, volenti o nolenti, tutti si trovano ad utilizzarli. È inevitabile! si ribadisce in continuazione. Il termine “innovativo” viene poi usato come passepartout per convincere chi non è esperto, trascurando di considerare quali possono essere le reali conseguenze di lungo periodo. Ricordiamoci di come nell’ultimo ventennio si siano fatti usare dispositivi digitali ai minori, anche piccolissimi, senza alcun reale controllo, per poi accorgersi che, come documentato nel rapporto finale del giugno 2021 dell’indagine conoscitiva “Sull’impatto del digitale sugli studenti, con particolare riguardo ai processi di apprendimento” svolta dalla Commissione “Istruzione Pubblica e Beni Culturali” del Senato, qualche problema è stato creato, e non di poco conto.

Ora, per limitarci agli strumenti di IAG testuali, cioè quelli che preparano dei testi rispondenti a quanto è stato richiesto (p.es.: quali sono i fatti salienti delle Guerre Puniche? oppure: scrivi una sintesi in 20 righe de “I promessi sposi”, o ancora: descrivi il processo di impollinazione delle piante), la conseguenza immediata sulla scuola è che uno dei modi più tradizionali di verifica delle competenze utilizzato giornalmente, ovvero lo svolgimento di compiti a casa, perde completamente di efficacia. È ovvio, a meno di non instaurare un clima proibizionistico che comunque sarebbe di qualche utilità solo per un breve periodo, che tutti gli scolari li svolgerebbero usando l’IAG.

La risposta non è però inventarsi improbabili modi di farli comunque usare agli studenti. Discuterò nel seguito i cinque punti critici di un approccio di questo genere. La risposta è dar maggior valore all’oralità e al rapporto in presenza. Quindi, meno compiti a casa e più lavoro in classe, il che implica avere classi più piccole e più insegnanti. Certo, servono soldi, ma sull’istruzione si gioca il futuro di un Paese. Un approccio di questo genere, tra l’altro, torna a dare valore alla componente relazionale del rapporto tra docente e studente. Sappiamo bene, almeno a partire dall’analisi fatta da Platone nei suoi Dialoghi, che la componente affettiva della relazione educativa tra didàskalos e mathetés, maestro e allievo, è un aspetto fondamentale della paideia, la crescita etica e spirituale del discepolo. Questa componente può essere arricchita dalla tecnologia, se opportunamente utilizzata, ma mai, mai sostituita, pena l’impoverimento e la distruzione della nostra umanità.

Alcuni comunque dicono: “trasformiamo la disponibilità dell’IAG in un’opportunità per un apprendimento migliore da parte degli studenti; facciamogli fare degli esperimenti con queste tecnologie che comunque si troveranno ad usare da grandi”. Ci sono in questo modo di fare alcuni punti critici assai importanti che vale la pena esaminare.

1) Si tratta di strumenti ancora in fase di sviluppo, che spesso producono risposte che sembrano corrette, ma sono imprecise. Solo se conosciamo bene l’argomento sui cui l’IAG ha prodotto un testo possiamo accorgerci di ciò che non va. Dal momento che nella scuola, tanto più quanto più si è piccoli, l’acquisizione della conoscenza è proprio uno degli aspetti formativi fondamentali, è evidente che non è sensato rischiare che gli scolari apprendano conoscenze errate (se non addirittura viziate da pregiudizi o stereotipi).

2) Sono strumenti controllati dalle solite Big Tech, sui quali vi è un’assoluta mancanza di controllo su come sono stati messi a punto e funzionano, su quali dati siano stati usati per il loro addestramento e su quali prove di sicurezza siano state condotte. Per ogni tecnologia potenzialmente nociva le società hanno introdotto delle regolamentazioni. In questo caso ci sta provando l’Unione Europea con il cosiddetto “AI Act”, per il quale è stato recentemente annunciato l’accordo politico ma non sono noti i dettagli. Però nel frattempo se ne sta incentivando il più possibile l’uso, incuranti dei possibili rischi. Una prima grana è esplosa proprio negli ultimi giorni del 2023, con la notizia che il New York Times, uno dei giornali più noti e con la miglior reputazione al mondo, ha fatto causa per violazione di diritto d’autore a OpenAI e Microsoft perché avrebbero addestrato i loro strumenti IAG sui loro articoli senza esserne autorizzati. Altre se ne attendono a breve, relativamente agli strumenti IAG visuali, cioè quelli in grado di produrre immagini e video, dal momento che diversi utenti su X (precedentemente Twitter) hanno evidenziato che possono produrre immagini protette dal diritto autore, anche se l’utente formula la richiesta in modo generico.

3) Usare strumenti ancora in sviluppo vuol dire lavorare gratis per chi li sta mettendo a punto e magari un giorno ce li rivenderà. Ovvero, stiamo commettendo di nuovo lo stesso errore in cui siamo incorsi abbandonandoci senza pensare troppo a piattaforme sociali intrusive e abusive, che hanno raccolto quantità enormi di dati su di noi e le usano a scopo commerciale. Cosa ce ne viene in cambio? Quando si dice che dobbiamo insegnare ai docenti come fare le domande all’IAG per ottenere l’aiuto di cui possono aver bisogno (il cosiddetto prompt engineering) mi sento rabbrividire: ma davvero vogliamo trasformarli in forza-lavoro gratuita a disposizione delle Big Tech ?

4) Se anche gli strumenti dell’IAG dessero sempre risposte corrette (ma non è così), con il loro uso nei livelli inferiori della scuola non solo rischiamo che i nostri figli acquisiscano conoscenze errate, ma possiamo menomare le loro possibilità di crescita sul piano cognitivo, dal momento che in tal modo essi non le esercitano. Sintetizzare testi, argomentare una posizione, presentare un punto di vista sono competenze fondamentali per un qualunque cittadino. Se non li facciamo esercitare da scolari, non le acquisiranno mai. Un po’ come accade se ci spostiamo solo in automobile e mai a piedi o in bicicletta, le nostre capacità fisiche si indeboliscono. In aggiunta, mentre studiando sui libri ci si allena alla pluralità di punti di vista e modi di presentare un certo argomento, in presenza di pochissime sorgenti di conoscenza il rischio di un indottrinamento sociale, soprattutto per le materie umanistiche, è fortissimo.

5) Mi sembra incredibile il contrasto tra i continui inviti ad usarli e la mancanza di una seria valutazione di tipo etico relativa al coinvolgimento dei minori nell’uso di strumenti ancora sperimentali. Ma come, per qualunque sperimentazione che coinvolga i bambini è, giustissimamente, necessaria l’approvazione sul piano etico, e in questo caso invece niente? Per un recente progetto di ricerca nelle scuole primarie che confrontava due metodi di insegnamento di uno dei costrutti fondamentali dell’informatica, io e i miei colleghi abbiamo dovuto avere l’approvazione di un comitato etico, mentre in questo caso vedo esortazioni a far usare l’IAG a minorenni senza alcuna riflessione su questi aspetti, né su quelli relativi alla privacy. Ma voi vi immaginate se nei primi anni del Novecento i fratelli Wright avessero cominciato a far volare persone sui loro aeroplani mentre li mettevano a punto?

Si dice: ma non c’è alternativa, l’IAG è qua e fa parte della nostra vita. È vero che è già nella nostra vita, ma non c’è un assoluto bisogno di usarla nelle classi. Il che non vuol dire non parlarne o far finta che non esista. L’uso collettivo in aula, sotto il controllo e la guida del docente, accompagnato da una discussione critica, ovviamente al livello consentito dall’età dei bambini, costituisce un’utile informazione su una tecnologia che comunque incontrano. Ma non abbiamo davvero necessità che, allo stato attuale della tecnologia, gli studenti utilizzino regolarmente tali strumenti. Per i docenti, alcuni usi sono possibili, come ho descritto in un recente articolo, ma è necessaria un’estrema attenzione, vista la natura ancora sperimentale di questi strumenti e i pericoli legati alla disseminazione di dati personali dei minori. A questo proposito mi piacerebbe sapere se l’autorità Garante per la Protezione dei Dati Personali ha valutato se l’esortazione agli insegnanti di usare questi strumenti per migliorare la loro didattica, personalizzandola per le esigenze dei singoli studenti, possa mettere a repentaglio la privacy di questi ultimi.

Aggiungo, per essere ancora più chiaro: in un contesto in cui nelle scuole insegniamo le basi scientifiche dell’informatica, può certamente trovare spazio anche la didattica sui princìpi dell’intelligenza artificiale, che costituisce un settore molto importante dell’informatica stessa. Però, insegnare cos’è l’apprendimento automatico (= machine learning), cioè la tecnica fondamentale usata per l’IAG, a chi non sa cos’è un automa o un algoritmo è come tentare di far capire cos’è la trigonometria a chi conosce solo le quattro operazioni aritmetiche. Si può certo raccontare che la trigonometria permette di misurare la distanza tra due alberi al di là di un fiume senza attraversarlo, ma in assenza di un’adeguata base di matematica si tratta di semplice divulgazione. Utile certamente per il cittadino che ha poco tempo per studiare e che deve comunque essere aggiornato sugli avanzamenti scientifico-tecnologici, mentre nella scuola vanno fornite le basi scientifiche per comprendere il mondo intorno a noi, sia quello della natura che quello artificialmente costruito, che in misura sempre maggiore è digitale.

Ripensare l’intero curriculum scolastico alla luce della trasformazione ormai avvenuta da società industriale a società digitale è un passo indispensabile, molto, molto di più che inseguire le mode tecnologiche addestrando studenti e insegnanti all’uso degli strumenti di IAG.

--
Versione originale pubblicata su "StartMAG" il 4 gennaio 2024.

martedì 26 dicembre 2023

La raccomandazione europea sull’insegnamento dell’informatica nella scuola

di Enrico Nardelli

Mercoledì 6 dicembre si è svolta alla Camera la conferenza stampa, organizzata dall’Intergruppo Innovazione (gruppo bipartisan di parlamentari che hanno a cuore i temi dell’innovazione), dedicata all'approvazione da parte del Consiglio dell'Unione Europea della proposta di Raccomandazione della Commissione Europea sull'insegnamento dell'informatica nella scuola. Per l'Intergruppo hanno partecipato il senatore Lorenzo Basso (PD) e i deputati Giulio Centemero (Lega) e Giulia Pastorella (Azione). Per il mondo produttivo: Agostino Santoni (vicepresidente per il digitale di Confindustria) e Giorgio Binda (presidente nazionale Unimatica di Confapi). Il video della conferenza stampa è disponibile a questo link.

La Raccomandazione approvata affronta la necessità di far sì che l'istruzione supporti la trasformazione digitale, fornendo le competenze necessarie a questo scopo. Pertanto, viene raccomandato a tutti gli Stati Membri di sviluppare un’istruzione di qualità in informatica nell’istruzione sia primaria che secondaria.

In modo più specifico, si raccomanda di:

  • inserire un insegnamento di alta qualità in informatica dall’inizio dell’educazione obbligatoria, avendo stabilito in modo chiaro gli obiettivi di apprendimento, il tempo dedicato e i metodi di valutazione, allo scopo di offrire a tutti gli studenti la possibilità di sviluppare le loro competenze digitali in modo scientificamente ben fondato,
  • far sì che l’insegnamento dell’informatica sia erogato da insegnanti qualificati, che abbiano a disposizione risorse didattiche di qualità, approcci didattici ben fondati, e appropriati metodi di valutazione degli obiettivi di apprendimento.

Si manifesta quindi chiaramente a tutti gli Stati Membri la necessità di avere l’informatica come disciplina scientifica fondamentale per l’istruzione di tutti i cittadini nel 21-mo secolo. È un’indicazione quanto mai opportuna. Ricordiamo infatti che, con il passare da una società agricola ad una società industriale, il processo educativo delle persone è mutato, introducendo nell’istruzione obbligatoria elementi di quelle scienze (fisica, biologia, chimica, …) che sono alla base di ogni macchina industriale. Analogamente, nel passaggio dalla società industriale alla società digitale è necessario aggiungere nell’istruzione obbligatoria lo studio dell’informatica, indispensabile per comprendere le macchine digitali.

Questa raccomandazione è dunque una svolta epocale, che speriamo serva ad avviare finalmente in tutti i Paesi Europei una seria attività di formazione sull’informatica nella scuola. Ricordo che l’istruzione è una materia di competenza degli Stati Membri, per cui il ruolo dell’Unione Europea rimane sussidiario.

Tutti gli intervenuti sono stati concordi nel ribadire l’auspicio che in Italia venga avviata nella scuola un’intensa attività educativa in questa direzione, sottolineando l’importanza di fare sistema tra pubblico e privato.

In Italia, il Ministro dell’Istruzione e del Merito, Giuseppe Valditara, ha già da tempo dichiarato di voler rafforzare le preparazione scolastica nelle materie scientifiche, obiettivo quanto mai meritorio. Inoltre, dal momento che questa proposta della Commissione indica in modo evidente l’informatica come la materia scientifica alla base della preparazione per la società digitale, sarebbe opportuno integrare quanto previsto in tale settore, anche nell’ambito del PNRR, dove sono discusse solo le competenze operative di utilizzo della tecnologia digitale.

A questo fine, nella missione M4 (Istruzione e Ricerca) del PNRR è presente la sotto-componente C1.3 (Ampliamento delle competenze e potenziamento delle infrastrutture), che prevede l’investimento 3.1 (Nuove competenze e nuovi linguaggi), con l’obiettivo di «promuovere l’integrazione, all’interno dei curricula di tutti i cicli scolastici, di attività, metodologie e contenuti volti a sviluppare le competenze STEM, digitali e di innovazione», con a disposizione fondi per 1.100 milioni di euro.

Con il DM n.184 del 2023 sono state pubblicate le linee guida STEM, che danno solo indicazioni, necessariamente non dettagliate, su cosa fare relativamente alle competenze digitali. A tal proposito, si fa notare che il Laboratorio Informatica e Scuola del CINI, il Consorzio che raggruppa più di 50 università statali italiane attive nel settore dell’informatica ed è quindi l’istituzione di riferimento in Italia per la formazione in informatica, aveva preparato, già da dicembre 2017, una proposta molto dettagliata dei traguardi di competenze e degli obiettivi di apprendimento per l’insegnamento dell’informatica in tutte le fasce dell’istruzione obbligatoria, che viene citata in una nota delle linee guida stesse.

Il Ministero, con DM n.65 del 12 aprile 2023, ha già assegnato 600 milioni di euro alle scuole per lo sviluppo delle competenze STEM degli studenti: ogni istituto dovrà preparare i relativi progetti seguendo tali linee guida. Osserviamo preliminarmente che, per garantire sostenibilità nel lungo periodo ai processi di trasformazione digitale, in aggiunta alla formazione degli studenti è necessaria quella degli insegnanti, così da consentire di preparare i ragazzi anche negli anni successivi ai fondi PNRR. Inoltre, riteniamo che per aumentare l’efficacia dell’azione ministeriale occorra fornire agli istituti coinvolti, ben inteso senza ledere l’autonomia scolastica, indicazioni precise sui contenuti.

In quest’ottica, è utile guardare a chi, dei grandi paesi Europei, ha affrontato questo snodo prima di noi e può quindi indicarci una strada. Vi è l’esempio del Regno Unito. Nell’a.s. 2014-15 aveva inserito un curricolo di informatica obbligatorio per tutte le scuole. Nel novembre 2017 un rapporto della Royal Society aveva evidenziato che però la situazione era addirittura peggiorata. Allora nel novembre 2018 il governo ha deciso uno stanziamento di 84 milioni di sterline per la creazione, concretizzatasi nel 2019, di un istituto nazionale per l’insegnamento dell’informatica, il National Centre for Computing Education, che sta per essere rifinanziato.

Sulla linea di investimento 3.1 dovrebbero essere rimasti fondi in quantità sufficiente per un intervento di questo genere, imprescindibile se si vuol preparare il Paese alla transizione digitale.

È quindi indispensabile una chiara determinazione in questa direzione da parte della politica, che sia anche supportata da intese larghe e trasversali, per guidare una trasformazione che richiederà almeno un decennio per essere completata. Solo così potremo garantire alle future generazioni la possibilità di governare il loro futuro digitale.

--
Versione originale pubblicata su "StartMAG" il 23 dicembre 2023.

mercoledì 22 novembre 2023

Intelligenza artificiale e scuola: facciamo chiarezza

di Enrico Nardelli

Stiamo osservando una corsa frenetica all’utilizzo degli strumenti di Intelligenza Artificiale (IA) nel mondo della scuola, quando essi presentano ancora alcuni aspetti critici che, soprattutto in questo settore in cui gli interventi sono grado di produrre effetti di lungo periodo, andrebbero invece considerati con estrema attenzione e studiati con tempi maggiormente dilatati. Mi sembra importante evitare che accada qualcosa di simile a quanto avvenuto con l’utilizzo dei dispositivi digitali, introdotti a tappeto nel settore dell’istruzione nel corso degli ultimi vent’anni e per i quali solo recentemente si sta facendo attenzione ai problemi che tale uso eccessivo ha creato. Si veda a tal proposito il documento finale, pubblicato nel giugno 2021, dell’indagine conoscitiva “Sull’impatto del digitale sugli studenti, con particolare riguardo ai processi di apprendimento” svolta dalla Commissione “Istruzione Pubblica e Beni Culturali” del Senato.

Espongo quindi nel seguito qualche elemento utile ad una riflessione più meditata su questo tema.

Prima di iniziare è necessario ricordare che i vari livelli della formazione (primaria, secondaria inferiore, secondaria superiore, terziaria, professionale) hanno esigenze diverse e richiedono approcci diversi. In questo articolo mi concentro quindi sul settore scolastico. Del mondo universitario ne ho parlato qua. Agli studenti di un corso di laurea magistrale, che hanno già competenze di base in un certo settore e le devono approfondire e raffinare, si può, ad esempio, chiedere che esaminino criticamente elaborati prodotti da strumenti dell’IA, come importante esercizio di verifica del loro livello di preparazione. Questo approccio non mi sembra invece così rilevante nel mondo scolastico, dove i discenti stanno ancora formando le loro competenze di base. Per poter criticare bisogna prima di tutto sapere e saper fare.

Bisogna poi distinguere tra i diversi ruoli per la fruizione dell’IA nella scuola: studenti, docenti, personale amministrativo. Le ultime due categorie possono usare questi strumenti per essere aiutati nello svolgimento di attività ripetitive (facendo attenzione agli aspetti relativi alla privacy dei dati ad essi forniti), laddove per gli studenti l’esercizio, anche ripetuto, delle funzioni cognitive non può essere evitato (mediante l’uso di questi strumenti) pena l’inevitabile carenza che ne conseguirebbe per lo sviluppo delle loro competenze. Questo elemento viene troppo spesso dimenticato, laddove un’esperienza educativa plurisecolare ci ricorda che non solo le capacità fisiche ma anche quelle intellettuali hanno necessità di esercizio costante e ripetuto per poter essere sviluppate.

Inoltre, è necessario differenziare tra uso della tecnologia e formazione sui suoi princìpi scientifici: si tratta di una distinzione troppo spesso ignorata. Gli strumenti dell’IA, pur potendo essere enormemente utili nel lavoro cognitivo razionale, cioè quello che a partire da elementi oggettivi consente di produrre nuovi dati logicamente consistenti con quelli di partenza e conseguenti da essi (qualcosa che – più in generale – fanno tutti i sistemi informatici, le “macchine cognitive” di cui ho parlato nel mio libro “La rivoluzione informatica”), hanno dei meccanismi di funzionamento abbastanza complessi che, per poter essere compresi, richiedono di essere introdotti solo in presenza degli adeguati prerequisiti matematici e scientifici che normalmente la scuola non fornisce.

Infatti, in Italia siamo ancora in ritardo sulle competenze scientifiche di base necessarie per poter affrontare con successo la transizione digitale (su questo tema invito a consultare gli atti del convegno svolto il 19 ottobre u.s. presso l’Accademia dei Lincei in tema di insegnamento dell’informatica nella scuola), come raccomandato ad Aprile 2023 della Commissione Europea di aprile 2023, COM(2023) 206 final, che ha esortato tutti gli stati membri a inserire un’istruzione di alta qualità sull’informatica fin dall’inizio dell’istruzione obbligatoria. Il grande pubblico non ha ancora capito cos’è davvero l’informatica, la disciplina scientifica alla base del mondo digitale. L’IA è un settore molto specialistico dell’informatica e se, come per molti altri settori dell’informatica, gli strumenti che esso produce sono utilizzabili anche dall’uomo comune, una comprensione dei suoi meccanismi di funzionamento deve essere basata su conoscenze di base di informatica che al momento le persone comuni non posseggono. Invece, è come se cercassimo di spiegare il calcolo differenziale e integrale a chi non ha mai studiato matematica nella scuola.

Infine, ma non meno importante, bisogna valutare rischi e benefici dell’inserimento degli strumenti dell’IA nella scuola. Essi possono apportare vantaggi, per alcune tipologie di utenti, riducendo la fatica legata ad attività cognitivo-razionali di tipo ripetitivo, ma i possibili vantaggi vanno valutati alla luce anche dei potenziali effetti negativi: riduzione della privacy, diffusione di disinformazioni, generazione di testi scorretti perché basati esclusivamente sulla statistica (le cosiddette allucinazioni – ne ho parlato qua), consumo energetico e relativo impatto ambientale (una query fatta ad uno strumento basato sull’IA ha un costo decine di volte superiore a quello di una query fatta ad un normale motore di ricerca), disumanizzazione del rapporto docente-studente in cui la componente relazionale è un aspetto essenziale.

Gli strumenti di IA possono infatti portare a una maggiore produttività per i docenti, se attraverso di essi riescono a ridurre il tempo dedicato alle attività ripetitive consentendo quindi loro di dedicarsi maggiormente alla cura degli studenti maggiormente bisognosi. Tra queste attività di routine ricordiamo, ad esempio: generazione di testi di esercizi e di esame, generazione di presentazioni a partire da testi (sommarizzazione), generazione di testi a partire da indici fini, fornire spiegazioni a richieste di chiarimenti semplici, etc. Ovviamente, è fondamentale essere sempre consapevoli che hanno dei margini di errore che richiedono di controllare sempre quanto da essi prodotto (e, quindi, di conoscere bene l’argomento che viene trattato) e che la responsabilità ultima è sempre della persona.

In generale, invece, il loro uso non sorvegliato da parte degli studenti per l’attività scolastica è da evitare. Alcuni, ad esempio, hanno suggerito che essi potrebbero usarli a casa per ottenere una prima valutazione dei loro compiti. Un po’ bizzarra, come idea, visto che a questo punto potrebbero poi anche usarli per produrre i compiti stessi! Ma soprattutto, alla luce delle possibili allucinazioni in cui questi strumenti incorrono, sono proprio gli studenti che più hanno bisogno di questa funzione quelli che meno sono in grado di rendersi conto di eventuali errori da essi commessi. Ovviamente gli studenti avranno comunque accesso ad essi attraverso i loro smartphone, e quindi bisognerà resistere a tentazioni proibizionistiche in favore di un’opera di informazione e diffusione di conoscenza, condotta – ad esempio – attraverso l’uso collettivo e la discussione critica nella classe. D’altro canto, è questa probabilmente è una buona notizia, il fatto che attraverso di essi sia possibile a chiunque produrre un testo scritto di buon livello, implicherà un ritorno e una maggiore presenza di rapporti umani diretti e dialogo orale.

Per alcuni indirizzi di scuola, penso in particolare agli istituti tecnici per l’informatica, andranno adeguati i curricoli (e sviluppato il necessario aggiornamento professionale per i docenti) per inserire un’adeguata formazione scientifica e tecnologica su questo settore, che influenzerà in modo significativo il mondo del lavoro nel prossimo futuro. Dato che chi sceglie questo indirizzo tecnico è generalmente orientato a entrare, al suo completamento, direttamente nel mercato del lavoro, è giusto che la preparazione in quest’ambito divenga parte della loro formazione.

Per concludere, sarà fondamentale che gli strumenti di IA usati nel mondo della scuola siano controllati/vigilati dal settore pubblico, onde evitare i rischi connessi a realizzazioni esclusivamente commerciali, che non hanno controlli indipendenti su come sono stati realizzati, con quali dati sono stati addestrati, a quali verifiche di sicurezza sono stati sottoposti, come usano e manipolano i dati forniti, in quali possibili discriminazioni legate al genere o ad altre diversità possono incorrere. Sono tutti aspetti che hanno un elevato impatto sociale e che per questo motivo richiedono il massimo livello di attenzione. Va anche ricordato che si tratta di una tecnologia ancora in fase sperimentale e che ogni nostra interazione con essa è un contributo al suo sviluppo fornito del tutto gratuitamente. Sarebbe accettabile solo per uno strumento posseduto dalla collettività e i cui miglioramenti vanno comunque a vantaggio di tutti.

Circa vent’anni anni dopo l’arrivo delle consolle di videogiochi e quindici anni dopo la diffusione degli smartphone in Italia, la Commissione Parlamentare citata in apertura concludeva la sua indagine con queste parole: «Ci sono i danni fisici ... E ci sono i danni psicologici ... Ma a preoccupare di più è la progressiva perdita di facoltà mentali essenziali, le facoltà che per millenni hanno rappresentato quella che sommariamente chiamiamo intelligenza: la capacità di concentrazione, la memoria, lo spirito critico, l’adattabilità, la capacità dialettica... Sono gli effetti che l’uso, che nella maggior parte dei casi non può che degenerare in abuso, di smartphone e video-giochi produce sui più giovani ». Non vorrei che tra altrettanto tempo una nuova Commisione Parlamentare arrivasse alle stesse (forse più) terribili conclusioni in riferimento all’uso degli strumenti dell’Intelligenza Artificiale.

Il futuro dei nostri figli è troppo importante per sacrificarlo sull’altare della produttività e del progresso tecnologico.

--
Versione originale pubblicata su "StartMAG" il 19 novembre 2023.

giovedì 19 ottobre 2023

Il successo di ITADINFO: quando la passione e le persone fanno la differenza

di Enrico Nardelli

È appena finito ITADINFO, il convegno italiano sulla didattica dell'informatica nella scuola, che ha avuto a Bari la sua prima edizione. Ne scrivo a caldo, prima che la memoria di questi tre giorni inizi ad essere ricoperta dai nuovi impegni.

Quando con i colleghi del Laboratorio Informatica e Scuola, che raccoglie chi svolge attività di ricerca in questo ambito, avevamo discusso negli anni passati l'idea di avviare iniziative dedicate in modo specifico agli insegnanti, avvertivamo in qualche modo la loro importanza ma non sapevamo ancora quale avrebbe potuto essere la risposta da parte dei docenti. Insomma, di mestiere facciamo i ricercatori e i didatti, mentre far partire un convegno nazionale è un'attività più imprenditoriale, non esattamente nelle corde di un accademico. Teniamo presente che qui non stiamo parlando di sicurezza informatica o intelligenza artificiale, per le quali ci sono (giustamente) un'estrema attenzione e una grandissima disponibilità di risorse da parte di enti e istituzioni.

Qui si tratta di scuola, settore di cui spesso molti si riempiono la bocca, ma che ha purtroppo conosciuto dagli anni '80 ad ora un continuo definanziamento e degradazione del ruolo sociale, spingendo al contempo per una sua trasformazione da servizio essenziale di formazione di cittadini dotati di conoscenze e pensiero critico a fabbrica che deve sfornare in modo sempre più efficiente "prodotti" pronti ad essere consumati dal mercato. Atteggiamento suicida per una società che, nel secondo dopoguerra, grazie anche alla scuola di quel periodo che non faceva sconti a nessuno, era riuscita nel 1987 a diventare, da Paese semidistrutto da una guerra mondiale che aveva perso, la quinta potenza economica al mondo. Per un’analisi di questa tendenza e delle sue nefaste conseguenze segnalo, ex multis, "Il danno scolastico", il bel volume di Mastrocola e Ricolfi dal significativo sottotitolo “La scuola progressista come macchina della disuguaglianza”.

Poi, un paio di iniziative pilota (nel 2020 e nel 2022, ottimamente organizzate dai colleghi dell'Università di Milano Statale) ci avevano confortato e, alla fine, anche con l'incoraggiamento degli organi direttivi del CINI, il Consorzio Interuniversitario Nazionale per l'Informatica di cui il Laboratorio è uno dei bracci operativi, ci siamo lanciati nell'organizzazione.

Abbiamo trovato sponsor che hanno avuto fiducia in noi, mettendo a disposizione quelle risorse economiche senza le quali solo in fantasiosi resoconti giornalistici si riescono a organizzare iniziative serie, e che ritengo quindi doveroso ricordare in segno di ringraziamento. Gli sponsor espositori: Axios Italia, Edizioni Themis, PLD Artech; e gli sponsor: SeeWeb e KnowK. Il Magazine che ospita questo mio articolo ci ha dato una mano sulla diffusione mediatica. Avevamo scelto Bari, come sede di questo primo convegno, anche perché è stato uno dei primi atenei ad attivare in Italia corsi di laurea in informatica (che a quel tempo si chiamava "scienze dell'informazione") e la Puglia è tuttora una delle regioni in cui la comunità dei docenti scolastici interessati dall’informatica è più numerosa e attiva. Città e Regione ci hanno dato subito il patrocinio. L’eccellente lavoro del comitato organizzatore locale, "le magnifiche tre" colleghe del Dipartimento di Informatica (Veronica Rossano, Enrica Gentile e Paola Plantamura), ci ha portato in una sede che è un capolavoro dell’architettura razionalista degli anni ’30 (date un’occhiata a storia e foto) e ha preparato un programma sociale coi fiocchi.

Le nostre aspettative hanno superato ogni più rosea previsione. La città, per chi di noi non ci era mai stato o mancava da parecchio tempo, si è rivelata affascinante e ci ha accolto con un clima semplicemente perfetto.

Anche la sessione iniziale dei saluti istituzionali si è trasformata in una tavola rotonda multidisciplinare e ricca di stimoli. Il rettore dell'Università Di Bari Stefano Bronzini ha sottolineato l’importanza di non trascurare il lato umano e la formazione umanistica quando si parla di innovazione, aspetto sul quale gli informatici sono via via maggiormente attenti, considerando che le tecnologie digitali incidono in modo sempre più profondo sulla vita delle persone e sulle loro relazioni sociali.

Eugenio Di Sciascio, vice sindaco di Bari, ha ricordato che il problema di questo Paese non è mettere computer nelle scuole e nelle aziende, ma creare competenza sulla capacità di capire e governare questi strumenti. Osservazione che purtroppo, nella corsa alla trasformazione digitale, viene spesso dimenticata e che invece spinge a rimettere il ruolo della didattica scolastica e universitaria al centro della riflessione e della pianificazione.

Su questa linea ha continuato Filippo Lanubile, direttore del Dipartimento di informatica dell’ateneo barese, chiedendo di ridare importanza alla valutazione dell’attività didattica nella valutazione della carriera universitaria, pena l’impossibilità di far crescere quelle professionalità che sono necessarie per affrontare le sfide che ci pone una formazione universitaria moderna.

Ernesto Damiani, il presidente del CINI, ha riportato questa esigenza generale allo specifico mondo della scuola, dove per governare nel modo migliore un futuro sempre più digitale sarà fondamentale insegnare l’informatica facendo attenzione a far capire gli aspetti concettuali della disciplina, evitando di considerarne solo gli elementi tecnologici.

Nel chiudere questo giro di considerazioni, la cui singolare concordia mi ha fatto immediatamente capire che con questo evento avevamo centrato il bersaglio, ho ripreso lo stimolo del rettore, non a caso un letterato. Ho ricordato come Platone nei suoi immortali Dialoghi, abbia – con estrema pregnanza – evidenziato la componente affettiva della relazione educativa tra didàskalos e mathetés, maestro e allievo, come un aspetto fondamentale della paideia, la crescita etica e spirituale del discepolo. E affinché questa componente eserciti il suo effetto non ci deve essere tecnologia di mezzo, ma compresenza in uno stesso luogo fisico. La tecnologia digitale può arricchire le relazioni umane, se opportunamente utilizzata, ma rischia di impoverirle e distruggerle, se male utilizzata. Di questo aspetto noi informatici dobbiamo essere estremamente consapevoli e assumercene la responsabilità, esattamente allo stesso modo con cui nella seconda metà del secolo scorso i fisici si sono impegnati per evitare che il nucleare conducesse l’umanità all’estinzione.

Il programma scientifico che si è poi sviluppato ha visto docenti scolastici e ricercatori universitari offrire e assistere a resoconti di esperienze e laboratori formativi, in un dialogo stimolante e arricchente. L'uditorio è stato, dal primo all'ultimo momento, sempre presente, attento e numeroso, esperienza non proprio abituale, come ben sa chi per mestiere va a convegni scientifici.

Alla fine, quasi non volevamo più smettere.

I complimenti da parte dei docenti che hanno partecipato (molti visibili sulla pagina social del convegno) ci hanno dato la spinta a continuare, con la voglia di creare una comunità sempre più attiva e collaborativa.

--
Versione originale pubblicata su "StartMAG" il 16 ottobre 2023.