Pagine

domenica 22 settembre 2024

Scienza e Istruzione: quo vadis Europa ?

di Enrico Nardelli

È stato pubblicato qualche giorno fa l’elenco proposto dalla confermata Presidente della Commissione Europea, Ursula von der Leyen, per i membri che saranno in servizio per il quinquennio 2025-2029. Ricordo che si tratta di una proposta, dal momento che è soggetta a un voto di approvazione del Parlamento Europeo. In tale elenco viene indicato, come accade anche in Italia per la proposta dei Ministri che il Presidente del Consiglio incaricato formula al Presidente della Repubblica, il titolo della delega assegnata ad ogni commissario (in Italia, è il titolo del Ministro).

Si tratta di un aspetto importante dal punto di vista politico, dal momento che le strutture burocratiche che supportano l’azione dei commissari, cioè i Dipartimenti (denominati Directorate-general, che in Italia corrispondono ai Ministeri), normalmente conservano lo stesso nome e la stessa struttura, mentre le deleghe assegnate esprimono la visione che il Presidente vuole imprimere al suo mandato.

Dato il mio ambito professionale, ho esaminato se e come era stata modificata quella che nella precedente commissione era la delega per “Innovazione, ricerca, cultura, istruzione e gioventù”.

Prima di tutto ho constatato che “ricerca e innovazione”, rispetto al mandato 2020-2024, sono state spostate in una delega separata per “Start-up, ricerca e innovazione”. La situazione nei 25 anni precedente era stata la seguente:
2014-19 (Juncker) – Ricerca, scienza e innovazione;
2010-14 (Barroso II) – Ricerca, innovazione e scienza;
2004-09 (Barroso I) – Scienza e ricerca;
2000-04 (Prodi) – Ricerca;
1995-99 (Santer) – Scienza, ricerca e sviluppo.

Quindi, mentre per cinque lustri, con una sola eccezione, era stata sempre assegnata una delega per la Scienza, si conferma adesso l’impostazione della precedente commissione che la Scienza non sia un tema che meriti un’attenzione politica. “Le parole sono importanti!”, si diceva in un famoso film. Ritengo che questa omissione sia inevitabilmente legata a ciò cui abbiamo assistito in questi ultimi anni con la trasformazione del dubbio scientifico in verità di fede. Penso che tale mutazione sia un tradimento dell’eredità di Galileo Galilei e che la comunità europea degli scienziati dovrebbe lottare per ristabilire la sua dignità.

In secondo luogo, la delega per la parte “cultura, istruzione e gioventù” è diventata una delega per “equità inter-generazionale, cultura, gioventù”. Lasciando a più fini esegeti l’analisi dell’espressione “equità inter-generazionale”, ricordo anche qui cosa era accaduto nei 25 anni precedenti:
2014-19 (Juncker) – Istruzione, cultura, gioventù e sport;
2010-14 (Barroso II) – Istruzione, cultura, multilinguismo e sport;
2004-09 (Barroso I) – Istruzione, formazione, cultura e gioventù;
2000-04 (Prodi) – Istruzione e cultura;
1995-99 (Santer) – Risorse umane, istruzione, formazione e gioventù.

In questo caso, quindi, almeno per 30 anni il tema dell’istruzione è stato un caposaldo nell’agenda politica della Commissione. Giustissimamente, dal momento che l’investimento nell’istruzione è il migliore che possa fare una comunità per assicurare a sé stessa un continuo miglioramento delle condizioni di vita. Secoli di storia stanno lì a dimostrarcelo. La lotta per l’istruzione obbligatoria per tutti è stata una delle conquiste fondamentali dei secoli XIX e XX, messa in moto dalla spinta illuminista verso una comprensione razionale del mondo e resa possibile dalla rivoluzione culturale causata dall’invenzione della stampa a caratteri mobili.

Adesso, un faticoso cammino plurisecolare rischia di venir cancellato con un colpo di penna. Se non insistiamo sul recuperare il fondamentale ruolo dell’istruzione (che non è l’educazione, come quelli che non sanno l’inglese traducono education) c’è davvero il rischio di un feudalesimo digitale, come ho discusso nel mio libro La rivoluzione informatica, di un nuovo Medioevo in cui signoreggiano tecno-feudatari incuranti delle masse.

Spero davvero di no, spero in un ravvedimento che possa avvenire durante il processo di approvazione di questa proposta.

Ricordo che già 5 anni fa, nella proposta di nomina della precedente Commissione, la delega assegnata alla Commissaria Mariya Gabriel era stata inizialmente intitolata solo “Innovazione e gioventù”. Di fronte alla vigorosa protesta di una ventina di premi Nobel, di più di trecento tra leader di centri universitari e di associazioni scientifiche e scienziati vincitori di finanziamenti dello European Research Council, e di più di 13.000 ricercatori, l’improvvida decisione fu modificata aggiungendo i temi della “ricerca, istruzione e cultura”.

Ci si sta provando una seconda volta: non è un bel segno. Spero che il Parlamento Europeo possa riflettere sulla domanda Quo vadis Europa ?

--
Versione originale pubblicata su "StartMAG" il 19 settembre 2024.

martedì 9 luglio 2024

La tragedia dell’istruzione digitale ovvero la rivincita di Platone

di Enrico Nardelli

No, non si tratta della situazione di cui si lamentano quelli (troppi, purtroppo) che sostengono che gli insegnanti italiani siano indietro perché «ignorano le potenzialità delle tecnologie digitali».

È invece la rivincita di quelli che, sottolineando la centralità dell’elemento umano nei processi educativi, hanno sempre ribadito che nell’istruzione non è un elemento davvero essenziale avere, ad esempio, un tablet per ogni studente o reti superveloci nell’intero edificio scolastico, mentre lo è avere insegnanti ben preparati e ben pagati, con un ruolo sociale riconosciuto e difeso. In un mio recente intervento ho ricordato come gli aspetti relazionali del rapporto tra docente e studente siano fondamentali per il successo del processo educativo. Si tratta di una riflessione elaborata da Platone nei suoi Dialoghi, dove si ritrova l’osservazione che la componente affettiva della relazione educativa tra didàskalos e mathetés, maestro e allievo, è un aspetto fondamentale della paideia, la crescita etica e spirituale del discepolo. La tecnologia, se opportunamente utilizzata, può essere eventualmente usata per potenziarla, ma non deve mai sostituirla, pena l’impoverimento e la distruzione della nostra umanità.

A questo punto abbiamo una certificazione autorevole che chi ha ragione tra queste due posizioni sono gli scettici dell’uso della tecnologia digitale nelle scuole e non gli entusiasti. Si tratta del recente rapporto UNESCO An Ed-Tech Tragedy? (= Una tragedia per l’istruzione digitale?), di cui, chissa perché, non mi pare si sia parlato molto sui grandi giornali d’opinione che avevano invece sottolineato come effetto positivo il fatto che la pandemia avesse costretto gli insegnanti italiani a “diventare digitali” (che mi sembra un po’ come tessere le lodi del Titanic perché è importante saper nuotare – ma lasciamo stare queste divagazioni).

Per farla breve, il rapporto sottolinea come all’inizio della pandemia la grande speranza fosse effettivamente quella di sfruttare questa situazione per diffondere nel mondo della scuola la tecnologia digitale. Come sempre accade, le motivazioni erano nobili e condivisibili: rendere il processo educativo più efficiente e metterlo a disposizione di tutti.

Invece, man mano che le soluzioni digitali venivano dispiegate come mezzo primario per erogare l’istruzione obbligatoria, ci si è accorti delle conseguenze dannose e non volute risultanti dalla transizione da un’educazione in presenza basata sulla scuola come luogo fisico ad un insegnamento a distanza supportato dalla tecnologia.

Il sommario del rapporto riporta che alcuni sostengono la tecnologia ha salvato una situazione di emergenza e preservato la continuità dell'apprendimento per un numero significativo di studenti, anche se non tutti gli studenti ne hanno tratto beneficio. Ma l'evidenza globale – prosegue il documento – rivela un quadro più cupo. Una dipendenza senza precedenti del sistema educativo dalla tecnologia si è tradotta in esclusione, disuguaglianza sconcertante, danni involontari e modelli di apprendimento che antepongono le macchine e il profitto alle persone.

Il semplice elenco dei capitoli della sezione del rapporto che analizza tali guasti (Act II: From Promises to Reality = Atto 2°: dalle promesse alla realtà) è sufficiente a far capire la portata del disastro compiuto:

  • la maggior parte degli allievi è rimasta indietro;
  • le disuguaglianze sono aumentate;
  • gli allievi si sono impegnati di meno, hanno raggiunto risultati inferiori, e hanno abbandonato l’istruzione obbligatoria;
  • l’istruzione è stata affossata e impoverita;
  • l’immersione nella tecnologia è stata dannosa per la salute;
  • i costi ambientali sono aumentati;
  • il settore privato ha rafforzato il controllo sull’istruzione pubblica;
  • una sorveglianza senza precedenti si è diffusa nel settore dell’istruzione.

Questi sono, lo ripeto, i titoli dei capitoli del rapporto dell’UNESCO sopra citato, non mie opinioni. Mi sembrano valutazioni assai rilevanti.

Il documento prosegue discutendo quali alternative avrebbero dovuto essere considerate, dal tenere le scuole aperte all’uso di soluzioni non tecnologiche.

La parte finale del rapporto fornisce alcune raccomandazioni per l’uso futuro della tecnologia digitale nel mondo dell’istruzione, che si auspica più rispettoso della componente umana, tra cui vale la pena sottolineare l’indicazione che sostiene che l’apprendimento in presenza ha la priorità su altre modalità e quella che sottolinea la necessità di difendere l’istruzione dalla diminuzione delle opportunità di usufruirne in modo libero, accessibile e disponibile, diminuzione che è conseguenza della tecnologia digitale.

Appunto, “la rivincita di Platone”.

--
Versione originale pubblicata su "StartMAG" il 6 luglio 2024.

lunedì 6 maggio 2024

Il doppio lato oscuro del digitale

di Enrico Nardelli

Chi crede nell’esistenza di un mondo spirituale ritiene che vi possano essere entità che prescindono dalla realtà materiale, ma per quelli agnostici non si dà una mente senza un corpo fisico. Per il digitale vale questo secondo punto di vista: i post sui social che sempre più incessantemente emettiamo (un miliardo al giorno su Facebook, mezzo miliardo su X, secondo questa fonte) hanno bisogno di appoggiarsi su qualcosa di concreto. La sempre più elevata attenzione all’impatto ambientale di ciò che l’umanità sta realizzando ha finalmente risvegliato la consapevolezza su questo elemento troppo spesso trascurato negli ultimi vent’anni, in cui la tecnologia digitale ha penetrato ogni risvolto delle nostre esistenze.

I bit saranno pure immateriali, da un punto di vista concettuale, ma non possono esistere senza una realtà fisica che li rende possibili. Da tale constatazione deve derivare l’attenzione a due “lati oscuri” (sia perché non immediatamente evidenti, sia perché potenzialmente negativi) legati alla dimensione fisica del digitale.

Affrontiamo il primo di questi lati oscuri. Nell’ubriacatura generale della società scatenata dalla diffusione nei primi venti anni di questo secolo delle tecnologie informatiche a (quasi) tutta la popolazione mondiale, ci si è dimenticati che chi controlla la dimensione fisica ha in pugno tutta la sfera digitale. Con Internet, possiamo credere di essere cittadini del mondo che viaggiano liberamente da un sito in Brasile a uno in India, ma in realtà chi controlla i sistemi fisici su cui i nostri percorsi digitali si snodano può, esattamente nello stesso modo con cui agisce un agente di dogana alla frontiera, impedirci l’accesso (ne parlo nel capitolo 7 “Impatto sociale dell’informatica” del mio volume La rivoluzione informatica).

La natura libertaria e anarchica con cui negli ultimi decenni del secolo scorso si era sviluppata quella rete Internet che è stata la condizione necessaria per la successiva esplosione, attraverso gli smartphone, delle piattaforme social, ci ha per molto tempo illuso. Invece, chi controlla “i fili elettrici” su cui transitano i bit continua, com’è sempre stata caratteristica di chi controlla le frontiere, ad avere il potere di decidere chi può passare e chi no.

L’importanza della dimensione fisica, richiamata anche in un recente intervento pubblico dell’eccellente collega Juan Carlos De Martin, sta pian piano riemergendo in modo sensibile, in conseguenza del frenetico sviluppo delle tecniche di elaborazione dati dell’intelligenza artificiale, che porta a consumare quantità di energia elettrica sempre maggiori, con un impatto ambientale significativo. John Hennessy, già presidente dell’università di Stanford e presidente del consiglio di amministrazione di Alphabet, la casa madre di Google, ha dichiarato all’agenzia di notizie Reuters che una ricerca fatta su un motore con l’intelligenza artificiale costa 10 volte di più di una ricerca tradizionale. Secondo uno studio di Alex De Vrjes, data scientist alla "De Nederlandsche Bank", pubblicato sulla rivista scientifica Joule, specializzata nel settore dell'energia, nel 2027 il settore dell'Intelligenza Artificiale potrebbe consumare complessivamente tra gli 85 e i 134 TeraWattOra, una quantità simile al consumo energetico annuale di paesi come Argentina, Olanda e Svezia.

C’è poi un ulteriore riflessione da aggiungere, legata sempre alla dimensione fisica: nonostante l’informatica, avvalendosi anche di tecniche matematiche, metta a disposizione metodi estremamente sofisticati di proteggere le informazioni scambiate, che sono alla base della sicurezza di tutti gli scambi di dati digitali (transazioni finanziarie, controllo degli accessi, etc.), chi controlla il livello fisico avrà sempre i mezzi per violare tali metodi. Nell’incorporeo universo della matematica 2+3 fa sempre 5, ma se il risultato di 2+3 deve essere computato da dispositivi fisici di cui non si ha il pieno controllo non è detto che faccia sempre 5. La crittografia è sicura solo se si rimane nell’astrazione dei teoremi matematicamente dimostrati. Quando un algoritmo viene calato nella realtà concreta dei sistemi digitali, non si può avere fiducia nella sua corretta esecuzione se non si controlla tutta la catena che dalla sua trascrizione in un programma informatico arriva fino al dispositivo fisico che lo esegue, incluso quest’ultimo, come aveva messo in evidenza sin dal 1984 Ken Thompson, ricercatore dei famosi laboratori Bell negli USA e uno dei due inventori del sistema operativo UNIX, successivamente premiato con il Turing Award – il premio Nobel per l’informatica.

Quindi, se non possediamo le infrastrutture fisiche attraverso le quali ci scambiano quei dati digitali che sono ormai essenziali per il buon funzionamento di ogni società avanzate, se non realizziamo e controlliamo quei sistemi informatici che animano tali infrastrutture, saremo sempre più colonia che stato sovrano.

Questa è un’analisi di tipo, diciamo così, “politico”, che andrebbe quindi assimilata prima di tutto da chi, per professione, fa il politico e poi da ciascun essere umano, zòon politikòn, cioè “animale politico”, secondo l’immortale definizione di Aristotele.

C’è poi un secondo “lato oscuro” del digitale (anch’esso nelle due valenze di non essere ben noto e di prestarsi ad usi potenzialmente malefici), che è importante conoscere. Gli elementi digitali con i quali interagiamo non sono quelli “passivi”, costituiti da dati che sono memorizzati in maniera più o meno permanente su qualche dispositivo fisico, ma quelli “attivi” rappresentati da un programma informatico in esecuzione su un qualche calcolatore. Però, mentre la nostra mente è indissolubilmente legata al nostro corpo fisico e noi possiamo attraverso di essa comprendere gli altri esseri umani e relazionarci pienamente ad essi proprio perché sappiamo di condividere un corpo fisico della stessa natura, l’interazione con un qualunque sistema informatico non avviene condividendo questa base comune.

Non solo, noi acquisiamo informazioni sul mondo attraverso gli organi fisici di senso del nostro corpo e le trasformiamo in dati per le nostre elaborazioni attraverso un dialogo bidirezionale che avviene tra essi e il nostro cervello, il che spiega come mai alle volte non ci si accorga di qualcosa che invece è presente in maniera sensibile. Al contrario, un qualunque sistema digitale o riceve rappresentazioni già definite (e chi controlla come vengono costruite influenza chiaramente l’esito della loro elaborazione) oppure attraverso dispositivi fisici che niente hanno in comune con i nostri sensi.

Ancora, mancando di un corpo fisico, qualunque sistema informatico è intrinsecamente privo della possibilità di avere autocoscienza, cioè coscienza di se stesso, e quindi di provare emozioni, che sono fondamentali per il buon andamento della società e per essere davvero in relazione con i nostri simili, e di essere consapevole di esse. Aggiungo che, se anche si riuscisse a dare un corpo fisico a un sistema di intelligenza artificiale, si tratterebbe sempre dell’autocoscienza di una specie aliena rispetto alla razza umana.

Si tratta di elementi assolutamente rilevanti, che dobbiamo aver ben presenti, per tutte le considerazioni che stiamo svolgendo sull’intelligenza artificiale e sull’utilizzo dei suoi strumenti nell’interazione con le persone. Essi infatti sembrano possedere caratteristiche tipiche dell’essere umano, quali la comprensione del linguaggio e delle situazioni. Però, non è così: ciò dipende essenzialmente dal fatto che noi proiettiamo le nostre capacità su ciò che essi producono (ne ho parlato qua, qua e qua) e la comprensione di questa fondamentale diversità tra persone e sistemi di intelligenza artificiale è essenziale. Essi sono “macchine cognitive” e, come tutte le macchine, possono essere di grande aiuto all’essere umano, purché facciamo sempre attenzione a non antropomorfizzarle.

Da qui ne consegue che non dobbiamo consentire in alcun modo che tali prodotti abbiano il potere di decidere su alcun aspetto della nostra esistenza. Possono fornire un utile ausilio informativo, ma la decisione finale e la sua intera responsabilità devono essere legate a un essere umano.

Questo è il punto chiave per il ruolo dell’intelligenza artificiale nella società.

--
Versione originale pubblicata su "StartMAG" il 1 maggio 2024.

mercoledì 28 febbraio 2024

Artificiale o meccanica, questo è il problema

di Enrico Nardelli

In un precedente articolo ho iniziato ad affrontare la questione terminologica legata all’uso dell’espressione “intelligenza artificiale” (IA), che ci porta ad attribuire agli strumenti digitali basati su di essa più di quanto essi siano in grado compiere.

Lo scenario non è facile da capire bene, soprattutto per i non addetti ai lavori, dal momento che le parole che compongono tale termine non aiutano la comprensione comune. Infatti, nell’espressione “intelligenza artificiale” l’aggettivo “artificiale” dà al sostantivo “intelligenza” solo una qualificazione ontologica, cioè che indica la natura costitutiva dell’ente ma non ne descrive le funzioni. Quali siano queste funzioni viene invece comunicato dal sostantivo stesso. Per chiarire attraverso un esempio più comune, quando parliamo di “cuore artificiale” è chiaro a tutti che si tratta di un oggetto fatto di una sostanza diversa da quella di quell'organo che ognuno porta nel petto (è artificiale) ma svolge le sue stesse funzioni (è un cuore).

Per questo, l’espressione “intelligenza artificiale” esprime sì correttamente il fatto che si tratta di qualcosa costituito da una materia diversa da quella sulla quale si basa l’intelligenza umana, ma inganna completamente il senso comune facendo pensare che di vera e propria intelligenza umana si tratti. Certo, indichiamo come intelligenti anche alcuni comportamenti manifestati da cani o gatti o cavalli o scimmie. Però, quando diciamo che un animale è intelligente lo facciamo esattamente perché, in una o più occasioni, si è comportato “come se” fosse stato una persona, ma l'immediatezza vividamente percepibile della sua natura non umana ci impedisce di attribuire ad esso più di quanto c'è nell'uso metaforico del termine. Data la nostra assuefazione alle interazioni digitali, quando invece riceviamo un risultato prodotto da uno strumento dell’IA, poiché la sua natura fisica fatta di circuiti elettronici è nascosta, tendiamo a vedere – a causa di questa espressione evocativa ma imprecisa – più di quello che c’è, trascurando quell’aspetto essenziale del “come se”.

Dovremmo invece chiamare l’IA “intelligenza meccanica”, dal momento che “meccanico” è un aggettivo che descrive le modalità di funzionamento o comportamento di una macchina. Si pensi, ad esempio, all’uso dell'espressione "comportamento meccanico" in opposizione a "comportamento naturale". L’utilizzo dell’aggettivo “meccanico” avrebbe quindi il pregio di richiamare l’attenzione sia sul fatto che la costruzione di nuove rappresentazioni avviene su un piano esclusivamente logico-razionale sia sul modo con cui quest’elaborazione viene eseguita. Cioè, a prescindere da ogni considerazione fisica o emotiva e, quindi, in modo alieno rispetto alla nostra natura. Il che non vuol dire che sia inutile, tutt’altro, ma che è cosa ben diversa da ciò che normalmente chiamiamo “intelligenza”. Le mancano infatti molte dimensioni che danno senso al termine intelligenza usato per le persone, da quella corporea, attraverso la quale sperimentiamo e conosciamo il mondo fisico intorno a noi e che costituisce il substrato comune alle nostre interazioni con gli altri, a quella emotiva, che ci permette di stabili relazioni autentiche e profonde con i nostri simili, a quella artistica, con la quale possiamo esprimere in modo estremamente pregnante il nostro senso estetico, solo per ricordare le più importanti.

Parafrasando un detto a proposito dell’intelligenza dei computer attribuito da questo sito a Edsger Dijkstra, uno dei grandi padri dell’informatica, dire che un sistema informatico è una “intelligenza artificiale” è come dire che un sottomarino è un “pesce artificiale”. Mi pare evidente che sia più preciso definire semmai il sottomarino un “pesce meccanico”.

Il problema è nella parola “intelligenza”: quando la usiamo ci portiamo fatalmente appresso tutte le dimensioni che, nella persona umana, sono inestricabilmente associate ad essa e dipendenti dal suo essere indissolubilmente incarnata in uno specifico corpo fisico. Invece, quella delle macchine cognitive è un’intelligenza totalmente “disincarnata”, quindi priva di tutte quelle componenti che danno senso al nostro destino di esseri umani e al nostro ruolo nella società.

Pragmaticamente, so benissimo che sarà difficile scardinare l'uso di IA, ormai diffuso da 70 anni e che nell'ultimo periodo è esploso diventando parte del discorso comune. Va però ricordato che agli albori di questa disciplina, soprattutto nel mondo accademico, era molto diffusa l’espressione machine intelligence (= intelligenza delle macchine) che certamente serve meglio allo scopo di far capire che stiamo parlando di un tipo diverso di intelligenza. Tra l’altro, era quella usata da Alan Turing, l’informatico inglese che ha inventato il modello teorico di un computer che è ancora oggi il riferimento per tutti gli studiosi del settore e che ha aperto l’area di ricerca dedicata alla comprensione di cosa possa essere l’intelligenza di un computer.

Usare quest’espressione mette bene in rilievo che un'intelligenza meccanica decide in modo puramente razionale, prescindendo dalla natura delle persone e delle relazioni umane, e può aiutare le persone comuni a comprenderla meglio. Ne ho parlato, insieme a riflessioni più generali sul ruolo dei sistemi informatici nella società nella puntata 19 e nella puntata 20 del podcast “Onlife: psicologia della vita quotidiana con Internet”.

Parlare di intelligenza meccanica sarebbe inoltre utile per ricondurla al suo ruolo di potente amplificatore delle nostre capacità di ragionamento logico, così come le macchine industriali potenziano le nostre capacità fisiche. Potrebbe percepirsi meglio, ad esempio, che l'idea di delegare alle macchine cognitive processi decisionali finora svolti dalle persone non è un'idea molto democratica. Chi ritiene che governare la società umana attraverso l'intelligenza meccanica conduca a risultati migliori per tutti non ha compreso che il cosiddetto "bene comune" può emergere solo da un dibattito democratico. Oppure, lo sa benissimo, ed è interessato proprio a svuotare di significato la democrazia. Considerando che gli attori predominanti nel settore del digitale sono multinazionali con bilanci superiori a quelli di molti Stati, l'idea che essi vogliano incrementare in questo modo la loro sfera di influenza non è del tutto peregrina.

Usare le parole in modo appropriato è condizione necessaria per poter avere un dia-logo costruttivo.

--
Versione originale pubblicata su "StartMAG" il 25 febbraio 2024.

mercoledì 21 febbraio 2024

Si scrive IA si legge InformaticA

di Enrico Nardelli

Negli ultimi anni l'intelligenza artificiale (IA) è sulla bocca di tutti. Anche l'uomo della strada ha capito che si tratta di qualcosa di importante, dal momento che ogni giorno è presente sui media, con la scusa che “cambierà radicalmente il nostro futuro”. Certamente tutte le tecnologie hanno trasformato la società in modo importante, ma la nostra natura umana è sempre la stessa ed è importante riflettere se certi messaggi vengono ripetuti in modo ossessivo per il nostro bene o per servire interessi altrui. Cui prodest ?, bisognerebbe chiedersi, ma non è questo il tema di codesta riflessione.

Nel novembre 2020 ero stato invitato a una tavola rotonda su "L'insegnamento dell'intelligenza artificiale in Italia” organizzata dall’AIxIA (Associazione Italiana per l’Intelligenza Artificiale) nell’ambito del loro convegno annuale. Nel corso del mio intervento, intitolato un po’ provocatoriamente proprio “Si scrive IA si legge InformaticA”, avevo osservato che l’esplosione dell’IA stava finalmente facendo capire a tutti l’importanza dell’informatica. Purtroppo, a questo risveglio dell’attenzione si accompagnava, e si accompagna ancora, una visione che ritiene l’IA sia qualcosa di diverso dall’informatica.

In realtà l'IA è una delle aree dell'informatica, tra le più antiche, perché il desiderio di creare qualcosa a nostra immagine e somiglianza è sempre stato forte nell'umanità. Storicamente il termine nasce nel 1955 con una richiesta di finanziamento che alcuni pionieri USA dell’informatica sottoposero alla National Science Foundation per svolgere a Dartmouth un progetto di ricerca della durata di 2 mesi (sic !). Il presupposto su cui era basato era questo: «ogni aspetto dell’apprendimento o di ogni altra caratteristica dell’intelligenza può in linea di principio essere descritto in modo così preciso che si può costruire una macchina in grado di simularlo». Anche se normalmente, quando si scrive una proposta di ricerca, si esagera sempre un pochino per impressionare positivamente chi dovrà decidere sul finanziamento, fa un po’ sorridere – a posteriori – l’ingenuità espressa in quest’affermazione, anche perché la proposta proseguiva argomentando che «un significativo avanzamento su alcuni di questi problemi si può ottenere se un gruppo attentamente selezionato di scienziati ci lavorerà sopra per un’estate». In chiusura, la proposta conteneva una descrizione più cauta e appropriata del problema dell’intelligenza artificiale, descrivendolo come «quello di una macchina che si comporta in un modo che sarebbe chiamato intelligente se fosse il comportamento di un essere umano». In effetti questa similitudine è proprio quella che applichiamo noi per descrivere come intelligente qualcosa di non umano, rimanendo perfettamente consapevoli che si tratta di un “come se” e non della “cosa reale”. Si tratta di un aspetto importantissimo, che invece troppo spesso – quando parliamo di tecnologia – tendiamo a dimenticare.

Comunque, la proposta fu approvata e nel 1956 si svolse l’incontro che battezzò al mondo il termine “intelligenza artificiale” e diede il via allo sviluppo di questo settore dell’informatica. I suoi prodotti – anche grazie a questo nome – esemplificano in modo lampante, ma non esclusivo, le capacità rivoluzionarie dell’informatica. Si tratta della possibilità di costruire quelle che ho definito “macchine cognitive”, cioè macchine che sono in grado di replicare le capacità cognitive logico-razionali dell’essere umano, costituendo – proprio grazie al fatto che sono macchine che non si stancano e non si distraggono – un potente ausilio per le attività cognitive dell’essere umano. Semplificando, possiamo dire che l’automobile sta alle nostre gambe come le “macchine cognitive” stanno al nostro cervello.

Tuttavia, come ho scritto nel novembre 2018, insieme a un gruppo internazionale di esperti, in un rapporto sul codice software sorgente come patrimonio dell’umanità per lo sviluppo sostenibile, in generale né i decisori né il grande pubblico sono consapevoli del fatto che questi artefatti informatici sono radicalmente diversi da qualsiasi precedente congegno creato dall’uomo, che è in genere in grado di potenziare solo le capacità fisiche e sensoriali delle persone. I programmi informatici (cioè il codice sorgente) sono una particolare rappresentazione della conoscenza umana, non nella consueta forma passiva e statica usata per secoli attraverso i libri, ma in un modo nuovo. Si tratta di actionable knowledge, cioè conoscenza pronta per essere messa in azione con l'hardware appropriato e in grado di interagire dinamicamente con il mondo. Il codice sorgente rappresenta quindi una meccanizzazione della conoscenza umana che non ha precedenti nella storia dell’umanità.

Queste “macchine della conoscenza” aumentano le capacità cognitive del genere umano, come le macchine industriali hanno accresciuto ed esteso le capacità fisiche e sensoriali delle persone negli ultimi tre secoli, ma non hanno la capacità di apprendimento e l’adattabilità dell’intelligenza umana.

Senza una comprensione approfondita di questa fondamentale differenza tra una macchina cognitiva e una persona, che è quanto di più lontano da una macchina possa esistere, il ruolo dei sistemi informatici nella società non può essere realmente capito. Ne ho discusso in profondità nel mio libro “La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale”.

Con l’arrivo della variante più potente dell’intelligenza artificiale, la cosiddetta Intelligenza Artificiale Generativa (IAG), la situazione rischia di essere ancora più complicata, visto che la nostra natura umana invariabilmente ci porta ad attribuire alle macchine cognitive, anche a causa delle parole che usiamo, più di quanto esse siano in grado di fare. Il deplorevole stato dello sviluppo del software, che nonostante 60 anni e più di ricerca è ancora incapace di produrre artefatti con lo stesso livello di qualità e prevedibilità delle altre costruzioni dell’ingegneria, fa il resto. Le conseguenze possono andare dalla semplice inefficacia dei sistemi informatici, che non riescono a svolgere le funzioni per cui sono stati pensati o lo fanno solo a prezzo di grande stress ed enorme fatica da parte nostra, alla vera e propria disumanizzazione degli esseri umani, trattati alla stregua di cose, oggetti disincarnati di cui poter disporre a piacimento.

In maniera analoga al famoso detto “la bellezza è negli occhi di chi guarda”, possiamo sostenere che per le macchine cognitive “l’intelligenza è nel cervello di chi legge”. In precedenti articoli ho discusso alcuni aspetti che devono essere tenuti in considerazione, quando si parla dell’uso degli strumenti dell’IAG, dal punto di vista sociale, per la formazione universitaria e per quella scolastica, sia in generale che in modo più specifico.

La questione terminologica è dunque importante: la riprenderemo discutendo più in dettaglio l’espressione “intelligenza artificiale” in un prossimo articolo.

--
Versione originale pubblicata su "StartMAG" il 18 febbraio 2024.

venerdì 9 febbraio 2024

Per il futuro digitale “ci vuole un fisico reale”

di Enrico Nardelli

C’erano state da un po’ di tempo delle avvisaglie. Con l’arrivo degli strumenti di intelligenza artificiale generativa (IAG) si erano dapprima levati alti lamenti contro la diffusione della disinformazione, tema certamente assai delicato, ma che spesso viene trattato con un’imbarazzante amnesia selettiva della storia dell’umanità, nella quale chi ha avuto il potere ha sempre usato e piegato l’informazione al fine di mantenerlo ed estenderlo (ripagato, per quanto possibile, da chi questo potere non l’aveva e voleva conquistarlo). Ci si è spinti, in nome della “corretta” informazione, a demonizzare ogni opinione o discussione che osa avvenire su media non tradizionali, dimenticandosi della lezione di Gramsci sui giornali come strumento di lotta per gruppi di interesse che hanno i mezzi per cercare di influenzare l’opinione pubblica, arrivando addirittura a trasformare i punti di vista scientifici in verità di fede cui credere ciecamente.

Poi abbiamo assistito alla diffusione di articoli generati da questi strumenti e pubblicati da chi un tempo era riconosciuto come autorevole. Sono successivamente arrivati canali di “notizie personalizzate” presentate in video da giornalisti generati sinteticamente. Poche settimane fa, abbiamo visto una famosa cantautrice americana essere colpita dalla diffusione virale di sue finte foto pornografiche, generate appunto con l’IAG. A discredito di una categoria che fino a un po’ di anni fa aveva ancora un rigore etico pressoché assoluto nella pubblicazione, stiamo assistendo al fenomeno – imbarazzante per chi fa questo mestiere ed è, come me, stato formato in un’altra epoca – di sempre più ricercatori che usano allegramente la generazione sintetica per inondare le riviste scientifiche di falsi articoli.

Adesso è arrivata la prova definitiva che i soli avvenimenti ai quali potremo davvero credere in futuro saranno quelli che avverranno alla nostra presenza. In una società finanziaria, un impiegato è stato indotto a trasferire 25 milioni di dollari verso un conto corrente truffaldino mediante una riunione virtuale avvenuta in video-conferenza, alla quale ha partecipato il direttore finanziario della società stessa insieme ad altri membri dello staff. Tutti però, tranne il malcapitato che ha poi operato il trasferimento, erano stati generati sinteticamente dall’IAG. Secondo il resoconto, la truffa era iniziata con la solita mail di phishing ma, a causa delle giustificatissime perplessità dell’impiegato, si è poi evoluta in una vera e propria “sceneggiata” completamente inventata, ma che è andata a segno. Una nota di cautela (non si sa mai!): ho verificato, per quanto in mio potere, la veridicità della notizia me, se anche non lo fosse, non cambia la sostanza del mio argomento.

Dobbiamo essere consapevoli che questa è la realtà nella quale ci troviamo immersi. Come si usa ripetere in questi casi “il genio è fuori dalla bottiglia” e certamente sarà impossibile farlo rientrare. Perché comunque, questo è molto importante da ricordare, l’IAG può offrire enormi opportunità per migliorare ogni nostra attività, se sappiamo usarla bene. Come ho discusso nel mio libro “La rivoluzione informatica” essa costituisce un esempio tra i più potenti di una macchina cognitiva, ovvero un’automazione delle capacità intellettive dell’essere umano, che replica su un piano più elevato ciò che una macchina industriale compie rispetto alle sue capacità fisiche. Siamo certamente sconcertati, dal momento che ciò accade a un livello riservato fino a pochi decenni fa esclusivamente alla specie umana, però sempre di un’attività meccanica si tratta. Il fatto che sia una macchina a svolgerlo lo vedo come un aspetto positivo. In questo senso sono completamente d’accordo con quanto disse alla fine dell’Ottocento Charles W. Eliot, che è stato per quarant’anni, dal 1869 al 1909, presidente dell’Università di Harvard, trasformandola in uno dei più importanti atenei americani: «Un uomo non dovrebbe essere usato per un compito che può essere svolto da una macchina».

Col dilagare dell’IAG diventerà sempre più rilevante la presenza fisica e ciò che fanno le persone direttamente. Mi aspetto, da un lato, lo sviluppo di un mercato di prodotti “culturali” artificialmente generati per il consumo di massa. Sta già accadendo per i libri (ad esempio le guide turistiche) e per la musica (ad esempio sulle piattaforme di streaming). Ma, dall’altro, questo riattribuirà a spettacoli teatrali, concerti ed eventi artistici in presenza, quel valore che stavamo dimenticando.

Ovviamente le conseguenze sociali di questo sviluppo tecnologico devono essere tenute in debito conto, perché rischiamo di trasformare, almeno in quest’Europa che ha visto nel secondo dopoguerra lo sviluppo di una società molto più equa ed equilibrata di quelle che avevamo nei secoli passati, le nostre comunità in nuovi domìni feudali, legati adesso non al possesso della terra ma a quello delle infrastrutture digitali.

Pensate ad esempio ai vari servizi che sono importanti in ogni società democratica: se non facciamo attenzione, chi può pagare avrà il medico o l’avvocato o l’insegnante umano, per tutti gli altri ci sarà quello sintetico. Cercheranno di convincerci che è per il nostro bene avere il professionista “artificialmente intelligente”, mentre invece servirà allo scopo per cui abbiamo visto usare la tecnologia digitale negli ultimi 50 anni. Cioè aumentare la produttività a salario sostanzialmente invariato, incrementando di conseguenza la quota profitti senza far partecipare la classe lavoratrice a questo beneficio e quindi, in ultima analisi, allargando il divario tra le classi sociali.

Giustamente, Daniel Dennett, uno dei pensatori più acuti nel settore dell’intelligenza artificiale, ha argomentato che l’utilizzo non dichiarato di persone fittizie dovrebbe essere un crimine perseguito con la stessa severità con cui vengono perseguiti gli spacciatori di denaro falso. È in gioco, ha sostenuto a ragione, il futuro della nostra civiltà.

In un mondo in cui ogni documento è diventato digitale e perciò facilmente alterabile o generabile a piacere, esso perde la sua valenza di testimonianza su ciò che è successo. A meno che non sia chiaramente legato in modo chiaro e non disconoscibile ad un autore affidabile e credibile. Cominciano ad essere disponibili soluzioni tecnologiche basate sulla certificazione dell’identità e autenticità dello strumento usato per generare un certo contenuto (sta accadendo nel campo della fotografia). In sintesi, è lo stesso principio della carta d’identità elettronica con cui possiamo dimostrare chi siamo quando operiamo sulle piattaforme digitali. Non è detto che siano definitive: ad esempio, non abbiamo ancora un utilizzo generalizzato dei tanti meccanismi di certificazione della provenienza dei messaggi di posta elettronica che pure sono stati inventati da decine di anni. Né va mai dimenticato che anche queste soluzioni, pur se assai sofisticate, possono essere alterate, disponendo di risorse sufficienti e sfruttando le opportune circostanze. E va fatta anche attenzione a non esasperare questo approccio pretendendo di certificare ogni espressione del pensiero umano, poiché ciò – impedendo di fatto il dissenso – porterebbe alla distruzione della democrazia.

Pertanto, sempre di più, nel nostro futuro digitale, le radici della fiducia torneranno ad essere legate agli esseri umani e al rapporto in presenza.

Si tratta di un ritorno all'antico che spero impareremo a riapprezzare, di cui vi è una testimonianza linguistica (che dovrebbe ricordare chi ha fatto il classico) nel verbo del greco antico che esprime l'azione di "sapere" (io so = οἶδα), che altro non è che il tempo passato del verbo che esprime l'azione di "vedere" (io vedo = ὁράω). Quindi, "io so" perché "io ho visto", in prima persona. Spero davvero sia questo il motivo dominante del nostro futuro: la sempre maggiore importanza del piano fisico in una società sempre più digitalizzata.

Il futuro che vale la pena vivere sarà in presenza: possiamo quindi dire, per parafrasare una famosa canzone, “ci vuole un fisico reale”.

--
Versione originale pubblicata su "StartMAG" il 6 febbraio 2024.

domenica 7 gennaio 2024

Il ciclone ChatGPT e la scuola: 5 punti chiave

di Enrico Nardelli

In questi mesi nel mondo della scuola c’è un enorme subbuglio – soprattutto tra i docenti, a causa degli strumenti di intelligenza artificiale generativa (che nel seguito chiamerò, per brevità, IAG), di cui il più noto è ChatGPT. Come mai sta accadendo questo? Per cominciare, gli strumenti di IAG sono oggettivamente in grado di esibire prestazioni (nella produzione di testi, ma anche di immagini, e di molti altri prodotti cognitivi tipicamente realizzati dagli esseri umani) che in molti casi non sono distinguibili da quelle delle persone. Quindi, quelli che nella bella definizione di Stefano Quintarelli sono solo dei SALAMI (Systematic Approaches to Learning Algorithms and Machine Inferences = approcci sistematici per [lo sviluppo di] algoritmi di apprendimento e [sistemi di] deduzione automatica), vengono, a causa di un processo di proiezione che è tipico degli esseri umani che vedono significati dappertutto, erroneamente percepiti nell’interpretazione comune come delle entità realmente intelligenti.

Poi, sono in gioco enormi interessi commerciali, miliardi di euro (o dollari) investiti annualmente per tentare di accaparrarsi quote di mercato che si proiettano in valori almeno mille volte maggiori. Questi spingono ogni giorno, in modo incessante, a descrivere sui mezzi di comunicazione scenari che oscillano dal fantascientifico (risolveremo tutti i problemi dell’umanità) all’apocalittico (perderemo tutti il lavoro), ma sempre finalizzati a costruire una convinzione di ineluttabilità: non c’è alternativa! In particolar modo, dal momento che il modo migliore di convincere qualcuno ad usare un certo prodotto è quello di abituarlo all’uso sin da piccolo, il settore della scuola è quello su cui si concentra la maggiore pressione.

Inoltre, gli strumenti di IAG sono ormai integrati nell’appendice tecnologica di cui tutti siamo dotati, lo smartphone e quindi, volenti o nolenti, tutti si trovano ad utilizzarli. È inevitabile! si ribadisce in continuazione. Il termine “innovativo” viene poi usato come passepartout per convincere chi non è esperto, trascurando di considerare quali possono essere le reali conseguenze di lungo periodo. Ricordiamoci di come nell’ultimo ventennio si siano fatti usare dispositivi digitali ai minori, anche piccolissimi, senza alcun reale controllo, per poi accorgersi che, come documentato nel rapporto finale del giugno 2021 dell’indagine conoscitiva “Sull’impatto del digitale sugli studenti, con particolare riguardo ai processi di apprendimento” svolta dalla Commissione “Istruzione Pubblica e Beni Culturali” del Senato, qualche problema è stato creato, e non di poco conto.

Ora, per limitarci agli strumenti di IAG testuali, cioè quelli che preparano dei testi rispondenti a quanto è stato richiesto (p.es.: quali sono i fatti salienti delle Guerre Puniche? oppure: scrivi una sintesi in 20 righe de “I promessi sposi”, o ancora: descrivi il processo di impollinazione delle piante), la conseguenza immediata sulla scuola è che uno dei modi più tradizionali di verifica delle competenze utilizzato giornalmente, ovvero lo svolgimento di compiti a casa, perde completamente di efficacia. È ovvio, a meno di non instaurare un clima proibizionistico che comunque sarebbe di qualche utilità solo per un breve periodo, che tutti gli scolari li svolgerebbero usando l’IAG.

La risposta non è però inventarsi improbabili modi di farli comunque usare agli studenti. Discuterò nel seguito i cinque punti critici di un approccio di questo genere. La risposta è dar maggior valore all’oralità e al rapporto in presenza. Quindi, meno compiti a casa e più lavoro in classe, il che implica avere classi più piccole e più insegnanti. Certo, servono soldi, ma sull’istruzione si gioca il futuro di un Paese. Un approccio di questo genere, tra l’altro, torna a dare valore alla componente relazionale del rapporto tra docente e studente. Sappiamo bene, almeno a partire dall’analisi fatta da Platone nei suoi Dialoghi, che la componente affettiva della relazione educativa tra didàskalos e mathetés, maestro e allievo, è un aspetto fondamentale della paideia, la crescita etica e spirituale del discepolo. Questa componente può essere arricchita dalla tecnologia, se opportunamente utilizzata, ma mai, mai sostituita, pena l’impoverimento e la distruzione della nostra umanità.

Alcuni comunque dicono: “trasformiamo la disponibilità dell’IAG in un’opportunità per un apprendimento migliore da parte degli studenti; facciamogli fare degli esperimenti con queste tecnologie che comunque si troveranno ad usare da grandi”. Ci sono in questo modo di fare alcuni punti critici assai importanti che vale la pena esaminare.

1) Si tratta di strumenti ancora in fase di sviluppo, che spesso producono risposte che sembrano corrette, ma sono imprecise. Solo se conosciamo bene l’argomento sui cui l’IAG ha prodotto un testo possiamo accorgerci di ciò che non va. Dal momento che nella scuola, tanto più quanto più si è piccoli, l’acquisizione della conoscenza è proprio uno degli aspetti formativi fondamentali, è evidente che non è sensato rischiare che gli scolari apprendano conoscenze errate (se non addirittura viziate da pregiudizi o stereotipi).

2) Sono strumenti controllati dalle solite Big Tech, sui quali vi è un’assoluta mancanza di controllo su come sono stati messi a punto e funzionano, su quali dati siano stati usati per il loro addestramento e su quali prove di sicurezza siano state condotte. Per ogni tecnologia potenzialmente nociva le società hanno introdotto delle regolamentazioni. In questo caso ci sta provando l’Unione Europea con il cosiddetto “AI Act”, per il quale è stato recentemente annunciato l’accordo politico ma non sono noti i dettagli. Però nel frattempo se ne sta incentivando il più possibile l’uso, incuranti dei possibili rischi. Una prima grana è esplosa proprio negli ultimi giorni del 2023, con la notizia che il New York Times, uno dei giornali più noti e con la miglior reputazione al mondo, ha fatto causa per violazione di diritto d’autore a OpenAI e Microsoft perché avrebbero addestrato i loro strumenti IAG sui loro articoli senza esserne autorizzati. Altre se ne attendono a breve, relativamente agli strumenti IAG visuali, cioè quelli in grado di produrre immagini e video, dal momento che diversi utenti su X (precedentemente Twitter) hanno evidenziato che possono produrre immagini protette dal diritto autore, anche se l’utente formula la richiesta in modo generico.

3) Usare strumenti ancora in sviluppo vuol dire lavorare gratis per chi li sta mettendo a punto e magari un giorno ce li rivenderà. Ovvero, stiamo commettendo di nuovo lo stesso errore in cui siamo incorsi abbandonandoci senza pensare troppo a piattaforme sociali intrusive e abusive, che hanno raccolto quantità enormi di dati su di noi e le usano a scopo commerciale. Cosa ce ne viene in cambio? Quando si dice che dobbiamo insegnare ai docenti come fare le domande all’IAG per ottenere l’aiuto di cui possono aver bisogno (il cosiddetto prompt engineering) mi sento rabbrividire: ma davvero vogliamo trasformarli in forza-lavoro gratuita a disposizione delle Big Tech ?

4) Se anche gli strumenti dell’IAG dessero sempre risposte corrette (ma non è così), con il loro uso nei livelli inferiori della scuola non solo rischiamo che i nostri figli acquisiscano conoscenze errate, ma possiamo menomare le loro possibilità di crescita sul piano cognitivo, dal momento che in tal modo essi non le esercitano. Sintetizzare testi, argomentare una posizione, presentare un punto di vista sono competenze fondamentali per un qualunque cittadino. Se non li facciamo esercitare da scolari, non le acquisiranno mai. Un po’ come accade se ci spostiamo solo in automobile e mai a piedi o in bicicletta, le nostre capacità fisiche si indeboliscono. In aggiunta, mentre studiando sui libri ci si allena alla pluralità di punti di vista e modi di presentare un certo argomento, in presenza di pochissime sorgenti di conoscenza il rischio di un indottrinamento sociale, soprattutto per le materie umanistiche, è fortissimo.

5) Mi sembra incredibile il contrasto tra i continui inviti ad usarli e la mancanza di una seria valutazione di tipo etico relativa al coinvolgimento dei minori nell’uso di strumenti ancora sperimentali. Ma come, per qualunque sperimentazione che coinvolga i bambini è, giustissimamente, necessaria l’approvazione sul piano etico, e in questo caso invece niente? Per un recente progetto di ricerca nelle scuole primarie che confrontava due metodi di insegnamento di uno dei costrutti fondamentali dell’informatica, io e i miei colleghi abbiamo dovuto avere l’approvazione di un comitato etico, mentre in questo caso vedo esortazioni a far usare l’IAG a minorenni senza alcuna riflessione su questi aspetti, né su quelli relativi alla privacy. Ma voi vi immaginate se nei primi anni del Novecento i fratelli Wright avessero cominciato a far volare persone sui loro aeroplani mentre li mettevano a punto?

Si dice: ma non c’è alternativa, l’IAG è qua e fa parte della nostra vita. È vero che è già nella nostra vita, ma non c’è un assoluto bisogno di usarla nelle classi. Il che non vuol dire non parlarne o far finta che non esista. L’uso collettivo in aula, sotto il controllo e la guida del docente, accompagnato da una discussione critica, ovviamente al livello consentito dall’età dei bambini, costituisce un’utile informazione su una tecnologia che comunque incontrano. Ma non abbiamo davvero necessità che, allo stato attuale della tecnologia, gli studenti utilizzino regolarmente tali strumenti. Per i docenti, alcuni usi sono possibili, come ho descritto in un recente articolo, ma è necessaria un’estrema attenzione, vista la natura ancora sperimentale di questi strumenti e i pericoli legati alla disseminazione di dati personali dei minori. A questo proposito mi piacerebbe sapere se l’autorità Garante per la Protezione dei Dati Personali ha valutato se l’esortazione agli insegnanti di usare questi strumenti per migliorare la loro didattica, personalizzandola per le esigenze dei singoli studenti, possa mettere a repentaglio la privacy di questi ultimi.

Aggiungo, per essere ancora più chiaro: in un contesto in cui nelle scuole insegniamo le basi scientifiche dell’informatica, può certamente trovare spazio anche la didattica sui princìpi dell’intelligenza artificiale, che costituisce un settore molto importante dell’informatica stessa. Però, insegnare cos’è l’apprendimento automatico (= machine learning), cioè la tecnica fondamentale usata per l’IAG, a chi non sa cos’è un automa o un algoritmo è come tentare di far capire cos’è la trigonometria a chi conosce solo le quattro operazioni aritmetiche. Si può certo raccontare che la trigonometria permette di misurare la distanza tra due alberi al di là di un fiume senza attraversarlo, ma in assenza di un’adeguata base di matematica si tratta di semplice divulgazione. Utile certamente per il cittadino che ha poco tempo per studiare e che deve comunque essere aggiornato sugli avanzamenti scientifico-tecnologici, mentre nella scuola vanno fornite le basi scientifiche per comprendere il mondo intorno a noi, sia quello della natura che quello artificialmente costruito, che in misura sempre maggiore è digitale.

Ripensare l’intero curriculum scolastico alla luce della trasformazione ormai avvenuta da società industriale a società digitale è un passo indispensabile, molto, molto di più che inseguire le mode tecnologiche addestrando studenti e insegnanti all’uso degli strumenti di IAG.

--
Versione originale pubblicata su "StartMAG" il 4 gennaio 2024.