Pagine

mercoledì 28 febbraio 2024

Artificiale o meccanica, questo è il problema

di Enrico Nardelli

In un precedente articolo ho iniziato ad affrontare la questione terminologica legata all’uso dell’espressione “intelligenza artificiale” (IA), che ci porta ad attribuire agli strumenti digitali basati su di essa più di quanto essi siano in grado compiere.

Lo scenario non è facile da capire bene, soprattutto per i non addetti ai lavori, dal momento che le parole che compongono tale termine non aiutano la comprensione comune. Infatti, nell’espressione “intelligenza artificiale” l’aggettivo “artificiale” dà al sostantivo “intelligenza” solo una qualificazione ontologica, cioè che indica la natura costitutiva dell’ente ma non ne descrive le funzioni. Quali siano queste funzioni viene invece comunicato dal sostantivo stesso. Per chiarire attraverso un esempio più comune, quando parliamo di “cuore artificiale” è chiaro a tutti che si tratta di un oggetto fatto di una sostanza diversa da quella di quell'organo che ognuno porta nel petto (è artificiale) ma svolge le sue stesse funzioni (è un cuore).

Per questo, l’espressione “intelligenza artificiale” esprime sì correttamente il fatto che si tratta di qualcosa costituito da una materia diversa da quella sulla quale si basa l’intelligenza umana, ma inganna completamente il senso comune facendo pensare che di vera e propria intelligenza umana si tratti. Certo, indichiamo come intelligenti anche alcuni comportamenti manifestati da cani o gatti o cavalli o scimmie. Però, quando diciamo che un animale è intelligente lo facciamo esattamente perché, in una o più occasioni, si è comportato “come se” fosse stato una persona, ma l'immediatezza vividamente percepibile della sua natura non umana ci impedisce di attribuire ad esso più di quanto c'è nell'uso metaforico del termine. Data la nostra assuefazione alle interazioni digitali, quando invece riceviamo un risultato prodotto da uno strumento dell’IA, poiché la sua natura fisica fatta di circuiti elettronici è nascosta, tendiamo a vedere – a causa di questa espressione evocativa ma imprecisa – più di quello che c’è, trascurando quell’aspetto essenziale del “come se”.

Dovremmo invece chiamare l’IA “intelligenza meccanica”, dal momento che “meccanico” è un aggettivo che descrive le modalità di funzionamento o comportamento di una macchina. Si pensi, ad esempio, all’uso dell'espressione "comportamento meccanico" in opposizione a "comportamento naturale". L’utilizzo dell’aggettivo “meccanico” avrebbe quindi il pregio di richiamare l’attenzione sia sul fatto che la costruzione di nuove rappresentazioni avviene su un piano esclusivamente logico-razionale sia sul modo con cui quest’elaborazione viene eseguita. Cioè, a prescindere da ogni considerazione fisica o emotiva e, quindi, in modo alieno rispetto alla nostra natura. Il che non vuol dire che sia inutile, tutt’altro, ma che è cosa ben diversa da ciò che normalmente chiamiamo “intelligenza”. Le mancano infatti molte dimensioni che danno senso al termine intelligenza usato per le persone, da quella corporea, attraverso la quale sperimentiamo e conosciamo il mondo fisico intorno a noi e che costituisce il substrato comune alle nostre interazioni con gli altri, a quella emotiva, che ci permette di stabili relazioni autentiche e profonde con i nostri simili, a quella artistica, con la quale possiamo esprimere in modo estremamente pregnante il nostro senso estetico, solo per ricordare le più importanti.

Parafrasando un detto a proposito dell’intelligenza dei computer attribuito da questo sito a Edsger Dijkstra, uno dei grandi padri dell’informatica, dire che un sistema informatico è una “intelligenza artificiale” è come dire che un sottomarino è un “pesce artificiale”. Mi pare evidente che sia più preciso definire semmai il sottomarino un “pesce meccanico”.

Il problema è nella parola “intelligenza”: quando la usiamo ci portiamo fatalmente appresso tutte le dimensioni che, nella persona umana, sono inestricabilmente associate ad essa e dipendenti dal suo essere indissolubilmente incarnata in uno specifico corpo fisico. Invece, quella delle macchine cognitive è un’intelligenza totalmente “disincarnata”, quindi priva di tutte quelle componenti che danno senso al nostro destino di esseri umani e al nostro ruolo nella società.

Pragmaticamente, so benissimo che sarà difficile scardinare l'uso di IA, ormai diffuso da 70 anni e che nell'ultimo periodo è esploso diventando parte del discorso comune. Va però ricordato che agli albori di questa disciplina, soprattutto nel mondo accademico, era molto diffusa l’espressione machine intelligence (= intelligenza delle macchine) che certamente serve meglio allo scopo di far capire che stiamo parlando di un tipo diverso di intelligenza. Tra l’altro, era quella usata da Alan Turing, l’informatico inglese che ha inventato il modello teorico di un computer che è ancora oggi il riferimento per tutti gli studiosi del settore e che ha aperto l’area di ricerca dedicata alla comprensione di cosa possa essere l’intelligenza di un computer.

Usare quest’espressione mette bene in rilievo che un'intelligenza meccanica decide in modo puramente razionale, prescindendo dalla natura delle persone e delle relazioni umane, e può aiutare le persone comuni a comprenderla meglio. Ne ho parlato, insieme a riflessioni più generali sul ruolo dei sistemi informatici nella società nella puntata 19 e nella puntata 20 del podcast “Onlife: psicologia della vita quotidiana con Internet”.

Parlare di intelligenza meccanica sarebbe inoltre utile per ricondurla al suo ruolo di potente amplificatore delle nostre capacità di ragionamento logico, così come le macchine industriali potenziano le nostre capacità fisiche. Potrebbe percepirsi meglio, ad esempio, che l'idea di delegare alle macchine cognitive processi decisionali finora svolti dalle persone non è un'idea molto democratica. Chi ritiene che governare la società umana attraverso l'intelligenza meccanica conduca a risultati migliori per tutti non ha compreso che il cosiddetto "bene comune" può emergere solo da un dibattito democratico. Oppure, lo sa benissimo, ed è interessato proprio a svuotare di significato la democrazia. Considerando che gli attori predominanti nel settore del digitale sono multinazionali con bilanci superiori a quelli di molti Stati, l'idea che essi vogliano incrementare in questo modo la loro sfera di influenza non è del tutto peregrina.

Usare le parole in modo appropriato è condizione necessaria per poter avere un dia-logo costruttivo.

--
Versione originale pubblicata su "StartMAG" il 25 febbraio 2024.

mercoledì 21 febbraio 2024

Si scrive IA si legge InformaticA

di Enrico Nardelli

Negli ultimi anni l'intelligenza artificiale (IA) è sulla bocca di tutti. Anche l'uomo della strada ha capito che si tratta di qualcosa di importante, dal momento che ogni giorno è presente sui media, con la scusa che “cambierà radicalmente il nostro futuro”. Certamente tutte le tecnologie hanno trasformato la società in modo importante, ma la nostra natura umana è sempre la stessa ed è importante riflettere se certi messaggi vengono ripetuti in modo ossessivo per il nostro bene o per servire interessi altrui. Cui prodest ?, bisognerebbe chiedersi, ma non è questo il tema di codesta riflessione.

Nel novembre 2020 ero stato invitato a una tavola rotonda su "L'insegnamento dell'intelligenza artificiale in Italia” organizzata dall’AIxIA (Associazione Italiana per l’Intelligenza Artificiale) nell’ambito del loro convegno annuale. Nel corso del mio intervento, intitolato un po’ provocatoriamente proprio “Si scrive IA si legge InformaticA”, avevo osservato che l’esplosione dell’IA stava finalmente facendo capire a tutti l’importanza dell’informatica. Purtroppo, a questo risveglio dell’attenzione si accompagnava, e si accompagna ancora, una visione che ritiene l’IA sia qualcosa di diverso dall’informatica.

In realtà l'IA è una delle aree dell'informatica, tra le più antiche, perché il desiderio di creare qualcosa a nostra immagine e somiglianza è sempre stato forte nell'umanità. Storicamente il termine nasce nel 1955 con una richiesta di finanziamento che alcuni pionieri USA dell’informatica sottoposero alla National Science Foundation per svolgere a Dartmouth un progetto di ricerca della durata di 2 mesi (sic !). Il presupposto su cui era basato era questo: «ogni aspetto dell’apprendimento o di ogni altra caratteristica dell’intelligenza può in linea di principio essere descritto in modo così preciso che si può costruire una macchina in grado di simularlo». Anche se normalmente, quando si scrive una proposta di ricerca, si esagera sempre un pochino per impressionare positivamente chi dovrà decidere sul finanziamento, fa un po’ sorridere – a posteriori – l’ingenuità espressa in quest’affermazione, anche perché la proposta proseguiva argomentando che «un significativo avanzamento su alcuni di questi problemi si può ottenere se un gruppo attentamente selezionato di scienziati ci lavorerà sopra per un’estate». In chiusura, la proposta conteneva una descrizione più cauta e appropriata del problema dell’intelligenza artificiale, descrivendolo come «quello di una macchina che si comporta in un modo che sarebbe chiamato intelligente se fosse il comportamento di un essere umano». In effetti questa similitudine è proprio quella che applichiamo noi per descrivere come intelligente qualcosa di non umano, rimanendo perfettamente consapevoli che si tratta di un “come se” e non della “cosa reale”. Si tratta di un aspetto importantissimo, che invece troppo spesso – quando parliamo di tecnologia – tendiamo a dimenticare.

Comunque, la proposta fu approvata e nel 1956 si svolse l’incontro che battezzò al mondo il termine “intelligenza artificiale” e diede il via allo sviluppo di questo settore dell’informatica. I suoi prodotti – anche grazie a questo nome – esemplificano in modo lampante, ma non esclusivo, le capacità rivoluzionarie dell’informatica. Si tratta della possibilità di costruire quelle che ho definito “macchine cognitive”, cioè macchine che sono in grado di replicare le capacità cognitive logico-razionali dell’essere umano, costituendo – proprio grazie al fatto che sono macchine che non si stancano e non si distraggono – un potente ausilio per le attività cognitive dell’essere umano. Semplificando, possiamo dire che l’automobile sta alle nostre gambe come le “macchine cognitive” stanno al nostro cervello.

Tuttavia, come ho scritto nel novembre 2018, insieme a un gruppo internazionale di esperti, in un rapporto sul codice software sorgente come patrimonio dell’umanità per lo sviluppo sostenibile, in generale né i decisori né il grande pubblico sono consapevoli del fatto che questi artefatti informatici sono radicalmente diversi da qualsiasi precedente congegno creato dall’uomo, che è in genere in grado di potenziare solo le capacità fisiche e sensoriali delle persone. I programmi informatici (cioè il codice sorgente) sono una particolare rappresentazione della conoscenza umana, non nella consueta forma passiva e statica usata per secoli attraverso i libri, ma in un modo nuovo. Si tratta di actionable knowledge, cioè conoscenza pronta per essere messa in azione con l'hardware appropriato e in grado di interagire dinamicamente con il mondo. Il codice sorgente rappresenta quindi una meccanizzazione della conoscenza umana che non ha precedenti nella storia dell’umanità.

Queste “macchine della conoscenza” aumentano le capacità cognitive del genere umano, come le macchine industriali hanno accresciuto ed esteso le capacità fisiche e sensoriali delle persone negli ultimi tre secoli, ma non hanno la capacità di apprendimento e l’adattabilità dell’intelligenza umana.

Senza una comprensione approfondita di questa fondamentale differenza tra una macchina cognitiva e una persona, che è quanto di più lontano da una macchina possa esistere, il ruolo dei sistemi informatici nella società non può essere realmente capito. Ne ho discusso in profondità nel mio libro “La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale”.

Con l’arrivo della variante più potente dell’intelligenza artificiale, la cosiddetta Intelligenza Artificiale Generativa (IAG), la situazione rischia di essere ancora più complicata, visto che la nostra natura umana invariabilmente ci porta ad attribuire alle macchine cognitive, anche a causa delle parole che usiamo, più di quanto esse siano in grado di fare. Il deplorevole stato dello sviluppo del software, che nonostante 60 anni e più di ricerca è ancora incapace di produrre artefatti con lo stesso livello di qualità e prevedibilità delle altre costruzioni dell’ingegneria, fa il resto. Le conseguenze possono andare dalla semplice inefficacia dei sistemi informatici, che non riescono a svolgere le funzioni per cui sono stati pensati o lo fanno solo a prezzo di grande stress ed enorme fatica da parte nostra, alla vera e propria disumanizzazione degli esseri umani, trattati alla stregua di cose, oggetti disincarnati di cui poter disporre a piacimento.

In maniera analoga al famoso detto “la bellezza è negli occhi di chi guarda”, possiamo sostenere che per le macchine cognitive “l’intelligenza è nel cervello di chi legge”. In precedenti articoli ho discusso alcuni aspetti che devono essere tenuti in considerazione, quando si parla dell’uso degli strumenti dell’IAG, dal punto di vista sociale, per la formazione universitaria e per quella scolastica, sia in generale che in modo più specifico.

La questione terminologica è dunque importante: la riprenderemo discutendo più in dettaglio l’espressione “intelligenza artificiale” in un prossimo articolo.

--
Versione originale pubblicata su "StartMAG" il 18 febbraio 2024.

venerdì 9 febbraio 2024

Per il futuro digitale “ci vuole un fisico reale”

di Enrico Nardelli

C’erano state da un po’ di tempo delle avvisaglie. Con l’arrivo degli strumenti di intelligenza artificiale generativa (IAG) si erano dapprima levati alti lamenti contro la diffusione della disinformazione, tema certamente assai delicato, ma che spesso viene trattato con un’imbarazzante amnesia selettiva della storia dell’umanità, nella quale chi ha avuto il potere ha sempre usato e piegato l’informazione al fine di mantenerlo ed estenderlo (ripagato, per quanto possibile, da chi questo potere non l’aveva e voleva conquistarlo). Ci si è spinti, in nome della “corretta” informazione, a demonizzare ogni opinione o discussione che osa avvenire su media non tradizionali, dimenticandosi della lezione di Gramsci sui giornali come strumento di lotta per gruppi di interesse che hanno i mezzi per cercare di influenzare l’opinione pubblica, arrivando addirittura a trasformare i punti di vista scientifici in verità di fede cui credere ciecamente.

Poi abbiamo assistito alla diffusione di articoli generati da questi strumenti e pubblicati da chi un tempo era riconosciuto come autorevole. Sono successivamente arrivati canali di “notizie personalizzate” presentate in video da giornalisti generati sinteticamente. Poche settimane fa, abbiamo visto una famosa cantautrice americana essere colpita dalla diffusione virale di sue finte foto pornografiche, generate appunto con l’IAG. A discredito di una categoria che fino a un po’ di anni fa aveva ancora un rigore etico pressoché assoluto nella pubblicazione, stiamo assistendo al fenomeno – imbarazzante per chi fa questo mestiere ed è, come me, stato formato in un’altra epoca – di sempre più ricercatori che usano allegramente la generazione sintetica per inondare le riviste scientifiche di falsi articoli.

Adesso è arrivata la prova definitiva che i soli avvenimenti ai quali potremo davvero credere in futuro saranno quelli che avverranno alla nostra presenza. In una società finanziaria, un impiegato è stato indotto a trasferire 25 milioni di dollari verso un conto corrente truffaldino mediante una riunione virtuale avvenuta in video-conferenza, alla quale ha partecipato il direttore finanziario della società stessa insieme ad altri membri dello staff. Tutti però, tranne il malcapitato che ha poi operato il trasferimento, erano stati generati sinteticamente dall’IAG. Secondo il resoconto, la truffa era iniziata con la solita mail di phishing ma, a causa delle giustificatissime perplessità dell’impiegato, si è poi evoluta in una vera e propria “sceneggiata” completamente inventata, ma che è andata a segno. Una nota di cautela (non si sa mai!): ho verificato, per quanto in mio potere, la veridicità della notizia me, se anche non lo fosse, non cambia la sostanza del mio argomento.

Dobbiamo essere consapevoli che questa è la realtà nella quale ci troviamo immersi. Come si usa ripetere in questi casi “il genio è fuori dalla bottiglia” e certamente sarà impossibile farlo rientrare. Perché comunque, questo è molto importante da ricordare, l’IAG può offrire enormi opportunità per migliorare ogni nostra attività, se sappiamo usarla bene. Come ho discusso nel mio libro “La rivoluzione informatica” essa costituisce un esempio tra i più potenti di una macchina cognitiva, ovvero un’automazione delle capacità intellettive dell’essere umano, che replica su un piano più elevato ciò che una macchina industriale compie rispetto alle sue capacità fisiche. Siamo certamente sconcertati, dal momento che ciò accade a un livello riservato fino a pochi decenni fa esclusivamente alla specie umana, però sempre di un’attività meccanica si tratta. Il fatto che sia una macchina a svolgerlo lo vedo come un aspetto positivo. In questo senso sono completamente d’accordo con quanto disse alla fine dell’Ottocento Charles W. Eliot, che è stato per quarant’anni, dal 1869 al 1909, presidente dell’Università di Harvard, trasformandola in uno dei più importanti atenei americani: «Un uomo non dovrebbe essere usato per un compito che può essere svolto da una macchina».

Col dilagare dell’IAG diventerà sempre più rilevante la presenza fisica e ciò che fanno le persone direttamente. Mi aspetto, da un lato, lo sviluppo di un mercato di prodotti “culturali” artificialmente generati per il consumo di massa. Sta già accadendo per i libri (ad esempio le guide turistiche) e per la musica (ad esempio sulle piattaforme di streaming). Ma, dall’altro, questo riattribuirà a spettacoli teatrali, concerti ed eventi artistici in presenza, quel valore che stavamo dimenticando.

Ovviamente le conseguenze sociali di questo sviluppo tecnologico devono essere tenute in debito conto, perché rischiamo di trasformare, almeno in quest’Europa che ha visto nel secondo dopoguerra lo sviluppo di una società molto più equa ed equilibrata di quelle che avevamo nei secoli passati, le nostre comunità in nuovi domìni feudali, legati adesso non al possesso della terra ma a quello delle infrastrutture digitali.

Pensate ad esempio ai vari servizi che sono importanti in ogni società democratica: se non facciamo attenzione, chi può pagare avrà il medico o l’avvocato o l’insegnante umano, per tutti gli altri ci sarà quello sintetico. Cercheranno di convincerci che è per il nostro bene avere il professionista “artificialmente intelligente”, mentre invece servirà allo scopo per cui abbiamo visto usare la tecnologia digitale negli ultimi 50 anni. Cioè aumentare la produttività a salario sostanzialmente invariato, incrementando di conseguenza la quota profitti senza far partecipare la classe lavoratrice a questo beneficio e quindi, in ultima analisi, allargando il divario tra le classi sociali.

Giustamente, Daniel Dennett, uno dei pensatori più acuti nel settore dell’intelligenza artificiale, ha argomentato che l’utilizzo non dichiarato di persone fittizie dovrebbe essere un crimine perseguito con la stessa severità con cui vengono perseguiti gli spacciatori di denaro falso. È in gioco, ha sostenuto a ragione, il futuro della nostra civiltà.

In un mondo in cui ogni documento è diventato digitale e perciò facilmente alterabile o generabile a piacere, esso perde la sua valenza di testimonianza su ciò che è successo. A meno che non sia chiaramente legato in modo chiaro e non disconoscibile ad un autore affidabile e credibile. Cominciano ad essere disponibili soluzioni tecnologiche basate sulla certificazione dell’identità e autenticità dello strumento usato per generare un certo contenuto (sta accadendo nel campo della fotografia). In sintesi, è lo stesso principio della carta d’identità elettronica con cui possiamo dimostrare chi siamo quando operiamo sulle piattaforme digitali. Non è detto che siano definitive: ad esempio, non abbiamo ancora un utilizzo generalizzato dei tanti meccanismi di certificazione della provenienza dei messaggi di posta elettronica che pure sono stati inventati da decine di anni. Né va mai dimenticato che anche queste soluzioni, pur se assai sofisticate, possono essere alterate, disponendo di risorse sufficienti e sfruttando le opportune circostanze. E va fatta anche attenzione a non esasperare questo approccio pretendendo di certificare ogni espressione del pensiero umano, poiché ciò – impedendo di fatto il dissenso – porterebbe alla distruzione della democrazia.

Pertanto, sempre di più, nel nostro futuro digitale, le radici della fiducia torneranno ad essere legate agli esseri umani e al rapporto in presenza.

Si tratta di un ritorno all'antico che spero impareremo a riapprezzare, di cui vi è una testimonianza linguistica (che dovrebbe ricordare chi ha fatto il classico) nel verbo del greco antico che esprime l'azione di "sapere" (io so = οἶδα), che altro non è che il tempo passato del verbo che esprime l'azione di "vedere" (io vedo = ὁράω). Quindi, "io so" perché "io ho visto", in prima persona. Spero davvero sia questo il motivo dominante del nostro futuro: la sempre maggiore importanza del piano fisico in una società sempre più digitalizzata.

Il futuro che vale la pena vivere sarà in presenza: possiamo quindi dire, per parafrasare una famosa canzone, “ci vuole un fisico reale”.

--
Versione originale pubblicata su "StartMAG" il 6 febbraio 2024.

domenica 7 gennaio 2024

Il ciclone ChatGPT e la scuola: 5 punti chiave

di Enrico Nardelli

In questi mesi nel mondo della scuola c’è un enorme subbuglio – soprattutto tra i docenti, a causa degli strumenti di intelligenza artificiale generativa (che nel seguito chiamerò, per brevità, IAG), di cui il più noto è ChatGPT. Come mai sta accadendo questo? Per cominciare, gli strumenti di IAG sono oggettivamente in grado di esibire prestazioni (nella produzione di testi, ma anche di immagini, e di molti altri prodotti cognitivi tipicamente realizzati dagli esseri umani) che in molti casi non sono distinguibili da quelle delle persone. Quindi, quelli che nella bella definizione di Stefano Quintarelli sono solo dei SALAMI (Systematic Approaches to Learning Algorithms and Machine Inferences = approcci sistematici per [lo sviluppo di] algoritmi di apprendimento e [sistemi di] deduzione automatica), vengono, a causa di un processo di proiezione che è tipico degli esseri umani che vedono significati dappertutto, erroneamente percepiti nell’interpretazione comune come delle entità realmente intelligenti.

Poi, sono in gioco enormi interessi commerciali, miliardi di euro (o dollari) investiti annualmente per tentare di accaparrarsi quote di mercato che si proiettano in valori almeno mille volte maggiori. Questi spingono ogni giorno, in modo incessante, a descrivere sui mezzi di comunicazione scenari che oscillano dal fantascientifico (risolveremo tutti i problemi dell’umanità) all’apocalittico (perderemo tutti il lavoro), ma sempre finalizzati a costruire una convinzione di ineluttabilità: non c’è alternativa! In particolar modo, dal momento che il modo migliore di convincere qualcuno ad usare un certo prodotto è quello di abituarlo all’uso sin da piccolo, il settore della scuola è quello su cui si concentra la maggiore pressione.

Inoltre, gli strumenti di IAG sono ormai integrati nell’appendice tecnologica di cui tutti siamo dotati, lo smartphone e quindi, volenti o nolenti, tutti si trovano ad utilizzarli. È inevitabile! si ribadisce in continuazione. Il termine “innovativo” viene poi usato come passepartout per convincere chi non è esperto, trascurando di considerare quali possono essere le reali conseguenze di lungo periodo. Ricordiamoci di come nell’ultimo ventennio si siano fatti usare dispositivi digitali ai minori, anche piccolissimi, senza alcun reale controllo, per poi accorgersi che, come documentato nel rapporto finale del giugno 2021 dell’indagine conoscitiva “Sull’impatto del digitale sugli studenti, con particolare riguardo ai processi di apprendimento” svolta dalla Commissione “Istruzione Pubblica e Beni Culturali” del Senato, qualche problema è stato creato, e non di poco conto.

Ora, per limitarci agli strumenti di IAG testuali, cioè quelli che preparano dei testi rispondenti a quanto è stato richiesto (p.es.: quali sono i fatti salienti delle Guerre Puniche? oppure: scrivi una sintesi in 20 righe de “I promessi sposi”, o ancora: descrivi il processo di impollinazione delle piante), la conseguenza immediata sulla scuola è che uno dei modi più tradizionali di verifica delle competenze utilizzato giornalmente, ovvero lo svolgimento di compiti a casa, perde completamente di efficacia. È ovvio, a meno di non instaurare un clima proibizionistico che comunque sarebbe di qualche utilità solo per un breve periodo, che tutti gli scolari li svolgerebbero usando l’IAG.

La risposta non è però inventarsi improbabili modi di farli comunque usare agli studenti. Discuterò nel seguito i cinque punti critici di un approccio di questo genere. La risposta è dar maggior valore all’oralità e al rapporto in presenza. Quindi, meno compiti a casa e più lavoro in classe, il che implica avere classi più piccole e più insegnanti. Certo, servono soldi, ma sull’istruzione si gioca il futuro di un Paese. Un approccio di questo genere, tra l’altro, torna a dare valore alla componente relazionale del rapporto tra docente e studente. Sappiamo bene, almeno a partire dall’analisi fatta da Platone nei suoi Dialoghi, che la componente affettiva della relazione educativa tra didàskalos e mathetés, maestro e allievo, è un aspetto fondamentale della paideia, la crescita etica e spirituale del discepolo. Questa componente può essere arricchita dalla tecnologia, se opportunamente utilizzata, ma mai, mai sostituita, pena l’impoverimento e la distruzione della nostra umanità.

Alcuni comunque dicono: “trasformiamo la disponibilità dell’IAG in un’opportunità per un apprendimento migliore da parte degli studenti; facciamogli fare degli esperimenti con queste tecnologie che comunque si troveranno ad usare da grandi”. Ci sono in questo modo di fare alcuni punti critici assai importanti che vale la pena esaminare.

1) Si tratta di strumenti ancora in fase di sviluppo, che spesso producono risposte che sembrano corrette, ma sono imprecise. Solo se conosciamo bene l’argomento sui cui l’IAG ha prodotto un testo possiamo accorgerci di ciò che non va. Dal momento che nella scuola, tanto più quanto più si è piccoli, l’acquisizione della conoscenza è proprio uno degli aspetti formativi fondamentali, è evidente che non è sensato rischiare che gli scolari apprendano conoscenze errate (se non addirittura viziate da pregiudizi o stereotipi).

2) Sono strumenti controllati dalle solite Big Tech, sui quali vi è un’assoluta mancanza di controllo su come sono stati messi a punto e funzionano, su quali dati siano stati usati per il loro addestramento e su quali prove di sicurezza siano state condotte. Per ogni tecnologia potenzialmente nociva le società hanno introdotto delle regolamentazioni. In questo caso ci sta provando l’Unione Europea con il cosiddetto “AI Act”, per il quale è stato recentemente annunciato l’accordo politico ma non sono noti i dettagli. Però nel frattempo se ne sta incentivando il più possibile l’uso, incuranti dei possibili rischi. Una prima grana è esplosa proprio negli ultimi giorni del 2023, con la notizia che il New York Times, uno dei giornali più noti e con la miglior reputazione al mondo, ha fatto causa per violazione di diritto d’autore a OpenAI e Microsoft perché avrebbero addestrato i loro strumenti IAG sui loro articoli senza esserne autorizzati. Altre se ne attendono a breve, relativamente agli strumenti IAG visuali, cioè quelli in grado di produrre immagini e video, dal momento che diversi utenti su X (precedentemente Twitter) hanno evidenziato che possono produrre immagini protette dal diritto autore, anche se l’utente formula la richiesta in modo generico.

3) Usare strumenti ancora in sviluppo vuol dire lavorare gratis per chi li sta mettendo a punto e magari un giorno ce li rivenderà. Ovvero, stiamo commettendo di nuovo lo stesso errore in cui siamo incorsi abbandonandoci senza pensare troppo a piattaforme sociali intrusive e abusive, che hanno raccolto quantità enormi di dati su di noi e le usano a scopo commerciale. Cosa ce ne viene in cambio? Quando si dice che dobbiamo insegnare ai docenti come fare le domande all’IAG per ottenere l’aiuto di cui possono aver bisogno (il cosiddetto prompt engineering) mi sento rabbrividire: ma davvero vogliamo trasformarli in forza-lavoro gratuita a disposizione delle Big Tech ?

4) Se anche gli strumenti dell’IAG dessero sempre risposte corrette (ma non è così), con il loro uso nei livelli inferiori della scuola non solo rischiamo che i nostri figli acquisiscano conoscenze errate, ma possiamo menomare le loro possibilità di crescita sul piano cognitivo, dal momento che in tal modo essi non le esercitano. Sintetizzare testi, argomentare una posizione, presentare un punto di vista sono competenze fondamentali per un qualunque cittadino. Se non li facciamo esercitare da scolari, non le acquisiranno mai. Un po’ come accade se ci spostiamo solo in automobile e mai a piedi o in bicicletta, le nostre capacità fisiche si indeboliscono. In aggiunta, mentre studiando sui libri ci si allena alla pluralità di punti di vista e modi di presentare un certo argomento, in presenza di pochissime sorgenti di conoscenza il rischio di un indottrinamento sociale, soprattutto per le materie umanistiche, è fortissimo.

5) Mi sembra incredibile il contrasto tra i continui inviti ad usarli e la mancanza di una seria valutazione di tipo etico relativa al coinvolgimento dei minori nell’uso di strumenti ancora sperimentali. Ma come, per qualunque sperimentazione che coinvolga i bambini è, giustissimamente, necessaria l’approvazione sul piano etico, e in questo caso invece niente? Per un recente progetto di ricerca nelle scuole primarie che confrontava due metodi di insegnamento di uno dei costrutti fondamentali dell’informatica, io e i miei colleghi abbiamo dovuto avere l’approvazione di un comitato etico, mentre in questo caso vedo esortazioni a far usare l’IAG a minorenni senza alcuna riflessione su questi aspetti, né su quelli relativi alla privacy. Ma voi vi immaginate se nei primi anni del Novecento i fratelli Wright avessero cominciato a far volare persone sui loro aeroplani mentre li mettevano a punto?

Si dice: ma non c’è alternativa, l’IAG è qua e fa parte della nostra vita. È vero che è già nella nostra vita, ma non c’è un assoluto bisogno di usarla nelle classi. Il che non vuol dire non parlarne o far finta che non esista. L’uso collettivo in aula, sotto il controllo e la guida del docente, accompagnato da una discussione critica, ovviamente al livello consentito dall’età dei bambini, costituisce un’utile informazione su una tecnologia che comunque incontrano. Ma non abbiamo davvero necessità che, allo stato attuale della tecnologia, gli studenti utilizzino regolarmente tali strumenti. Per i docenti, alcuni usi sono possibili, come ho descritto in un recente articolo, ma è necessaria un’estrema attenzione, vista la natura ancora sperimentale di questi strumenti e i pericoli legati alla disseminazione di dati personali dei minori. A questo proposito mi piacerebbe sapere se l’autorità Garante per la Protezione dei Dati Personali ha valutato se l’esortazione agli insegnanti di usare questi strumenti per migliorare la loro didattica, personalizzandola per le esigenze dei singoli studenti, possa mettere a repentaglio la privacy di questi ultimi.

Aggiungo, per essere ancora più chiaro: in un contesto in cui nelle scuole insegniamo le basi scientifiche dell’informatica, può certamente trovare spazio anche la didattica sui princìpi dell’intelligenza artificiale, che costituisce un settore molto importante dell’informatica stessa. Però, insegnare cos’è l’apprendimento automatico (= machine learning), cioè la tecnica fondamentale usata per l’IAG, a chi non sa cos’è un automa o un algoritmo è come tentare di far capire cos’è la trigonometria a chi conosce solo le quattro operazioni aritmetiche. Si può certo raccontare che la trigonometria permette di misurare la distanza tra due alberi al di là di un fiume senza attraversarlo, ma in assenza di un’adeguata base di matematica si tratta di semplice divulgazione. Utile certamente per il cittadino che ha poco tempo per studiare e che deve comunque essere aggiornato sugli avanzamenti scientifico-tecnologici, mentre nella scuola vanno fornite le basi scientifiche per comprendere il mondo intorno a noi, sia quello della natura che quello artificialmente costruito, che in misura sempre maggiore è digitale.

Ripensare l’intero curriculum scolastico alla luce della trasformazione ormai avvenuta da società industriale a società digitale è un passo indispensabile, molto, molto di più che inseguire le mode tecnologiche addestrando studenti e insegnanti all’uso degli strumenti di IAG.

--
Versione originale pubblicata su "StartMAG" il 4 gennaio 2024.