Pagine

mercoledì 21 febbraio 2024

Si scrive IA si legge InformaticA

di Enrico Nardelli

Negli ultimi anni l'intelligenza artificiale (IA) è sulla bocca di tutti. Anche l'uomo della strada ha capito che si tratta di qualcosa di importante, dal momento che ogni giorno è presente sui media, con la scusa che “cambierà radicalmente il nostro futuro”. Certamente tutte le tecnologie hanno trasformato la società in modo importante, ma la nostra natura umana è sempre la stessa ed è importante riflettere se certi messaggi vengono ripetuti in modo ossessivo per il nostro bene o per servire interessi altrui. Cui prodest ?, bisognerebbe chiedersi, ma non è questo il tema di codesta riflessione.

Nel novembre 2020 ero stato invitato a una tavola rotonda su "L'insegnamento dell'intelligenza artificiale in Italia” organizzata dall’AIxIA (Associazione Italiana per l’Intelligenza Artificiale) nell’ambito del loro convegno annuale. Nel corso del mio intervento, intitolato un po’ provocatoriamente proprio “Si scrive IA si legge InformaticA”, avevo osservato che l’esplosione dell’IA stava finalmente facendo capire a tutti l’importanza dell’informatica. Purtroppo, a questo risveglio dell’attenzione si accompagnava, e si accompagna ancora, una visione che ritiene l’IA sia qualcosa di diverso dall’informatica.

In realtà l'IA è una delle aree dell'informatica, tra le più antiche, perché il desiderio di creare qualcosa a nostra immagine e somiglianza è sempre stato forte nell'umanità. Storicamente il termine nasce nel 1955 con una richiesta di finanziamento che alcuni pionieri USA dell’informatica sottoposero alla National Science Foundation per svolgere a Dartmouth un progetto di ricerca della durata di 2 mesi (sic !). Il presupposto su cui era basato era questo: «ogni aspetto dell’apprendimento o di ogni altra caratteristica dell’intelligenza può in linea di principio essere descritto in modo così preciso che si può costruire una macchina in grado di simularlo». Anche se normalmente, quando si scrive una proposta di ricerca, si esagera sempre un pochino per impressionare positivamente chi dovrà decidere sul finanziamento, fa un po’ sorridere – a posteriori – l’ingenuità espressa in quest’affermazione, anche perché la proposta proseguiva argomentando che «un significativo avanzamento su alcuni di questi problemi si può ottenere se un gruppo attentamente selezionato di scienziati ci lavorerà sopra per un’estate». In chiusura, la proposta conteneva una descrizione più cauta e appropriata del problema dell’intelligenza artificiale, descrivendolo come «quello di una macchina che si comporta in un modo che sarebbe chiamato intelligente se fosse il comportamento di un essere umano». In effetti questa similitudine è proprio quella che applichiamo noi per descrivere come intelligente qualcosa di non umano, rimanendo perfettamente consapevoli che si tratta di un “come se” e non della “cosa reale”. Si tratta di un aspetto importantissimo, che invece troppo spesso – quando parliamo di tecnologia – tendiamo a dimenticare.

Comunque, la proposta fu approvata e nel 1956 si svolse l’incontro che battezzò al mondo il termine “intelligenza artificiale” e diede il via allo sviluppo di questo settore dell’informatica. I suoi prodotti – anche grazie a questo nome – esemplificano in modo lampante, ma non esclusivo, le capacità rivoluzionarie dell’informatica. Si tratta della possibilità di costruire quelle che ho definito “macchine cognitive”, cioè macchine che sono in grado di replicare le capacità cognitive logico-razionali dell’essere umano, costituendo – proprio grazie al fatto che sono macchine che non si stancano e non si distraggono – un potente ausilio per le attività cognitive dell’essere umano. Semplificando, possiamo dire che l’automobile sta alle nostre gambe come le “macchine cognitive” stanno al nostro cervello.

Tuttavia, come ho scritto nel novembre 2018, insieme a un gruppo internazionale di esperti, in un rapporto sul codice software sorgente come patrimonio dell’umanità per lo sviluppo sostenibile, in generale né i decisori né il grande pubblico sono consapevoli del fatto che questi artefatti informatici sono radicalmente diversi da qualsiasi precedente congegno creato dall’uomo, che è in genere in grado di potenziare solo le capacità fisiche e sensoriali delle persone. I programmi informatici (cioè il codice sorgente) sono una particolare rappresentazione della conoscenza umana, non nella consueta forma passiva e statica usata per secoli attraverso i libri, ma in un modo nuovo. Si tratta di actionable knowledge, cioè conoscenza pronta per essere messa in azione con l'hardware appropriato e in grado di interagire dinamicamente con il mondo. Il codice sorgente rappresenta quindi una meccanizzazione della conoscenza umana che non ha precedenti nella storia dell’umanità.

Queste “macchine della conoscenza” aumentano le capacità cognitive del genere umano, come le macchine industriali hanno accresciuto ed esteso le capacità fisiche e sensoriali delle persone negli ultimi tre secoli, ma non hanno la capacità di apprendimento e l’adattabilità dell’intelligenza umana.

Senza una comprensione approfondita di questa fondamentale differenza tra una macchina cognitiva e una persona, che è quanto di più lontano da una macchina possa esistere, il ruolo dei sistemi informatici nella società non può essere realmente capito. Ne ho discusso in profondità nel mio libro “La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale”.

Con l’arrivo della variante più potente dell’intelligenza artificiale, la cosiddetta Intelligenza Artificiale Generativa (IAG), la situazione rischia di essere ancora più complicata, visto che la nostra natura umana invariabilmente ci porta ad attribuire alle macchine cognitive, anche a causa delle parole che usiamo, più di quanto esse siano in grado di fare. Il deplorevole stato dello sviluppo del software, che nonostante 60 anni e più di ricerca è ancora incapace di produrre artefatti con lo stesso livello di qualità e prevedibilità delle altre costruzioni dell’ingegneria, fa il resto. Le conseguenze possono andare dalla semplice inefficacia dei sistemi informatici, che non riescono a svolgere le funzioni per cui sono stati pensati o lo fanno solo a prezzo di grande stress ed enorme fatica da parte nostra, alla vera e propria disumanizzazione degli esseri umani, trattati alla stregua di cose, oggetti disincarnati di cui poter disporre a piacimento.

In maniera analoga al famoso detto “la bellezza è negli occhi di chi guarda”, possiamo sostenere che per le macchine cognitive “l’intelligenza è nel cervello di chi legge”. In precedenti articoli ho discusso alcuni aspetti che devono essere tenuti in considerazione, quando si parla dell’uso degli strumenti dell’IAG, dal punto di vista sociale, per la formazione universitaria e per quella scolastica, sia in generale che in modo più specifico.

La questione terminologica è dunque importante: la riprenderemo discutendo più in dettaglio l’espressione “intelligenza artificiale” in un prossimo articolo.

--
Versione originale pubblicata su "StartMAG" il 18 febbraio 2024.

venerdì 9 febbraio 2024

Per il futuro digitale “ci vuole un fisico reale”

di Enrico Nardelli

C’erano state da un po’ di tempo delle avvisaglie. Con l’arrivo degli strumenti di intelligenza artificiale generativa (IAG) si erano dapprima levati alti lamenti contro la diffusione della disinformazione, tema certamente assai delicato, ma che spesso viene trattato con un’imbarazzante amnesia selettiva della storia dell’umanità, nella quale chi ha avuto il potere ha sempre usato e piegato l’informazione al fine di mantenerlo ed estenderlo (ripagato, per quanto possibile, da chi questo potere non l’aveva e voleva conquistarlo). Ci si è spinti, in nome della “corretta” informazione, a demonizzare ogni opinione o discussione che osa avvenire su media non tradizionali, dimenticandosi della lezione di Gramsci sui giornali come strumento di lotta per gruppi di interesse che hanno i mezzi per cercare di influenzare l’opinione pubblica, arrivando addirittura a trasformare i punti di vista scientifici in verità di fede cui credere ciecamente.

Poi abbiamo assistito alla diffusione di articoli generati da questi strumenti e pubblicati da chi un tempo era riconosciuto come autorevole. Sono successivamente arrivati canali di “notizie personalizzate” presentate in video da giornalisti generati sinteticamente. Poche settimane fa, abbiamo visto una famosa cantautrice americana essere colpita dalla diffusione virale di sue finte foto pornografiche, generate appunto con l’IAG. A discredito di una categoria che fino a un po’ di anni fa aveva ancora un rigore etico pressoché assoluto nella pubblicazione, stiamo assistendo al fenomeno – imbarazzante per chi fa questo mestiere ed è, come me, stato formato in un’altra epoca – di sempre più ricercatori che usano allegramente la generazione sintetica per inondare le riviste scientifiche di falsi articoli.

Adesso è arrivata la prova definitiva che i soli avvenimenti ai quali potremo davvero credere in futuro saranno quelli che avverranno alla nostra presenza. In una società finanziaria, un impiegato è stato indotto a trasferire 25 milioni di dollari verso un conto corrente truffaldino mediante una riunione virtuale avvenuta in video-conferenza, alla quale ha partecipato il direttore finanziario della società stessa insieme ad altri membri dello staff. Tutti però, tranne il malcapitato che ha poi operato il trasferimento, erano stati generati sinteticamente dall’IAG. Secondo il resoconto, la truffa era iniziata con la solita mail di phishing ma, a causa delle giustificatissime perplessità dell’impiegato, si è poi evoluta in una vera e propria “sceneggiata” completamente inventata, ma che è andata a segno. Una nota di cautela (non si sa mai!): ho verificato, per quanto in mio potere, la veridicità della notizia me, se anche non lo fosse, non cambia la sostanza del mio argomento.

Dobbiamo essere consapevoli che questa è la realtà nella quale ci troviamo immersi. Come si usa ripetere in questi casi “il genio è fuori dalla bottiglia” e certamente sarà impossibile farlo rientrare. Perché comunque, questo è molto importante da ricordare, l’IAG può offrire enormi opportunità per migliorare ogni nostra attività, se sappiamo usarla bene. Come ho discusso nel mio libro “La rivoluzione informatica” essa costituisce un esempio tra i più potenti di una macchina cognitiva, ovvero un’automazione delle capacità intellettive dell’essere umano, che replica su un piano più elevato ciò che una macchina industriale compie rispetto alle sue capacità fisiche. Siamo certamente sconcertati, dal momento che ciò accade a un livello riservato fino a pochi decenni fa esclusivamente alla specie umana, però sempre di un’attività meccanica si tratta. Il fatto che sia una macchina a svolgerlo lo vedo come un aspetto positivo. In questo senso sono completamente d’accordo con quanto disse alla fine dell’Ottocento Charles W. Eliot, che è stato per quarant’anni, dal 1869 al 1909, presidente dell’Università di Harvard, trasformandola in uno dei più importanti atenei americani: «Un uomo non dovrebbe essere usato per un compito che può essere svolto da una macchina».

Col dilagare dell’IAG diventerà sempre più rilevante la presenza fisica e ciò che fanno le persone direttamente. Mi aspetto, da un lato, lo sviluppo di un mercato di prodotti “culturali” artificialmente generati per il consumo di massa. Sta già accadendo per i libri (ad esempio le guide turistiche) e per la musica (ad esempio sulle piattaforme di streaming). Ma, dall’altro, questo riattribuirà a spettacoli teatrali, concerti ed eventi artistici in presenza, quel valore che stavamo dimenticando.

Ovviamente le conseguenze sociali di questo sviluppo tecnologico devono essere tenute in debito conto, perché rischiamo di trasformare, almeno in quest’Europa che ha visto nel secondo dopoguerra lo sviluppo di una società molto più equa ed equilibrata di quelle che avevamo nei secoli passati, le nostre comunità in nuovi domìni feudali, legati adesso non al possesso della terra ma a quello delle infrastrutture digitali.

Pensate ad esempio ai vari servizi che sono importanti in ogni società democratica: se non facciamo attenzione, chi può pagare avrà il medico o l’avvocato o l’insegnante umano, per tutti gli altri ci sarà quello sintetico. Cercheranno di convincerci che è per il nostro bene avere il professionista “artificialmente intelligente”, mentre invece servirà allo scopo per cui abbiamo visto usare la tecnologia digitale negli ultimi 50 anni. Cioè aumentare la produttività a salario sostanzialmente invariato, incrementando di conseguenza la quota profitti senza far partecipare la classe lavoratrice a questo beneficio e quindi, in ultima analisi, allargando il divario tra le classi sociali.

Giustamente, Daniel Dennett, uno dei pensatori più acuti nel settore dell’intelligenza artificiale, ha argomentato che l’utilizzo non dichiarato di persone fittizie dovrebbe essere un crimine perseguito con la stessa severità con cui vengono perseguiti gli spacciatori di denaro falso. È in gioco, ha sostenuto a ragione, il futuro della nostra civiltà.

In un mondo in cui ogni documento è diventato digitale e perciò facilmente alterabile o generabile a piacere, esso perde la sua valenza di testimonianza su ciò che è successo. A meno che non sia chiaramente legato in modo chiaro e non disconoscibile ad un autore affidabile e credibile. Cominciano ad essere disponibili soluzioni tecnologiche basate sulla certificazione dell’identità e autenticità dello strumento usato per generare un certo contenuto (sta accadendo nel campo della fotografia). In sintesi, è lo stesso principio della carta d’identità elettronica con cui possiamo dimostrare chi siamo quando operiamo sulle piattaforme digitali. Non è detto che siano definitive: ad esempio, non abbiamo ancora un utilizzo generalizzato dei tanti meccanismi di certificazione della provenienza dei messaggi di posta elettronica che pure sono stati inventati da decine di anni. Né va mai dimenticato che anche queste soluzioni, pur se assai sofisticate, possono essere alterate, disponendo di risorse sufficienti e sfruttando le opportune circostanze. E va fatta anche attenzione a non esasperare questo approccio pretendendo di certificare ogni espressione del pensiero umano, poiché ciò – impedendo di fatto il dissenso – porterebbe alla distruzione della democrazia.

Pertanto, sempre di più, nel nostro futuro digitale, le radici della fiducia torneranno ad essere legate agli esseri umani e al rapporto in presenza.

Si tratta di un ritorno all'antico che spero impareremo a riapprezzare, di cui vi è una testimonianza linguistica (che dovrebbe ricordare chi ha fatto il classico) nel verbo del greco antico che esprime l'azione di "sapere" (io so = οἶδα), che altro non è che il tempo passato del verbo che esprime l'azione di "vedere" (io vedo = ὁράω). Quindi, "io so" perché "io ho visto", in prima persona. Spero davvero sia questo il motivo dominante del nostro futuro: la sempre maggiore importanza del piano fisico in una società sempre più digitalizzata.

Il futuro che vale la pena vivere sarà in presenza: possiamo quindi dire, per parafrasare una famosa canzone, “ci vuole un fisico reale”.

--
Versione originale pubblicata su "StartMAG" il 6 febbraio 2024.

domenica 7 gennaio 2024

Il ciclone ChatGPT e la scuola: 5 punti chiave

di Enrico Nardelli

In questi mesi nel mondo della scuola c’è un enorme subbuglio – soprattutto tra i docenti, a causa degli strumenti di intelligenza artificiale generativa (che nel seguito chiamerò, per brevità, IAG), di cui il più noto è ChatGPT. Come mai sta accadendo questo? Per cominciare, gli strumenti di IAG sono oggettivamente in grado di esibire prestazioni (nella produzione di testi, ma anche di immagini, e di molti altri prodotti cognitivi tipicamente realizzati dagli esseri umani) che in molti casi non sono distinguibili da quelle delle persone. Quindi, quelli che nella bella definizione di Stefano Quintarelli sono solo dei SALAMI (Systematic Approaches to Learning Algorithms and Machine Inferences = approcci sistematici per [lo sviluppo di] algoritmi di apprendimento e [sistemi di] deduzione automatica), vengono, a causa di un processo di proiezione che è tipico degli esseri umani che vedono significati dappertutto, erroneamente percepiti nell’interpretazione comune come delle entità realmente intelligenti.

Poi, sono in gioco enormi interessi commerciali, miliardi di euro (o dollari) investiti annualmente per tentare di accaparrarsi quote di mercato che si proiettano in valori almeno mille volte maggiori. Questi spingono ogni giorno, in modo incessante, a descrivere sui mezzi di comunicazione scenari che oscillano dal fantascientifico (risolveremo tutti i problemi dell’umanità) all’apocalittico (perderemo tutti il lavoro), ma sempre finalizzati a costruire una convinzione di ineluttabilità: non c’è alternativa! In particolar modo, dal momento che il modo migliore di convincere qualcuno ad usare un certo prodotto è quello di abituarlo all’uso sin da piccolo, il settore della scuola è quello su cui si concentra la maggiore pressione.

Inoltre, gli strumenti di IAG sono ormai integrati nell’appendice tecnologica di cui tutti siamo dotati, lo smartphone e quindi, volenti o nolenti, tutti si trovano ad utilizzarli. È inevitabile! si ribadisce in continuazione. Il termine “innovativo” viene poi usato come passepartout per convincere chi non è esperto, trascurando di considerare quali possono essere le reali conseguenze di lungo periodo. Ricordiamoci di come nell’ultimo ventennio si siano fatti usare dispositivi digitali ai minori, anche piccolissimi, senza alcun reale controllo, per poi accorgersi che, come documentato nel rapporto finale del giugno 2021 dell’indagine conoscitiva “Sull’impatto del digitale sugli studenti, con particolare riguardo ai processi di apprendimento” svolta dalla Commissione “Istruzione Pubblica e Beni Culturali” del Senato, qualche problema è stato creato, e non di poco conto.

Ora, per limitarci agli strumenti di IAG testuali, cioè quelli che preparano dei testi rispondenti a quanto è stato richiesto (p.es.: quali sono i fatti salienti delle Guerre Puniche? oppure: scrivi una sintesi in 20 righe de “I promessi sposi”, o ancora: descrivi il processo di impollinazione delle piante), la conseguenza immediata sulla scuola è che uno dei modi più tradizionali di verifica delle competenze utilizzato giornalmente, ovvero lo svolgimento di compiti a casa, perde completamente di efficacia. È ovvio, a meno di non instaurare un clima proibizionistico che comunque sarebbe di qualche utilità solo per un breve periodo, che tutti gli scolari li svolgerebbero usando l’IAG.

La risposta non è però inventarsi improbabili modi di farli comunque usare agli studenti. Discuterò nel seguito i cinque punti critici di un approccio di questo genere. La risposta è dar maggior valore all’oralità e al rapporto in presenza. Quindi, meno compiti a casa e più lavoro in classe, il che implica avere classi più piccole e più insegnanti. Certo, servono soldi, ma sull’istruzione si gioca il futuro di un Paese. Un approccio di questo genere, tra l’altro, torna a dare valore alla componente relazionale del rapporto tra docente e studente. Sappiamo bene, almeno a partire dall’analisi fatta da Platone nei suoi Dialoghi, che la componente affettiva della relazione educativa tra didàskalos e mathetés, maestro e allievo, è un aspetto fondamentale della paideia, la crescita etica e spirituale del discepolo. Questa componente può essere arricchita dalla tecnologia, se opportunamente utilizzata, ma mai, mai sostituita, pena l’impoverimento e la distruzione della nostra umanità.

Alcuni comunque dicono: “trasformiamo la disponibilità dell’IAG in un’opportunità per un apprendimento migliore da parte degli studenti; facciamogli fare degli esperimenti con queste tecnologie che comunque si troveranno ad usare da grandi”. Ci sono in questo modo di fare alcuni punti critici assai importanti che vale la pena esaminare.

1) Si tratta di strumenti ancora in fase di sviluppo, che spesso producono risposte che sembrano corrette, ma sono imprecise. Solo se conosciamo bene l’argomento sui cui l’IAG ha prodotto un testo possiamo accorgerci di ciò che non va. Dal momento che nella scuola, tanto più quanto più si è piccoli, l’acquisizione della conoscenza è proprio uno degli aspetti formativi fondamentali, è evidente che non è sensato rischiare che gli scolari apprendano conoscenze errate (se non addirittura viziate da pregiudizi o stereotipi).

2) Sono strumenti controllati dalle solite Big Tech, sui quali vi è un’assoluta mancanza di controllo su come sono stati messi a punto e funzionano, su quali dati siano stati usati per il loro addestramento e su quali prove di sicurezza siano state condotte. Per ogni tecnologia potenzialmente nociva le società hanno introdotto delle regolamentazioni. In questo caso ci sta provando l’Unione Europea con il cosiddetto “AI Act”, per il quale è stato recentemente annunciato l’accordo politico ma non sono noti i dettagli. Però nel frattempo se ne sta incentivando il più possibile l’uso, incuranti dei possibili rischi. Una prima grana è esplosa proprio negli ultimi giorni del 2023, con la notizia che il New York Times, uno dei giornali più noti e con la miglior reputazione al mondo, ha fatto causa per violazione di diritto d’autore a OpenAI e Microsoft perché avrebbero addestrato i loro strumenti IAG sui loro articoli senza esserne autorizzati. Altre se ne attendono a breve, relativamente agli strumenti IAG visuali, cioè quelli in grado di produrre immagini e video, dal momento che diversi utenti su X (precedentemente Twitter) hanno evidenziato che possono produrre immagini protette dal diritto autore, anche se l’utente formula la richiesta in modo generico.

3) Usare strumenti ancora in sviluppo vuol dire lavorare gratis per chi li sta mettendo a punto e magari un giorno ce li rivenderà. Ovvero, stiamo commettendo di nuovo lo stesso errore in cui siamo incorsi abbandonandoci senza pensare troppo a piattaforme sociali intrusive e abusive, che hanno raccolto quantità enormi di dati su di noi e le usano a scopo commerciale. Cosa ce ne viene in cambio? Quando si dice che dobbiamo insegnare ai docenti come fare le domande all’IAG per ottenere l’aiuto di cui possono aver bisogno (il cosiddetto prompt engineering) mi sento rabbrividire: ma davvero vogliamo trasformarli in forza-lavoro gratuita a disposizione delle Big Tech ?

4) Se anche gli strumenti dell’IAG dessero sempre risposte corrette (ma non è così), con il loro uso nei livelli inferiori della scuola non solo rischiamo che i nostri figli acquisiscano conoscenze errate, ma possiamo menomare le loro possibilità di crescita sul piano cognitivo, dal momento che in tal modo essi non le esercitano. Sintetizzare testi, argomentare una posizione, presentare un punto di vista sono competenze fondamentali per un qualunque cittadino. Se non li facciamo esercitare da scolari, non le acquisiranno mai. Un po’ come accade se ci spostiamo solo in automobile e mai a piedi o in bicicletta, le nostre capacità fisiche si indeboliscono. In aggiunta, mentre studiando sui libri ci si allena alla pluralità di punti di vista e modi di presentare un certo argomento, in presenza di pochissime sorgenti di conoscenza il rischio di un indottrinamento sociale, soprattutto per le materie umanistiche, è fortissimo.

5) Mi sembra incredibile il contrasto tra i continui inviti ad usarli e la mancanza di una seria valutazione di tipo etico relativa al coinvolgimento dei minori nell’uso di strumenti ancora sperimentali. Ma come, per qualunque sperimentazione che coinvolga i bambini è, giustissimamente, necessaria l’approvazione sul piano etico, e in questo caso invece niente? Per un recente progetto di ricerca nelle scuole primarie che confrontava due metodi di insegnamento di uno dei costrutti fondamentali dell’informatica, io e i miei colleghi abbiamo dovuto avere l’approvazione di un comitato etico, mentre in questo caso vedo esortazioni a far usare l’IAG a minorenni senza alcuna riflessione su questi aspetti, né su quelli relativi alla privacy. Ma voi vi immaginate se nei primi anni del Novecento i fratelli Wright avessero cominciato a far volare persone sui loro aeroplani mentre li mettevano a punto?

Si dice: ma non c’è alternativa, l’IAG è qua e fa parte della nostra vita. È vero che è già nella nostra vita, ma non c’è un assoluto bisogno di usarla nelle classi. Il che non vuol dire non parlarne o far finta che non esista. L’uso collettivo in aula, sotto il controllo e la guida del docente, accompagnato da una discussione critica, ovviamente al livello consentito dall’età dei bambini, costituisce un’utile informazione su una tecnologia che comunque incontrano. Ma non abbiamo davvero necessità che, allo stato attuale della tecnologia, gli studenti utilizzino regolarmente tali strumenti. Per i docenti, alcuni usi sono possibili, come ho descritto in un recente articolo, ma è necessaria un’estrema attenzione, vista la natura ancora sperimentale di questi strumenti e i pericoli legati alla disseminazione di dati personali dei minori. A questo proposito mi piacerebbe sapere se l’autorità Garante per la Protezione dei Dati Personali ha valutato se l’esortazione agli insegnanti di usare questi strumenti per migliorare la loro didattica, personalizzandola per le esigenze dei singoli studenti, possa mettere a repentaglio la privacy di questi ultimi.

Aggiungo, per essere ancora più chiaro: in un contesto in cui nelle scuole insegniamo le basi scientifiche dell’informatica, può certamente trovare spazio anche la didattica sui princìpi dell’intelligenza artificiale, che costituisce un settore molto importante dell’informatica stessa. Però, insegnare cos’è l’apprendimento automatico (= machine learning), cioè la tecnica fondamentale usata per l’IAG, a chi non sa cos’è un automa o un algoritmo è come tentare di far capire cos’è la trigonometria a chi conosce solo le quattro operazioni aritmetiche. Si può certo raccontare che la trigonometria permette di misurare la distanza tra due alberi al di là di un fiume senza attraversarlo, ma in assenza di un’adeguata base di matematica si tratta di semplice divulgazione. Utile certamente per il cittadino che ha poco tempo per studiare e che deve comunque essere aggiornato sugli avanzamenti scientifico-tecnologici, mentre nella scuola vanno fornite le basi scientifiche per comprendere il mondo intorno a noi, sia quello della natura che quello artificialmente costruito, che in misura sempre maggiore è digitale.

Ripensare l’intero curriculum scolastico alla luce della trasformazione ormai avvenuta da società industriale a società digitale è un passo indispensabile, molto, molto di più che inseguire le mode tecnologiche addestrando studenti e insegnanti all’uso degli strumenti di IAG.

--
Versione originale pubblicata su "StartMAG" il 4 gennaio 2024.

martedì 26 dicembre 2023

La raccomandazione europea sull’insegnamento dell’informatica nella scuola

di Enrico Nardelli

Mercoledì 6 dicembre si è svolta alla Camera la conferenza stampa, organizzata dall’Intergruppo Innovazione (gruppo bipartisan di parlamentari che hanno a cuore i temi dell’innovazione), dedicata all'approvazione da parte del Consiglio dell'Unione Europea della proposta di Raccomandazione della Commissione Europea sull'insegnamento dell'informatica nella scuola. Per l'Intergruppo hanno partecipato il senatore Lorenzo Basso (PD) e i deputati Giulio Centemero (Lega) e Giulia Pastorella (Azione). Per il mondo produttivo: Agostino Santoni (vicepresidente per il digitale di Confindustria) e Giorgio Binda (presidente nazionale Unimatica di Confapi). Il video della conferenza stampa è disponibile a questo link.

La Raccomandazione approvata affronta la necessità di far sì che l'istruzione supporti la trasformazione digitale, fornendo le competenze necessarie a questo scopo. Pertanto, viene raccomandato a tutti gli Stati Membri di sviluppare un’istruzione di qualità in informatica nell’istruzione sia primaria che secondaria.

In modo più specifico, si raccomanda di:

  • inserire un insegnamento di alta qualità in informatica dall’inizio dell’educazione obbligatoria, avendo stabilito in modo chiaro gli obiettivi di apprendimento, il tempo dedicato e i metodi di valutazione, allo scopo di offrire a tutti gli studenti la possibilità di sviluppare le loro competenze digitali in modo scientificamente ben fondato,
  • far sì che l’insegnamento dell’informatica sia erogato da insegnanti qualificati, che abbiano a disposizione risorse didattiche di qualità, approcci didattici ben fondati, e appropriati metodi di valutazione degli obiettivi di apprendimento.

Si manifesta quindi chiaramente a tutti gli Stati Membri la necessità di avere l’informatica come disciplina scientifica fondamentale per l’istruzione di tutti i cittadini nel 21-mo secolo. È un’indicazione quanto mai opportuna. Ricordiamo infatti che, con il passare da una società agricola ad una società industriale, il processo educativo delle persone è mutato, introducendo nell’istruzione obbligatoria elementi di quelle scienze (fisica, biologia, chimica, …) che sono alla base di ogni macchina industriale. Analogamente, nel passaggio dalla società industriale alla società digitale è necessario aggiungere nell’istruzione obbligatoria lo studio dell’informatica, indispensabile per comprendere le macchine digitali.

Questa raccomandazione è dunque una svolta epocale, che speriamo serva ad avviare finalmente in tutti i Paesi Europei una seria attività di formazione sull’informatica nella scuola. Ricordo che l’istruzione è una materia di competenza degli Stati Membri, per cui il ruolo dell’Unione Europea rimane sussidiario.

Tutti gli intervenuti sono stati concordi nel ribadire l’auspicio che in Italia venga avviata nella scuola un’intensa attività educativa in questa direzione, sottolineando l’importanza di fare sistema tra pubblico e privato.

In Italia, il Ministro dell’Istruzione e del Merito, Giuseppe Valditara, ha già da tempo dichiarato di voler rafforzare le preparazione scolastica nelle materie scientifiche, obiettivo quanto mai meritorio. Inoltre, dal momento che questa proposta della Commissione indica in modo evidente l’informatica come la materia scientifica alla base della preparazione per la società digitale, sarebbe opportuno integrare quanto previsto in tale settore, anche nell’ambito del PNRR, dove sono discusse solo le competenze operative di utilizzo della tecnologia digitale.

A questo fine, nella missione M4 (Istruzione e Ricerca) del PNRR è presente la sotto-componente C1.3 (Ampliamento delle competenze e potenziamento delle infrastrutture), che prevede l’investimento 3.1 (Nuove competenze e nuovi linguaggi), con l’obiettivo di «promuovere l’integrazione, all’interno dei curricula di tutti i cicli scolastici, di attività, metodologie e contenuti volti a sviluppare le competenze STEM, digitali e di innovazione», con a disposizione fondi per 1.100 milioni di euro.

Con il DM n.184 del 2023 sono state pubblicate le linee guida STEM, che danno solo indicazioni, necessariamente non dettagliate, su cosa fare relativamente alle competenze digitali. A tal proposito, si fa notare che il Laboratorio Informatica e Scuola del CINI, il Consorzio che raggruppa più di 50 università statali italiane attive nel settore dell’informatica ed è quindi l’istituzione di riferimento in Italia per la formazione in informatica, aveva preparato, già da dicembre 2017, una proposta molto dettagliata dei traguardi di competenze e degli obiettivi di apprendimento per l’insegnamento dell’informatica in tutte le fasce dell’istruzione obbligatoria, che viene citata in una nota delle linee guida stesse.

Il Ministero, con DM n.65 del 12 aprile 2023, ha già assegnato 600 milioni di euro alle scuole per lo sviluppo delle competenze STEM degli studenti: ogni istituto dovrà preparare i relativi progetti seguendo tali linee guida. Osserviamo preliminarmente che, per garantire sostenibilità nel lungo periodo ai processi di trasformazione digitale, in aggiunta alla formazione degli studenti è necessaria quella degli insegnanti, così da consentire di preparare i ragazzi anche negli anni successivi ai fondi PNRR. Inoltre, riteniamo che per aumentare l’efficacia dell’azione ministeriale occorra fornire agli istituti coinvolti, ben inteso senza ledere l’autonomia scolastica, indicazioni precise sui contenuti.

In quest’ottica, è utile guardare a chi, dei grandi paesi Europei, ha affrontato questo snodo prima di noi e può quindi indicarci una strada. Vi è l’esempio del Regno Unito. Nell’a.s. 2014-15 aveva inserito un curricolo di informatica obbligatorio per tutte le scuole. Nel novembre 2017 un rapporto della Royal Society aveva evidenziato che però la situazione era addirittura peggiorata. Allora nel novembre 2018 il governo ha deciso uno stanziamento di 84 milioni di sterline per la creazione, concretizzatasi nel 2019, di un istituto nazionale per l’insegnamento dell’informatica, il National Centre for Computing Education, che sta per essere rifinanziato.

Sulla linea di investimento 3.1 dovrebbero essere rimasti fondi in quantità sufficiente per un intervento di questo genere, imprescindibile se si vuol preparare il Paese alla transizione digitale.

È quindi indispensabile una chiara determinazione in questa direzione da parte della politica, che sia anche supportata da intese larghe e trasversali, per guidare una trasformazione che richiederà almeno un decennio per essere completata. Solo così potremo garantire alle future generazioni la possibilità di governare il loro futuro digitale.

--
Versione originale pubblicata su "StartMAG" il 23 dicembre 2023.

mercoledì 22 novembre 2023

Intelligenza artificiale e scuola: facciamo chiarezza

di Enrico Nardelli

Stiamo osservando una corsa frenetica all’utilizzo degli strumenti di Intelligenza Artificiale (IA) nel mondo della scuola, quando essi presentano ancora alcuni aspetti critici che, soprattutto in questo settore in cui gli interventi sono grado di produrre effetti di lungo periodo, andrebbero invece considerati con estrema attenzione e studiati con tempi maggiormente dilatati. Mi sembra importante evitare che accada qualcosa di simile a quanto avvenuto con l’utilizzo dei dispositivi digitali, introdotti a tappeto nel settore dell’istruzione nel corso degli ultimi vent’anni e per i quali solo recentemente si sta facendo attenzione ai problemi che tale uso eccessivo ha creato. Si veda a tal proposito il documento finale, pubblicato nel giugno 2021, dell’indagine conoscitiva “Sull’impatto del digitale sugli studenti, con particolare riguardo ai processi di apprendimento” svolta dalla Commissione “Istruzione Pubblica e Beni Culturali” del Senato.

Espongo quindi nel seguito qualche elemento utile ad una riflessione più meditata su questo tema.

Prima di iniziare è necessario ricordare che i vari livelli della formazione (primaria, secondaria inferiore, secondaria superiore, terziaria, professionale) hanno esigenze diverse e richiedono approcci diversi. In questo articolo mi concentro quindi sul settore scolastico. Del mondo universitario ne ho parlato qua. Agli studenti di un corso di laurea magistrale, che hanno già competenze di base in un certo settore e le devono approfondire e raffinare, si può, ad esempio, chiedere che esaminino criticamente elaborati prodotti da strumenti dell’IA, come importante esercizio di verifica del loro livello di preparazione. Questo approccio non mi sembra invece così rilevante nel mondo scolastico, dove i discenti stanno ancora formando le loro competenze di base. Per poter criticare bisogna prima di tutto sapere e saper fare.

Bisogna poi distinguere tra i diversi ruoli per la fruizione dell’IA nella scuola: studenti, docenti, personale amministrativo. Le ultime due categorie possono usare questi strumenti per essere aiutati nello svolgimento di attività ripetitive (facendo attenzione agli aspetti relativi alla privacy dei dati ad essi forniti), laddove per gli studenti l’esercizio, anche ripetuto, delle funzioni cognitive non può essere evitato (mediante l’uso di questi strumenti) pena l’inevitabile carenza che ne conseguirebbe per lo sviluppo delle loro competenze. Questo elemento viene troppo spesso dimenticato, laddove un’esperienza educativa plurisecolare ci ricorda che non solo le capacità fisiche ma anche quelle intellettuali hanno necessità di esercizio costante e ripetuto per poter essere sviluppate.

Inoltre, è necessario differenziare tra uso della tecnologia e formazione sui suoi princìpi scientifici: si tratta di una distinzione troppo spesso ignorata. Gli strumenti dell’IA, pur potendo essere enormemente utili nel lavoro cognitivo razionale, cioè quello che a partire da elementi oggettivi consente di produrre nuovi dati logicamente consistenti con quelli di partenza e conseguenti da essi (qualcosa che – più in generale – fanno tutti i sistemi informatici, le “macchine cognitive” di cui ho parlato nel mio libro “La rivoluzione informatica”), hanno dei meccanismi di funzionamento abbastanza complessi che, per poter essere compresi, richiedono di essere introdotti solo in presenza degli adeguati prerequisiti matematici e scientifici che normalmente la scuola non fornisce.

Infatti, in Italia siamo ancora in ritardo sulle competenze scientifiche di base necessarie per poter affrontare con successo la transizione digitale (su questo tema invito a consultare gli atti del convegno svolto il 19 ottobre u.s. presso l’Accademia dei Lincei in tema di insegnamento dell’informatica nella scuola), come raccomandato ad Aprile 2023 della Commissione Europea di aprile 2023, COM(2023) 206 final, che ha esortato tutti gli stati membri a inserire un’istruzione di alta qualità sull’informatica fin dall’inizio dell’istruzione obbligatoria. Il grande pubblico non ha ancora capito cos’è davvero l’informatica, la disciplina scientifica alla base del mondo digitale. L’IA è un settore molto specialistico dell’informatica e se, come per molti altri settori dell’informatica, gli strumenti che esso produce sono utilizzabili anche dall’uomo comune, una comprensione dei suoi meccanismi di funzionamento deve essere basata su conoscenze di base di informatica che al momento le persone comuni non posseggono. Invece, è come se cercassimo di spiegare il calcolo differenziale e integrale a chi non ha mai studiato matematica nella scuola.

Infine, ma non meno importante, bisogna valutare rischi e benefici dell’inserimento degli strumenti dell’IA nella scuola. Essi possono apportare vantaggi, per alcune tipologie di utenti, riducendo la fatica legata ad attività cognitivo-razionali di tipo ripetitivo, ma i possibili vantaggi vanno valutati alla luce anche dei potenziali effetti negativi: riduzione della privacy, diffusione di disinformazioni, generazione di testi scorretti perché basati esclusivamente sulla statistica (le cosiddette allucinazioni – ne ho parlato qua), consumo energetico e relativo impatto ambientale (una query fatta ad uno strumento basato sull’IA ha un costo decine di volte superiore a quello di una query fatta ad un normale motore di ricerca), disumanizzazione del rapporto docente-studente in cui la componente relazionale è un aspetto essenziale.

Gli strumenti di IA possono infatti portare a una maggiore produttività per i docenti, se attraverso di essi riescono a ridurre il tempo dedicato alle attività ripetitive consentendo quindi loro di dedicarsi maggiormente alla cura degli studenti maggiormente bisognosi. Tra queste attività di routine ricordiamo, ad esempio: generazione di testi di esercizi e di esame, generazione di presentazioni a partire da testi (sommarizzazione), generazione di testi a partire da indici fini, fornire spiegazioni a richieste di chiarimenti semplici, etc. Ovviamente, è fondamentale essere sempre consapevoli che hanno dei margini di errore che richiedono di controllare sempre quanto da essi prodotto (e, quindi, di conoscere bene l’argomento che viene trattato) e che la responsabilità ultima è sempre della persona.

In generale, invece, il loro uso non sorvegliato da parte degli studenti per l’attività scolastica è da evitare. Alcuni, ad esempio, hanno suggerito che essi potrebbero usarli a casa per ottenere una prima valutazione dei loro compiti. Un po’ bizzarra, come idea, visto che a questo punto potrebbero poi anche usarli per produrre i compiti stessi! Ma soprattutto, alla luce delle possibili allucinazioni in cui questi strumenti incorrono, sono proprio gli studenti che più hanno bisogno di questa funzione quelli che meno sono in grado di rendersi conto di eventuali errori da essi commessi. Ovviamente gli studenti avranno comunque accesso ad essi attraverso i loro smartphone, e quindi bisognerà resistere a tentazioni proibizionistiche in favore di un’opera di informazione e diffusione di conoscenza, condotta – ad esempio – attraverso l’uso collettivo e la discussione critica nella classe. D’altro canto, è questa probabilmente è una buona notizia, il fatto che attraverso di essi sia possibile a chiunque produrre un testo scritto di buon livello, implicherà un ritorno e una maggiore presenza di rapporti umani diretti e dialogo orale.

Per alcuni indirizzi di scuola, penso in particolare agli istituti tecnici per l’informatica, andranno adeguati i curricoli (e sviluppato il necessario aggiornamento professionale per i docenti) per inserire un’adeguata formazione scientifica e tecnologica su questo settore, che influenzerà in modo significativo il mondo del lavoro nel prossimo futuro. Dato che chi sceglie questo indirizzo tecnico è generalmente orientato a entrare, al suo completamento, direttamente nel mercato del lavoro, è giusto che la preparazione in quest’ambito divenga parte della loro formazione.

Per concludere, sarà fondamentale che gli strumenti di IA usati nel mondo della scuola siano controllati/vigilati dal settore pubblico, onde evitare i rischi connessi a realizzazioni esclusivamente commerciali, che non hanno controlli indipendenti su come sono stati realizzati, con quali dati sono stati addestrati, a quali verifiche di sicurezza sono stati sottoposti, come usano e manipolano i dati forniti, in quali possibili discriminazioni legate al genere o ad altre diversità possono incorrere. Sono tutti aspetti che hanno un elevato impatto sociale e che per questo motivo richiedono il massimo livello di attenzione. Va anche ricordato che si tratta di una tecnologia ancora in fase sperimentale e che ogni nostra interazione con essa è un contributo al suo sviluppo fornito del tutto gratuitamente. Sarebbe accettabile solo per uno strumento posseduto dalla collettività e i cui miglioramenti vanno comunque a vantaggio di tutti.

Circa vent’anni anni dopo l’arrivo delle consolle di videogiochi e quindici anni dopo la diffusione degli smartphone in Italia, la Commissione Parlamentare citata in apertura concludeva la sua indagine con queste parole: «Ci sono i danni fisici ... E ci sono i danni psicologici ... Ma a preoccupare di più è la progressiva perdita di facoltà mentali essenziali, le facoltà che per millenni hanno rappresentato quella che sommariamente chiamiamo intelligenza: la capacità di concentrazione, la memoria, lo spirito critico, l’adattabilità, la capacità dialettica... Sono gli effetti che l’uso, che nella maggior parte dei casi non può che degenerare in abuso, di smartphone e video-giochi produce sui più giovani ». Non vorrei che tra altrettanto tempo una nuova Commisione Parlamentare arrivasse alle stesse (forse più) terribili conclusioni in riferimento all’uso degli strumenti dell’Intelligenza Artificiale.

Il futuro dei nostri figli è troppo importante per sacrificarlo sull’altare della produttività e del progresso tecnologico.

--
Versione originale pubblicata su "StartMAG" il 19 novembre 2023.

giovedì 19 ottobre 2023

Il successo di ITADINFO: quando la passione e le persone fanno la differenza

di Enrico Nardelli

È appena finito ITADINFO, il convegno italiano sulla didattica dell'informatica nella scuola, che ha avuto a Bari la sua prima edizione. Ne scrivo a caldo, prima che la memoria di questi tre giorni inizi ad essere ricoperta dai nuovi impegni.

Quando con i colleghi del Laboratorio Informatica e Scuola, che raccoglie chi svolge attività di ricerca in questo ambito, avevamo discusso negli anni passati l'idea di avviare iniziative dedicate in modo specifico agli insegnanti, avvertivamo in qualche modo la loro importanza ma non sapevamo ancora quale avrebbe potuto essere la risposta da parte dei docenti. Insomma, di mestiere facciamo i ricercatori e i didatti, mentre far partire un convegno nazionale è un'attività più imprenditoriale, non esattamente nelle corde di un accademico. Teniamo presente che qui non stiamo parlando di sicurezza informatica o intelligenza artificiale, per le quali ci sono (giustamente) un'estrema attenzione e una grandissima disponibilità di risorse da parte di enti e istituzioni.

Qui si tratta di scuola, settore di cui spesso molti si riempiono la bocca, ma che ha purtroppo conosciuto dagli anni '80 ad ora un continuo definanziamento e degradazione del ruolo sociale, spingendo al contempo per una sua trasformazione da servizio essenziale di formazione di cittadini dotati di conoscenze e pensiero critico a fabbrica che deve sfornare in modo sempre più efficiente "prodotti" pronti ad essere consumati dal mercato. Atteggiamento suicida per una società che, nel secondo dopoguerra, grazie anche alla scuola di quel periodo che non faceva sconti a nessuno, era riuscita nel 1987 a diventare, da Paese semidistrutto da una guerra mondiale che aveva perso, la quinta potenza economica al mondo. Per un’analisi di questa tendenza e delle sue nefaste conseguenze segnalo, ex multis, "Il danno scolastico", il bel volume di Mastrocola e Ricolfi dal significativo sottotitolo “La scuola progressista come macchina della disuguaglianza”.

Poi, un paio di iniziative pilota (nel 2020 e nel 2022, ottimamente organizzate dai colleghi dell'Università di Milano Statale) ci avevano confortato e, alla fine, anche con l'incoraggiamento degli organi direttivi del CINI, il Consorzio Interuniversitario Nazionale per l'Informatica di cui il Laboratorio è uno dei bracci operativi, ci siamo lanciati nell'organizzazione.

Abbiamo trovato sponsor che hanno avuto fiducia in noi, mettendo a disposizione quelle risorse economiche senza le quali solo in fantasiosi resoconti giornalistici si riescono a organizzare iniziative serie, e che ritengo quindi doveroso ricordare in segno di ringraziamento. Gli sponsor espositori: Axios Italia, Edizioni Themis, PLD Artech; e gli sponsor: SeeWeb e KnowK. Il Magazine che ospita questo mio articolo ci ha dato una mano sulla diffusione mediatica. Avevamo scelto Bari, come sede di questo primo convegno, anche perché è stato uno dei primi atenei ad attivare in Italia corsi di laurea in informatica (che a quel tempo si chiamava "scienze dell'informazione") e la Puglia è tuttora una delle regioni in cui la comunità dei docenti scolastici interessati dall’informatica è più numerosa e attiva. Città e Regione ci hanno dato subito il patrocinio. L’eccellente lavoro del comitato organizzatore locale, "le magnifiche tre" colleghe del Dipartimento di Informatica (Veronica Rossano, Enrica Gentile e Paola Plantamura), ci ha portato in una sede che è un capolavoro dell’architettura razionalista degli anni ’30 (date un’occhiata a storia e foto) e ha preparato un programma sociale coi fiocchi.

Le nostre aspettative hanno superato ogni più rosea previsione. La città, per chi di noi non ci era mai stato o mancava da parecchio tempo, si è rivelata affascinante e ci ha accolto con un clima semplicemente perfetto.

Anche la sessione iniziale dei saluti istituzionali si è trasformata in una tavola rotonda multidisciplinare e ricca di stimoli. Il rettore dell'Università Di Bari Stefano Bronzini ha sottolineato l’importanza di non trascurare il lato umano e la formazione umanistica quando si parla di innovazione, aspetto sul quale gli informatici sono via via maggiormente attenti, considerando che le tecnologie digitali incidono in modo sempre più profondo sulla vita delle persone e sulle loro relazioni sociali.

Eugenio Di Sciascio, vice sindaco di Bari, ha ricordato che il problema di questo Paese non è mettere computer nelle scuole e nelle aziende, ma creare competenza sulla capacità di capire e governare questi strumenti. Osservazione che purtroppo, nella corsa alla trasformazione digitale, viene spesso dimenticata e che invece spinge a rimettere il ruolo della didattica scolastica e universitaria al centro della riflessione e della pianificazione.

Su questa linea ha continuato Filippo Lanubile, direttore del Dipartimento di informatica dell’ateneo barese, chiedendo di ridare importanza alla valutazione dell’attività didattica nella valutazione della carriera universitaria, pena l’impossibilità di far crescere quelle professionalità che sono necessarie per affrontare le sfide che ci pone una formazione universitaria moderna.

Ernesto Damiani, il presidente del CINI, ha riportato questa esigenza generale allo specifico mondo della scuola, dove per governare nel modo migliore un futuro sempre più digitale sarà fondamentale insegnare l’informatica facendo attenzione a far capire gli aspetti concettuali della disciplina, evitando di considerarne solo gli elementi tecnologici.

Nel chiudere questo giro di considerazioni, la cui singolare concordia mi ha fatto immediatamente capire che con questo evento avevamo centrato il bersaglio, ho ripreso lo stimolo del rettore, non a caso un letterato. Ho ricordato come Platone nei suoi immortali Dialoghi, abbia – con estrema pregnanza – evidenziato la componente affettiva della relazione educativa tra didàskalos e mathetés, maestro e allievo, come un aspetto fondamentale della paideia, la crescita etica e spirituale del discepolo. E affinché questa componente eserciti il suo effetto non ci deve essere tecnologia di mezzo, ma compresenza in uno stesso luogo fisico. La tecnologia digitale può arricchire le relazioni umane, se opportunamente utilizzata, ma rischia di impoverirle e distruggerle, se male utilizzata. Di questo aspetto noi informatici dobbiamo essere estremamente consapevoli e assumercene la responsabilità, esattamente allo stesso modo con cui nella seconda metà del secolo scorso i fisici si sono impegnati per evitare che il nucleare conducesse l’umanità all’estinzione.

Il programma scientifico che si è poi sviluppato ha visto docenti scolastici e ricercatori universitari offrire e assistere a resoconti di esperienze e laboratori formativi, in un dialogo stimolante e arricchente. L'uditorio è stato, dal primo all'ultimo momento, sempre presente, attento e numeroso, esperienza non proprio abituale, come ben sa chi per mestiere va a convegni scientifici.

Alla fine, quasi non volevamo più smettere.

I complimenti da parte dei docenti che hanno partecipato (molti visibili sulla pagina social del convegno) ci hanno dato la spinta a continuare, con la voglia di creare una comunità sempre più attiva e collaborativa.

--
Versione originale pubblicata su "StartMAG" il 16 ottobre 2023.

martedì 17 ottobre 2023

Intelligenza artificiale generativa: tra Borges e il ritorno dell’oralità

di Enrico Nardelli

Tutti, o almeno lo spero, conoscono il famoso racconto di Borges “La biblioteca di Babele” (una delle più belle sintesi di letteratura e matematica) in cui l’eccelso scrittore argentino rappresenta questa biblioteca immaginaria che, estesa infinitamente in tutte le direzioni, contiene un numero infinito di volumi con tutte le possibili combinazioni di caratteri, racchiudendo quindi tutta la conoscenza del mondo, anche quella di cui non siamo ancora consapevoli, e tutte le sue variazioni e negazioni.

Nel corso di una recente tavola rotonda interdisciplinare organizzata dai colleghi dell’università Milano Bicocca, in cui si è parlato di intelligenza artificiale generativa (IAG) e formazione universitaria e di come gestire la presenza dell’IAG nella produzione delle tesi di laurea, ho prima osservato che nell'ultimo ventennio il processo di produzione delle tesi si è evoluto, con l'ubiqua diffusione delle tecnologie digitali, dal passare lunghe giornate in biblioteca allo scandire la rete attraverso i motori di ricerca. Uno scatto in avanti enorme, perché ha messo le biblioteche di tutto il mondo a portata delle nostre dita digitanti. Poi ho aggiunto che sta avvenendo adesso un altro balzo almeno della stessa portata e probabilmente superiore, visto che l’IAG (di cui ChatGPT è l'esempio più noto) oltre che riportarci questa conoscenza è anche in grado di farne estratti e sommari e concatenarla in argomentazioni.

In un certo senso, quindi, è come se adesso avessimo a disposizione con l’IAG una biblioteca "attiva" dotata di super-poteri. È un passaggio dello stesso tipo di quello, descritto nel mio libro "La rivoluzione informatica", che è avvenuto nel passaggio dalla conoscenza passiva contenuta nei libri alla conoscenza attiva contenuta nei programmi software ("conoscenza in azione", l'ho chiamata). Con i libri, erano le persone, dopo aver assimilato i libri, a far agire nel mondo la conoscenza passiva contenuta in essi. Con i programmi informatici, chiunque li abbia a disposizione, può ottenere lo stesso effetto, anche se non ha assimilato la conoscenza in essi contenuta, mandandoli in esecuzione su un dispositivo digitale. Con l’IAG potete produrre dei nuovi testi anche su argomenti di cui sapete poco o niente.

C’è purtroppo il problema che alle volte l’IAG racconta fatti che non sono accaduti e cita opere che non esistono. È stato chiamato “allucinazione”, per analogia con l’omonimo fenomeno che capita alle persone, e costituisce il principale tallone d’Achille di questa potente tecnologia ed elemento di estrema attenzione nel suo uso in campo educativo. Per altri versi, penso che Borges forse avrebbe apprezzato le capacità dei sistemi di IAG di mescolare e combinare frammenti di testi esistenti producendo variazioni a non finire. Sono sicuro che i creativi in ogni campo, anche se giustissimamente preoccupati dalle spinose questioni di diritto d’autore che l’IAG sta sollevando, ne apprezzino queste capacità.

Con i colleghi coinvolti nella tavola rotonda ci siamo interrogati su cosa dover cambiare nel modo di fare didattica all’università. Per la scuola è un discorso di altro tipo, che affronterò in un successivo articolo. Nella mia visione dei sistemi informatici, quindi anche di quelli che appartengono alla classe dell’IAG, come “macchine cognitive”, ovvero come meccanismi in grado di potenziare le nostre capacità puramente razionali e logiche, una volta che uno studente sia arrivato a padroneggiare la competenza specialistica di un certo insegnamento universitario, non ritengo sensato proibire l’utilizzo di un ausilio meccanico che gli allevii la fatica mentale di produrre un certo elaborato.

Purché, lo ripeto dal momento che è il punto centrale, padroneggi la materia. Solo in questo caso, infatti, può rendersi conto se qualcosa, in ciò che l’IAG ha prodotto è un’allucinazione. Ad alto livello di astrazione non cambia molto, quando si usano sistemi di IAG rispetto all’uso di una biblioteca. La responsabilità finale di un testo è sempre dell’autore che lo produce, qualunque sia le basi su cui si è poggiato: biblioteca standard o biblioteca “attiva” con super-poteri. Se in biblioteca non si trovano gli articoli o volumi più appropriati, se si copia pedissequamente il testo senza citare, lo studente ha comunque svolto male il suo lavoro. Se con l’IAG non si attua quel controllo che può derivare solo da un’approfondita conoscenza della materia, si fa lo stesso tipo di errore. Forse più grave, perché il mezzo è più potente e, come ripete sovente un noto personaggio dei fumetti, «da un grande potere derivano grandi responsabilità».

Abbiamo però convenuto che, soprattutto a livello di lauree triennali, richiedere il tradizionale elaborato finale, ovvero la tesi, rischia di non avere più senso, dato che la fatica di metterlo insieme a partire dal materiale di base – lavoro che poi determina che lo studente lo assimili e lo faccia suo – può essere quasi tutta delegata all’IAG, circostanza che ne rimuove i potenziali benefici.

Ritengo che sia invece importante riportare l'enfasi sulla capacità della persona di esibire "sul momento" le competenze il cui possesso veniva tradizionalmente attestato dalla scrittura della tesi. "Hic Rhodus, hic salta " viene ricordato nella favola di Esopo allo spaccone che si vantava di essere stato in grado di fare un salto prodigioso a Rodi: se è vero, puoi rifarlo dovunque, anche qua.

Sono convinto che, con l’avvento dell’IAG, siamo di fronte a un momento storico, per certi versi speculare a quello avvenuto circa 2500 anni fa, quando la scrittura prese il sopravvento, come mezzo primario di comunicazione, rispetto alla parola. Quella transizione, di cui abbiamo testimonianza, tra le altre, in memorabili pagine dei Dialoghi di Platone del quarto secolo avanti Cristo, è stata il primo passo per la diffusione della cultura e il progresso dell’umanità. Tuttavia, il filosofo ateniese riporta nel Fedro la posizione di Socrate che ritiene la parola scritta inferiore a quella orale, soprattutto se l’oralità è esercitata dialetticamente, poiché lo scritto non è in grado di rispondere a chi lo interroga e serve essenzialmente come ricordo a chi già sa le cose, mentre la parola detta è posseduta “nell’anima” di chi la pronuncia ed è quindi in grado di aiutare chi ha necessità di conoscere.

Ritengo che la disponibilità degli strumenti di IAG possa ridare forza e valore all’oralità, considerato che con tali strumenti tutti sono in grado di produrre ed esibire testi scritti che sembrano certificare il possesso di qualsivoglia competenza. Se tutti sono in grado di realizzarli, la loro presenza non è più in grado di dimostrare alcunché, come nella critica di Socrate al testo scritto. Ma se il loro autore viene interrogato e sollecitato, allora si vedrà chi davvero possiede la conoscenza “nell’anima” e chi è solo in grado di ripetere “sempre la stessa cosa”. Ecco perché penso che nell’accademia ritorneremo, in una qualche misura, a quella tradizione praticata proprio nella prima Accademia della storia.

È chiaro che la scrittura, soprattutto con l’incredibile potenziamento causato dall’invenzione della stampa a caratteri mobili ad opera di Gutenberg nel quindicesimo secolo, manterrà sempre un ruolo importante per la diffusione della conoscenza.

Ma trovo molto bello che, in una quale misura, proprio le ultime e più sconvolgenti innovazioni della tecnologia digitale stiano ridando valore a qualcosa di molto antico, a ciò che solo le persone possono avere: il rapporto umano e il dialogo orale.

--
Versione originale pubblicata su "StartMAG" il 14 ottobre 2023.

sabato 20 maggio 2023

Informatica nella scuola: dall’Europa un segnale forte e chiaro

di Enrico Nardelli

Da molto tempo ormai mi spendo in Italia e in Europa sul tema dell’importanza dell’insegnamento dell’informatica nella scuola. Qui da noi, attraverso il progetto Programma il Futuro, che porta nelle scuole di tutti i livelli i princìpi scientifici dell’informatica, arrivato quest’anno al nono anno di realizzazione. Sul continente, con l’attività condotta attraverso le associazioni scientifiche del settore, culminate nella costituzione della coalizione Informatics for All. Più recentemente, sto provando a diffondere la consapevolezza su questo tema anche a livello del grande pubblico con il mio libro La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale.

Ritengo infatti che esattamente come il processo educativo delle persone è mutato, con il passare da una società agricola ad una società industriale, introducendo nell’istruzione obbligatoria elementi di quelle scienze (fisica, biologia, chimica, …) che sono alla base di ogni macchina industriale, così nel passaggio dalla società industriale alla società digitale sia necessario aggiungere nell’istruzione obbligatoria lo studio dell’informatica, indispensabile per comprendere le macchine digitali.

Purtroppo in Europa negli ultimi venti/trenta anni ha regnato pressoché indisturbato il mito delle “abilità digitali”, le digital skills oggetto di decine di documenti dell’Unione Europea.

All’inizio degli anni ’90, con l’esplosione della tecnologia informatica resa accessibile a tutti dalla diffusione del personal computer si è battuto in modo ossessivo il tasto della “patente europea del calcolatore” (European Computer Driving Licence ) pensando che sarebbe bastato “saper guidare” un computer per essere digitalmente competenti. Una miopia: come se nell’Ottocento avessimo pensato che sarebbe bastato insegnare a tutti a guidare automobili e motociclette per industrializzare un Paese. Saper usare dispositivi e sistemi digitali per facilitare l’insegnamento o il lavoro non vuol dire conoscere la scienza alla base della loro progettazione e realizzazione.

Negli anni 2000, poi, sono state introdotte le “competenze digitali” tra le competenze chiave per l’apprendimento permanente (Key Competences for Lifelong Learning ), di nuovo articolandole sostanzialmente in termini di abilità operative, quando invece sarebbe stato indispensabile aggiungere alle competenze scientifiche tradizionali, necessarie per comprendere il mondo fisico, quelle informatiche, essenziali per comprendere il mondo digitale.

Infine, negli ultimi anni, con le diffusione a tutti i livelli dei dispositivi digitali è nato il grande equivoco della Digital Education, cioè dell’insegnamento mediante infrastrutture basate sulle tecnologie digitali. Si è pensato che questo approccio alla scuola, cioè fare lezione usando sistemi e prodotti digitali, avrebbe prodotto cittadini digitalmente competenti.

Niente di più sbagliato. Prima di tutto perché non è detto che usare le tecnologie digitali migliori necessariamente l’insegnamento, poi perché si lega l’insegnamento alla disponibilità di dispositivi che spesso diventano determinanti, nel senso che non sono facilmente sostituibili. Un insegnante che decide di cambiare libro di testo con il passare degli anni non sarà normalmente vincolato a scegliere una stessa casa editrice. Se invece per l’insegnamento è stata usata una specifica piattaforma tecnologica ecco che il cambiamento diventa notevolmente più difficile. Si tratta del ben noto fenomeno del vendor lock-in, temuto da tutti coloro che hanno a cuore la capacità di un’azienda di evolvere e cambiare in risposta alle sfide del mercato e della competizione.

Un ulteriore motivo di equivoco sulla “Digital Education” è che questa produce utenti/consumatori di tecnologie e prodotti digitali e non creatori degli stessi. Per questo scopo serve insegnare la disciplina scientifica alla base della progettazione e realizzazione delle stesse. Esattamente nello stesso modo che saper guidare un’automobile o usare una lavatrice non produce un ingegnere, né saper pesare la pasta o cucinarla produce un fisico o un chimico. Su questo aspetto l’Unione Europea si è baloccata un po’ troppo nella direzione sbagliata.

Ad Aprile 2023 è stata pubblicata dalla Commissione Europea una proposta di Raccomandazione al Consiglio dell’Unione Europea (COM(2023) 206 final) che manda un segnale forte e chiaro in tema di insegnamento dell’informatica nella scuola. Vedremo subito cosa contiene. Voglio però prima sottolineare che nel relativo documento tecnico di accompagnamento c’è un esplicito riconoscimento dell’errore strategico commesso. Vi si dice infatti che, mentre «è riconosciuta a livello internazionale l’esistenza di una tendenza emergente e marcata nei sistemi educativi verso l’inclusione dell’Informatica come parte dei curriculi nazionali e come parte dell’istruzione per tutti i cittadini », ricordando che «l’Informatica è progressivamente diventata un’importante competenza fondamentale a fianco delle tre-R: lettuRa, scrittuRa, aRitmetica », ciò che è accaduto sul nostro continente è che «per un po’ di tempo, la maggior parte dei sistemi educativi europei sono rimasti in ritardo su questa tendenza, focalizzandosi più sull’alfabetizzazione digitale e sulla digitalizzazione dell’insegnamento ». Infine ammette che «Il limite maggiore di questo approccio è che, nonostante fornisca agli studenti i mezzi per usare le tecnologie digitali, non li equipaggia adeguatamente con le capacità di creare, controllare e sviluppare i contenuti digitali ».

La proposta di Raccomandazione al Consiglio è molto esplicita in tema di insegnamento dell’informatica.
  Il “considerando” 19 infatti afferma «A prescindere dalle scelte curricolari, è necessario promuovere un'istruzione di qualità nell'informatica, coadiuvata da metodi di insegnamento idonei all'età e alla fase di sviluppo, da risorse di qualità, da rappresentanza e diffusione equilibrate dal punto di vista del genere, nonché da una valutazione adeguata », mentre il “considerando” 26 ricorda «… i problemi che quasi tutti gli Stati membri devono affrontare per l'assunzione, il mantenimento in servizio e la preparazione degli insegnanti, in particolare nell'informatica (per l'istruzione primaria/secondaria …) o in altri settori digitali specifici/avanzati (per l'istruzione superiore) ».
  Al punto 4 delle raccomandazioni si richiede agli Stati Membri di «sostenere un'istruzione di alta qualità in informatica a scuola », in particolare garantendo che «fin dall'inizio dell'istruzione obbligatoria … tutti gli studenti abbiano l'opportunità di sviluppare le proprie competenze digitali attraverso l'esposizione agli elementi fondamentali dell'informatica » e prendendo in considerazione «la possibilità di introdurre l'informatica come materia distinta, per fornire un'offerta più mirata che abbia obiettivi chiari in termini di istruzione e formazione, ore di lezione e valutazione strutturata ». Viene anche sottolineata l’importanza «provvedere affinché l'insegnamento e l'apprendimento dell'informatica siano sostenuti da docenti qualificati e specializzati » e di «promuovere la diversità e una diffusione equilibrata dal punto di vista del genere e ridurre eventuali stereotipi nell'insegnamento e nell'apprendimento dell'informatica ».
  Il punto 5 è dedicato al ruolo fondamentale che in questo processo devono svolgere i docenti, raccomandando agli Stati membri di «istituire e migliorare le misure per l'assunzione e la formazione di docenti specializzati nel settore dell'informatica ». Ricordiamo che nel Regno Unito, che aveva introdotto nell’anno scolastico 2014-15 un curriculum di informatica obbligatorio in tutte le scuole a partire dalla prima elementare, si sono accorti dopo qualche anno che la situazione era addirittura peggiorata per l’assenza di un congruo numero di docenti adeguatamente preparati.

Si tratta quindi di una svolta epocale, che speriamo serva ad avviare finalmente in tutti i Paesi Europei una seria attività di formazione sull’informatica nella scuola. Ricordo che l’istruzione è una materia di competenza degli Stati Membri, per cui il ruolo dell’Unione Europea rimane sussidiario. Fortunatamente, almeno in Italia, il Ministro dell’Istruzione e del Merito, Giuseppe Valditara, ha già da tempo dichiarato di voler rafforzare le preparazione scolastica nelle materie scientifiche. Dal momento che questa proposta della Commissione indica chiaramente l’informatica come la materia scientifica alla base della preparazione per la società digitale, confidiamo che ne risulti un aggiustamento di rotta rispetto a quanto finora messo in cantiere in tale settore, anche nell’ambito del PNRR, dove si è continuato a puntare sulle competenze operative di utilizzo della tecnologia digitale.

Come tutti i processi educativi, non è qualcosa che possa accadere in breve tempo, ma è in gioco la possibilità di essere attori di primo piano nello sviluppo della società digitale. La nostra comunità accademica di informatici e ingegneri informatici è pronta, attraverso il Laboratorio Nazionale CINI “Informatica e Scuola” da me diretto, ad accompagnare questo processo. Quest’anno svolgeremo a ottobre a Bari il primo convegno nazionale sulla didattica dell’informatica (ITADINFO), con la partecipazione di docenti della scuola e ricercatori universitari.

Sarà adesso necessaria una forte volontà politica, accompagnata da un accordo bi-partisan indispensabile per supportare un cambiamento che richiede tempi almeno decennali per andare a regime, per assicurare ai nostri figli la possibilità di governare il loro futuro digitale.

--
Versione originale pubblicata su "StartMAG" il 17 maggio 2023.

martedì 11 aprile 2023

Stop and think… The unbearable impulse to be the first to comment on social media

di Isabella Corradini

These days everyone is talking about the decision of the Italian Data Protection Authority to block the use of ChaptGPT, the natural language processing tool based on artificial intelligence, capable of performing various functions, including to provide answers to questions or write/summarize texts requested by users. I do not want to dwell on that, although I have my own opinion, since this is not the aspect I want to highlight in this article.

What I want to highlight instead is the human tendency, especially when discussing topics like digital innovation, to "jump into the fray" by completely removing the moment of reflection, which is needed to make reasonable evaluations. We know how digital technologies are producing significant changes in our social and working daily life, which would require an in-depth examination. Instead, never as in this period, many experts and self-called experts challenge each other with posts and comments on social media to have their say, by siding as if they were watching a football match. Unfortunately, it also happens that someone exaggerates, because social media, given their nature, certainly do not encourage an articulated debate on issues requiring much more space and time for a fruitful discussion.

By Geralt, via Pixabay

What I observe is the growth of this tendency, which could be called as "the impulse to be the first to comment facts on social media", as if there were no tomorrow. It does not matter if there is not enough knowledge about the actual facts, what matters is to be constantly present on social media and prove “to be on the ball”.
Needless to say, this way of intervening on complex issues, such as ChatGPT (but there can be many other examples), makes the public debate ineffective, as well as entailing the real risk of determining a poor quality of the information. That is certainly devastating from a communicative point of view and, above all, has the relevant consequence of hampering the correct spreading of information (I wonder whether this is the real goal in the end...). Not to mention that all these efforts - often in a frantic way - are not justly rewarded, considering the Internet cauldron in which they will end up. We have to consider that those articles, in the current era, quickly become outdated.

The frenzy that drives individuals to comment also explains certain views: just think of those - probably not having many other points of discussion - claiming that certain things must be done absolutely and quickly, otherwise the country (Italy in this case) risks falling behind in comparison to other countries. In short, the important thing is always to move forward "whatever it takes", how and with what consequences it does not matter. An example is represented by all those who get excited by reading about large large investments in Artificial Intelligence announced by important companies, while they do not care about the fact that those same companies, as a result of the huge investments, plan to lay off thousands of people.

Some days ago, I attended a pleasant meeting in Milan together with a group of experts with different skills and backgrounds (the DLNet coordinated by a friend of mine, Andrea Lisi, a lawyer), where we also discussed the "anxious way" used by people to interact on social media. We asked ourselves whether it is better to provide answers on the spot or think about it one more day, at the cost of losing the moment of glory. We came to the same conclusion, namely that there would be a greater benefit for society if, before diving into the sea of posts regarding a specific event, individuals stop and think and then express their opinion with a cold mind and in a more reasonable way. 

Stop and think: something that should be an integral and enriching part of the human nature, but that we are often debasing. Whether it is social media, technological innovations or the fear of falling behind, in the current era stopping and thinking is no longer fashionable. 

The paradox is that in educating kids to develop a conscious use of digital technologies, one of the most used slogans is: think before you post! 

That is why adults first should set a good example.

lunedì 10 aprile 2023

The debate on the future in society of Artificial Intelligence has just begun

di Enrico Nardelli

(versione italiana qua)

The debate over the use of ChatGPT has been raging in recent days, especially because of the news about the decision to block it issued by the Italian Data Protection Authority, which has elicited opposite reactions: some applauding it, others considering it as a liberticidal and authoritarian measure. I therefore believe that, first of all, it is necessary to make it clear, even to those who know nothing about what is "under the hood" of digital technologies, which is the issue at stake.

For this purpose, I propose a thought experiment which may appear distant from the topic of this article, but which, in my opinion, illustrates the essence of the situation very well. So, imagine that someone comes along with a machine of the size of a gas boiler for an apartment and says to you: "Here is a mini-nuclear reactor for domestic use, its initial charge of fissile material is capable of giving you hot water for heating and all the needs of the house for the next 10 years, and it costs only a few thousand euros!"

Certainly, with this solution, we could solve many problems and all live better. However, it could happen that, every now and then, such an object would overheat and produce a mini nuclear explosion....

Not a very attractive prospect, is it? Even though our society would not be destroyed or damaged, it would seem obvious to everyone that the game is not worth the candle. Equally obvious is that we would not allow them to be freely marketed, even if the manufacturing companies insisted that they would soon find solutions able to prevent explosions altogether. In a similar way, observing that this is a strategic technology for our country, which would be developed by others if we did not, would not be a valid reason to accept its uncontrolled use.

In the case of generative Artificial Intelligence (AI) systems, ChatGPT is the most famous example of, we are in a similar situation: the enormous power which nuclear technology deploys at the physical level is comparable to what AI based systems release at a cognitive level. In my recent book “La rivoluzione informatica. Conoscenza, consapevolezza e potere nella società digitale” (= The Informatics Revolution. Knowledge, awareness and power in the digital society), I introduced the term “cognitive machines”, to denote the fact that any digital system, not only the AI based ones, acts at this level where it is able, through its purely logical-rational capabilities, to concatenate and infer data, emulating what previously only human beings were able to carry out. I synthetically described in a previous article their dangers in relation to the cognitive development of children.

The possible evolution of this scenario is even more harmful if we consider that, while mini-reactors would have to be built, shipped and put in place one by one with hardly compressible timeframes, these other systems (also called "chatbots") can be replicated at will with no effort at all and made available anywhere in the blink of an eye.

All the media have therefore given great visibility to the appeal, launched on March 29 by very important people in the AI area, including scientists like Yoshua Bengio or Stuart Russell and entrepreneurs like Elon Musk or Steve Wozniak, with the goal of blocking for 6 months the development of the next generation of chatbot technology.

The problem is real and I can understand why so many of my colleagues have supported this appeal with their signature.

Further comments by equally relevant scientists, however, have pointed to the risk that such an appeal actually contributes to the frenzy that has reached soaring levels in recent months, diverting the attention from the real problems. As noted – among others – by Emily Bender, the researcher who in 2020 published, along with Timnit Gebru (the scientist who was later fired by Google for this very reason), the first paper warning of the potential negative effects of this technology, the letter points to some false problems (e.g., that the realization of a "digital mind" is now imminent or that a system with "general artificial intelligence" is now possible) while neglecting many of the real ones, such as the absolute lack of transparency about how these systems have been developed and work, the lack of clarity about safety tests conducted, the risk that accessibility to everyone is already spreading misinformation that is also very harmful (in my previous article I brought a few examples), the fact that their development significantly affects the consumption of natural resources.

As I discussed in other occasions, I do not think it makes sense to block research and development in this area but, as the thought experiment described at the beginning of this article I hope has shown, some form of regulation must be found to balance the indispensable precautionary principle with the importance of using innovation to improve society.

That is why I believe the decision taken by the Italian Data Protection Authority is appropriate, even though not decisive. The way forward is the one Center for AI and Digital Policy in the U.S. has indicated by filing a complaint with the Federal Trade Commission (the independent agency of the U.S. government dedicated to consumer protection and competition oversight) and calling on it to intervene since chatbots engage in behaviors that are deceptive to consumers and dangerous from the standpoint of information accuracy and user safety.

A similar request was made by the European Consumers' Organization, which asked national and European authorities to open an investigation into these systems.

Better focused on the real issues at stake, however, is the open letter published by Leuven University in Belgium. It calls up the manipulation risk that people may face by interacting with chatbots, as some individuals build a bond with what they perceive as another human being, a bond that can result in harmful situations.

In fact, the main threat chatbots pose to humans is that they exhibit human-like competence on the syntactic level but are light years away from our semantic competence. They have no real understanding of the meaning of what they are producing, but (and this is a major problem on the social level) since they express themselves in a form that is meaningful to us, we project onto their outputs the meaning that is within us.

In a nutshell, these are the proposals of this second appeal: awareness-raising campaigns for the general public, investing in research on the impact of AI on fundamental rights, creating a broad public debate on the role to be given to AI in society, establishing a legal framework with strong guarantees for users, meanwhile taking all necessary measures to protect citizens under existing legislation.

We are nowadays facing extremely powerful systems which, as Evgeny Morozov recently reminded us in his article in The Guardian, are neither intelligent in the sense that we humans give to this term, nor artificial since – as demonstrated ad abundantiam, among others, by Antonio Casilli in his book "Schiavi del Click" – they are based on an enormous amount of undeclared and poorly paid human labor carried out in Third World countries, as well as on our (in)voluntary contribution consisting of all the "digital traces" we relentlessly provide during our activity on the Web.

The potential benefits are enormous, but so are the risks. The future is in our hands: we must figure out together, democratically, what form we want it to take.

--
The italian version has been published by "StartMAG" on 3 April 2023.