Pagine

mercoledì 28 febbraio 2024

Artificiale o meccanica, questo è il problema

di Enrico Nardelli

In un precedente articolo ho iniziato ad affrontare la questione terminologica legata all’uso dell’espressione “intelligenza artificiale” (IA), che ci porta ad attribuire agli strumenti digitali basati su di essa più di quanto essi siano in grado compiere.

Lo scenario non è facile da capire bene, soprattutto per i non addetti ai lavori, dal momento che le parole che compongono tale termine non aiutano la comprensione comune. Infatti, nell’espressione “intelligenza artificiale” l’aggettivo “artificiale” dà al sostantivo “intelligenza” solo una qualificazione ontologica, cioè che indica la natura costitutiva dell’ente ma non ne descrive le funzioni. Quali siano queste funzioni viene invece comunicato dal sostantivo stesso. Per chiarire attraverso un esempio più comune, quando parliamo di “cuore artificiale” è chiaro a tutti che si tratta di un oggetto fatto di una sostanza diversa da quella di quell'organo che ognuno porta nel petto (è artificiale) ma svolge le sue stesse funzioni (è un cuore).

Per questo, l’espressione “intelligenza artificiale” esprime sì correttamente il fatto che si tratta di qualcosa costituito da una materia diversa da quella sulla quale si basa l’intelligenza umana, ma inganna completamente il senso comune facendo pensare che di vera e propria intelligenza umana si tratti. Certo, indichiamo come intelligenti anche alcuni comportamenti manifestati da cani o gatti o cavalli o scimmie. Però, quando diciamo che un animale è intelligente lo facciamo esattamente perché, in una o più occasioni, si è comportato “come se” fosse stato una persona, ma l'immediatezza vividamente percepibile della sua natura non umana ci impedisce di attribuire ad esso più di quanto c'è nell'uso metaforico del termine. Data la nostra assuefazione alle interazioni digitali, quando invece riceviamo un risultato prodotto da uno strumento dell’IA, poiché la sua natura fisica fatta di circuiti elettronici è nascosta, tendiamo a vedere – a causa di questa espressione evocativa ma imprecisa – più di quello che c’è, trascurando quell’aspetto essenziale del “come se”.

Dovremmo invece chiamare l’IA “intelligenza meccanica”, dal momento che “meccanico” è un aggettivo che descrive le modalità di funzionamento o comportamento di una macchina. Si pensi, ad esempio, all’uso dell'espressione "comportamento meccanico" in opposizione a "comportamento naturale". L’utilizzo dell’aggettivo “meccanico” avrebbe quindi il pregio di richiamare l’attenzione sia sul fatto che la costruzione di nuove rappresentazioni avviene su un piano esclusivamente logico-razionale sia sul modo con cui quest’elaborazione viene eseguita. Cioè, a prescindere da ogni considerazione fisica o emotiva e, quindi, in modo alieno rispetto alla nostra natura. Il che non vuol dire che sia inutile, tutt’altro, ma che è cosa ben diversa da ciò che normalmente chiamiamo “intelligenza”. Le mancano infatti molte dimensioni che danno senso al termine intelligenza usato per le persone, da quella corporea, attraverso la quale sperimentiamo e conosciamo il mondo fisico intorno a noi e che costituisce il substrato comune alle nostre interazioni con gli altri, a quella emotiva, che ci permette di stabili relazioni autentiche e profonde con i nostri simili, a quella artistica, con la quale possiamo esprimere in modo estremamente pregnante il nostro senso estetico, solo per ricordare le più importanti.

Parafrasando un detto a proposito dell’intelligenza dei computer attribuito da questo sito a Edsger Dijkstra, uno dei grandi padri dell’informatica, dire che un sistema informatico è una “intelligenza artificiale” è come dire che un sottomarino è un “pesce artificiale”. Mi pare evidente che sia più preciso definire semmai il sottomarino un “pesce meccanico”.

Il problema è nella parola “intelligenza”: quando la usiamo ci portiamo fatalmente appresso tutte le dimensioni che, nella persona umana, sono inestricabilmente associate ad essa e dipendenti dal suo essere indissolubilmente incarnata in uno specifico corpo fisico. Invece, quella delle macchine cognitive è un’intelligenza totalmente “disincarnata”, quindi priva di tutte quelle componenti che danno senso al nostro destino di esseri umani e al nostro ruolo nella società.

Pragmaticamente, so benissimo che sarà difficile scardinare l'uso di IA, ormai diffuso da 70 anni e che nell'ultimo periodo è esploso diventando parte del discorso comune. Va però ricordato che agli albori di questa disciplina, soprattutto nel mondo accademico, era molto diffusa l’espressione machine intelligence (= intelligenza delle macchine) che certamente serve meglio allo scopo di far capire che stiamo parlando di un tipo diverso di intelligenza. Tra l’altro, era quella usata da Alan Turing, l’informatico inglese che ha inventato il modello teorico di un computer che è ancora oggi il riferimento per tutti gli studiosi del settore e che ha aperto l’area di ricerca dedicata alla comprensione di cosa possa essere l’intelligenza di un computer.

Usare quest’espressione mette bene in rilievo che un'intelligenza meccanica decide in modo puramente razionale, prescindendo dalla natura delle persone e delle relazioni umane, e può aiutare le persone comuni a comprenderla meglio. Ne ho parlato, insieme a riflessioni più generali sul ruolo dei sistemi informatici nella società nella puntata 19 e nella puntata 20 del podcast “Onlife: psicologia della vita quotidiana con Internet”.

Parlare di intelligenza meccanica sarebbe inoltre utile per ricondurla al suo ruolo di potente amplificatore delle nostre capacità di ragionamento logico, così come le macchine industriali potenziano le nostre capacità fisiche. Potrebbe percepirsi meglio, ad esempio, che l'idea di delegare alle macchine cognitive processi decisionali finora svolti dalle persone non è un'idea molto democratica. Chi ritiene che governare la società umana attraverso l'intelligenza meccanica conduca a risultati migliori per tutti non ha compreso che il cosiddetto "bene comune" può emergere solo da un dibattito democratico. Oppure, lo sa benissimo, ed è interessato proprio a svuotare di significato la democrazia. Considerando che gli attori predominanti nel settore del digitale sono multinazionali con bilanci superiori a quelli di molti Stati, l'idea che essi vogliano incrementare in questo modo la loro sfera di influenza non è del tutto peregrina.

Usare le parole in modo appropriato è condizione necessaria per poter avere un dia-logo costruttivo.

--
Versione originale pubblicata su "StartMAG" il 25 febbraio 2024.

mercoledì 21 febbraio 2024

Si scrive IA si legge InformaticA

di Enrico Nardelli

Negli ultimi anni l'intelligenza artificiale (IA) è sulla bocca di tutti. Anche l'uomo della strada ha capito che si tratta di qualcosa di importante, dal momento che ogni giorno è presente sui media, con la scusa che “cambierà radicalmente il nostro futuro”. Certamente tutte le tecnologie hanno trasformato la società in modo importante, ma la nostra natura umana è sempre la stessa ed è importante riflettere se certi messaggi vengono ripetuti in modo ossessivo per il nostro bene o per servire interessi altrui. Cui prodest ?, bisognerebbe chiedersi, ma non è questo il tema di codesta riflessione.

Nel novembre 2020 ero stato invitato a una tavola rotonda su "L'insegnamento dell'intelligenza artificiale in Italia” organizzata dall’AIxIA (Associazione Italiana per l’Intelligenza Artificiale) nell’ambito del loro convegno annuale. Nel corso del mio intervento, intitolato un po’ provocatoriamente proprio “Si scrive IA si legge InformaticA”, avevo osservato che l’esplosione dell’IA stava finalmente facendo capire a tutti l’importanza dell’informatica. Purtroppo, a questo risveglio dell’attenzione si accompagnava, e si accompagna ancora, una visione che ritiene l’IA sia qualcosa di diverso dall’informatica.

In realtà l'IA è una delle aree dell'informatica, tra le più antiche, perché il desiderio di creare qualcosa a nostra immagine e somiglianza è sempre stato forte nell'umanità. Storicamente il termine nasce nel 1955 con una richiesta di finanziamento che alcuni pionieri USA dell’informatica sottoposero alla National Science Foundation per svolgere a Dartmouth un progetto di ricerca della durata di 2 mesi (sic !). Il presupposto su cui era basato era questo: «ogni aspetto dell’apprendimento o di ogni altra caratteristica dell’intelligenza può in linea di principio essere descritto in modo così preciso che si può costruire una macchina in grado di simularlo». Anche se normalmente, quando si scrive una proposta di ricerca, si esagera sempre un pochino per impressionare positivamente chi dovrà decidere sul finanziamento, fa un po’ sorridere – a posteriori – l’ingenuità espressa in quest’affermazione, anche perché la proposta proseguiva argomentando che «un significativo avanzamento su alcuni di questi problemi si può ottenere se un gruppo attentamente selezionato di scienziati ci lavorerà sopra per un’estate». In chiusura, la proposta conteneva una descrizione più cauta e appropriata del problema dell’intelligenza artificiale, descrivendolo come «quello di una macchina che si comporta in un modo che sarebbe chiamato intelligente se fosse il comportamento di un essere umano». In effetti questa similitudine è proprio quella che applichiamo noi per descrivere come intelligente qualcosa di non umano, rimanendo perfettamente consapevoli che si tratta di un “come se” e non della “cosa reale”. Si tratta di un aspetto importantissimo, che invece troppo spesso – quando parliamo di tecnologia – tendiamo a dimenticare.

Comunque, la proposta fu approvata e nel 1956 si svolse l’incontro che battezzò al mondo il termine “intelligenza artificiale” e diede il via allo sviluppo di questo settore dell’informatica. I suoi prodotti – anche grazie a questo nome – esemplificano in modo lampante, ma non esclusivo, le capacità rivoluzionarie dell’informatica. Si tratta della possibilità di costruire quelle che ho definito “macchine cognitive”, cioè macchine che sono in grado di replicare le capacità cognitive logico-razionali dell’essere umano, costituendo – proprio grazie al fatto che sono macchine che non si stancano e non si distraggono – un potente ausilio per le attività cognitive dell’essere umano. Semplificando, possiamo dire che l’automobile sta alle nostre gambe come le “macchine cognitive” stanno al nostro cervello.

Tuttavia, come ho scritto nel novembre 2018, insieme a un gruppo internazionale di esperti, in un rapporto sul codice software sorgente come patrimonio dell’umanità per lo sviluppo sostenibile, in generale né i decisori né il grande pubblico sono consapevoli del fatto che questi artefatti informatici sono radicalmente diversi da qualsiasi precedente congegno creato dall’uomo, che è in genere in grado di potenziare solo le capacità fisiche e sensoriali delle persone. I programmi informatici (cioè il codice sorgente) sono una particolare rappresentazione della conoscenza umana, non nella consueta forma passiva e statica usata per secoli attraverso i libri, ma in un modo nuovo. Si tratta di actionable knowledge, cioè conoscenza pronta per essere messa in azione con l'hardware appropriato e in grado di interagire dinamicamente con il mondo. Il codice sorgente rappresenta quindi una meccanizzazione della conoscenza umana che non ha precedenti nella storia dell’umanità.

Queste “macchine della conoscenza” aumentano le capacità cognitive del genere umano, come le macchine industriali hanno accresciuto ed esteso le capacità fisiche e sensoriali delle persone negli ultimi tre secoli, ma non hanno la capacità di apprendimento e l’adattabilità dell’intelligenza umana.

Senza una comprensione approfondita di questa fondamentale differenza tra una macchina cognitiva e una persona, che è quanto di più lontano da una macchina possa esistere, il ruolo dei sistemi informatici nella società non può essere realmente capito. Ne ho discusso in profondità nel mio libro “La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale”.

Con l’arrivo della variante più potente dell’intelligenza artificiale, la cosiddetta Intelligenza Artificiale Generativa (IAG), la situazione rischia di essere ancora più complicata, visto che la nostra natura umana invariabilmente ci porta ad attribuire alle macchine cognitive, anche a causa delle parole che usiamo, più di quanto esse siano in grado di fare. Il deplorevole stato dello sviluppo del software, che nonostante 60 anni e più di ricerca è ancora incapace di produrre artefatti con lo stesso livello di qualità e prevedibilità delle altre costruzioni dell’ingegneria, fa il resto. Le conseguenze possono andare dalla semplice inefficacia dei sistemi informatici, che non riescono a svolgere le funzioni per cui sono stati pensati o lo fanno solo a prezzo di grande stress ed enorme fatica da parte nostra, alla vera e propria disumanizzazione degli esseri umani, trattati alla stregua di cose, oggetti disincarnati di cui poter disporre a piacimento.

In maniera analoga al famoso detto “la bellezza è negli occhi di chi guarda”, possiamo sostenere che per le macchine cognitive “l’intelligenza è nel cervello di chi legge”. In precedenti articoli ho discusso alcuni aspetti che devono essere tenuti in considerazione, quando si parla dell’uso degli strumenti dell’IAG, dal punto di vista sociale, per la formazione universitaria e per quella scolastica, sia in generale che in modo più specifico.

La questione terminologica è dunque importante: la riprenderemo discutendo più in dettaglio l’espressione “intelligenza artificiale” in un prossimo articolo.

--
Versione originale pubblicata su "StartMAG" il 18 febbraio 2024.

venerdì 9 febbraio 2024

Per il futuro digitale “ci vuole un fisico reale”

di Enrico Nardelli

C’erano state da un po’ di tempo delle avvisaglie. Con l’arrivo degli strumenti di intelligenza artificiale generativa (IAG) si erano dapprima levati alti lamenti contro la diffusione della disinformazione, tema certamente assai delicato, ma che spesso viene trattato con un’imbarazzante amnesia selettiva della storia dell’umanità, nella quale chi ha avuto il potere ha sempre usato e piegato l’informazione al fine di mantenerlo ed estenderlo (ripagato, per quanto possibile, da chi questo potere non l’aveva e voleva conquistarlo). Ci si è spinti, in nome della “corretta” informazione, a demonizzare ogni opinione o discussione che osa avvenire su media non tradizionali, dimenticandosi della lezione di Gramsci sui giornali come strumento di lotta per gruppi di interesse che hanno i mezzi per cercare di influenzare l’opinione pubblica, arrivando addirittura a trasformare i punti di vista scientifici in verità di fede cui credere ciecamente.

Poi abbiamo assistito alla diffusione di articoli generati da questi strumenti e pubblicati da chi un tempo era riconosciuto come autorevole. Sono successivamente arrivati canali di “notizie personalizzate” presentate in video da giornalisti generati sinteticamente. Poche settimane fa, abbiamo visto una famosa cantautrice americana essere colpita dalla diffusione virale di sue finte foto pornografiche, generate appunto con l’IAG. A discredito di una categoria che fino a un po’ di anni fa aveva ancora un rigore etico pressoché assoluto nella pubblicazione, stiamo assistendo al fenomeno – imbarazzante per chi fa questo mestiere ed è, come me, stato formato in un’altra epoca – di sempre più ricercatori che usano allegramente la generazione sintetica per inondare le riviste scientifiche di falsi articoli.

Adesso è arrivata la prova definitiva che i soli avvenimenti ai quali potremo davvero credere in futuro saranno quelli che avverranno alla nostra presenza. In una società finanziaria, un impiegato è stato indotto a trasferire 25 milioni di dollari verso un conto corrente truffaldino mediante una riunione virtuale avvenuta in video-conferenza, alla quale ha partecipato il direttore finanziario della società stessa insieme ad altri membri dello staff. Tutti però, tranne il malcapitato che ha poi operato il trasferimento, erano stati generati sinteticamente dall’IAG. Secondo il resoconto, la truffa era iniziata con la solita mail di phishing ma, a causa delle giustificatissime perplessità dell’impiegato, si è poi evoluta in una vera e propria “sceneggiata” completamente inventata, ma che è andata a segno. Una nota di cautela (non si sa mai!): ho verificato, per quanto in mio potere, la veridicità della notizia me, se anche non lo fosse, non cambia la sostanza del mio argomento.

Dobbiamo essere consapevoli che questa è la realtà nella quale ci troviamo immersi. Come si usa ripetere in questi casi “il genio è fuori dalla bottiglia” e certamente sarà impossibile farlo rientrare. Perché comunque, questo è molto importante da ricordare, l’IAG può offrire enormi opportunità per migliorare ogni nostra attività, se sappiamo usarla bene. Come ho discusso nel mio libro “La rivoluzione informatica” essa costituisce un esempio tra i più potenti di una macchina cognitiva, ovvero un’automazione delle capacità intellettive dell’essere umano, che replica su un piano più elevato ciò che una macchina industriale compie rispetto alle sue capacità fisiche. Siamo certamente sconcertati, dal momento che ciò accade a un livello riservato fino a pochi decenni fa esclusivamente alla specie umana, però sempre di un’attività meccanica si tratta. Il fatto che sia una macchina a svolgerlo lo vedo come un aspetto positivo. In questo senso sono completamente d’accordo con quanto disse alla fine dell’Ottocento Charles W. Eliot, che è stato per quarant’anni, dal 1869 al 1909, presidente dell’Università di Harvard, trasformandola in uno dei più importanti atenei americani: «Un uomo non dovrebbe essere usato per un compito che può essere svolto da una macchina».

Col dilagare dell’IAG diventerà sempre più rilevante la presenza fisica e ciò che fanno le persone direttamente. Mi aspetto, da un lato, lo sviluppo di un mercato di prodotti “culturali” artificialmente generati per il consumo di massa. Sta già accadendo per i libri (ad esempio le guide turistiche) e per la musica (ad esempio sulle piattaforme di streaming). Ma, dall’altro, questo riattribuirà a spettacoli teatrali, concerti ed eventi artistici in presenza, quel valore che stavamo dimenticando.

Ovviamente le conseguenze sociali di questo sviluppo tecnologico devono essere tenute in debito conto, perché rischiamo di trasformare, almeno in quest’Europa che ha visto nel secondo dopoguerra lo sviluppo di una società molto più equa ed equilibrata di quelle che avevamo nei secoli passati, le nostre comunità in nuovi domìni feudali, legati adesso non al possesso della terra ma a quello delle infrastrutture digitali.

Pensate ad esempio ai vari servizi che sono importanti in ogni società democratica: se non facciamo attenzione, chi può pagare avrà il medico o l’avvocato o l’insegnante umano, per tutti gli altri ci sarà quello sintetico. Cercheranno di convincerci che è per il nostro bene avere il professionista “artificialmente intelligente”, mentre invece servirà allo scopo per cui abbiamo visto usare la tecnologia digitale negli ultimi 50 anni. Cioè aumentare la produttività a salario sostanzialmente invariato, incrementando di conseguenza la quota profitti senza far partecipare la classe lavoratrice a questo beneficio e quindi, in ultima analisi, allargando il divario tra le classi sociali.

Giustamente, Daniel Dennett, uno dei pensatori più acuti nel settore dell’intelligenza artificiale, ha argomentato che l’utilizzo non dichiarato di persone fittizie dovrebbe essere un crimine perseguito con la stessa severità con cui vengono perseguiti gli spacciatori di denaro falso. È in gioco, ha sostenuto a ragione, il futuro della nostra civiltà.

In un mondo in cui ogni documento è diventato digitale e perciò facilmente alterabile o generabile a piacere, esso perde la sua valenza di testimonianza su ciò che è successo. A meno che non sia chiaramente legato in modo chiaro e non disconoscibile ad un autore affidabile e credibile. Cominciano ad essere disponibili soluzioni tecnologiche basate sulla certificazione dell’identità e autenticità dello strumento usato per generare un certo contenuto (sta accadendo nel campo della fotografia). In sintesi, è lo stesso principio della carta d’identità elettronica con cui possiamo dimostrare chi siamo quando operiamo sulle piattaforme digitali. Non è detto che siano definitive: ad esempio, non abbiamo ancora un utilizzo generalizzato dei tanti meccanismi di certificazione della provenienza dei messaggi di posta elettronica che pure sono stati inventati da decine di anni. Né va mai dimenticato che anche queste soluzioni, pur se assai sofisticate, possono essere alterate, disponendo di risorse sufficienti e sfruttando le opportune circostanze. E va fatta anche attenzione a non esasperare questo approccio pretendendo di certificare ogni espressione del pensiero umano, poiché ciò – impedendo di fatto il dissenso – porterebbe alla distruzione della democrazia.

Pertanto, sempre di più, nel nostro futuro digitale, le radici della fiducia torneranno ad essere legate agli esseri umani e al rapporto in presenza.

Si tratta di un ritorno all'antico che spero impareremo a riapprezzare, di cui vi è una testimonianza linguistica (che dovrebbe ricordare chi ha fatto il classico) nel verbo del greco antico che esprime l'azione di "sapere" (io so = οἶδα), che altro non è che il tempo passato del verbo che esprime l'azione di "vedere" (io vedo = ὁράω). Quindi, "io so" perché "io ho visto", in prima persona. Spero davvero sia questo il motivo dominante del nostro futuro: la sempre maggiore importanza del piano fisico in una società sempre più digitalizzata.

Il futuro che vale la pena vivere sarà in presenza: possiamo quindi dire, per parafrasare una famosa canzone, “ci vuole un fisico reale”.

--
Versione originale pubblicata su "StartMAG" il 6 febbraio 2024.