Pagine

sabato 22 febbraio 2025

A passeggio con l’informatica #20 – Non avrai intelligenza al di fuori di me!

precedente #19 –––          

di Enrico Nardelli

Mentre nel post precedente abbiamo messo a fuoco alcune caratteristiche dell’intelligenza delle macchine, in questo mi concentro su alcuni aspetti peculiari dell’intelligenza umana, che la rendono diversa da quella che ho suggerito di chiamare “intelligenza meccanica” e quindi, ritengo, impossibile da realizzare attraverso meccanismi artificiali.

Si tratta di alcuni elementi che caratterizzano in modo specifico e unico la comunità di individui in carne e ossa, e rispetto ai quali le macchine cognitive sono intrinsecamente diverse da noi.

Una prima differenza deriva dal fatto che le informazioni sul mondo che noi acquisiamo mediante i sensi diventano rappresentazioni, cioè dati, per le nostre elaborazioni, attraverso il filtro del nostro cervello, che quindi ci fa percepire una realtà che non necessariamente è oggettiva, ovvero universalmente condivisa. Però, avendo le persone una stessa natura umana, pur nella loro diversità individuale, si può raggiungere un qualche grado di accordo sull’oggettività di ciò che viene percepito, anche grazie all’ausilio del linguaggio che ci permette di spiegare e condividere le descrizioni delle sensazioni provate. Questo non accade tra noi e altre specie animali. A maggior ragione, non si applica a una macchina cognitiva che riceve rappresentazioni già definite da qualcuno (in base a criteri da questo stabiliti ma che magari non sono noti e quindi difficilmente condivisibili) oppure le deve costruire attraverso sensori fisici di acquisizione, anch’essi governati da altri automi. È arduo sostenere che questo consenta di avere rappresentazioni condivise tra uomini e macchine.

Una seconda differenza risiede nel fatto che, come già detto, le macchine cognitive non hanno un corpo fisico, e quindi non possono trattare tutti quegli aspetti emotivi che dipendono intrinsecamente da esso. Le più recenti acquisizioni delle neuroscienze ci dicono che quando abbiamo paura o siamo felici, queste emozioni sono prima di tutto reazioni fisiche che avvengono in modo involontario nel nostro corpo a causa di eventi percettivi (ma possono essere scatenate anche dall’attivazione di un ricordo) e che hanno lo scopo, giustificato in base all’evoluzione, di mantenere l’equilibrio del corpo stesso, per esempio facendoci fuggire da una situazione di pericolo o permanere in una condizione positiva. Il ruolo delle emozioni è fondamentale nel determinare la nascita e la crescita delle relazioni sociali e nella valutazione delle situazioni. La loro assenza nelle macchine cognitive è una differenza che le mette in modo insuperabile in una classe a parte. Connessa a questa mancanza vi è l’assenza dell’autocoscienza, cioè della coscienza di se stessi, elemento fondamentale per poter “sentire le emozioni”. Non si può escludere, in linea teorica, la possibilità che, grazie agli sviluppi delle tecniche di intelligenza artificiale, si riesca a creare delle macchine cognitive che sono in qualche modo coscienti di se stesse. Ma, anche se questo dovesse accadere, e mi sembra molto improbabile, si tratterebbe sempre dell’autocoscienza di una specie aliena rispetto alla razza umana, perché basata su materiali fisici differenti.

Una terza differenza è quella della creatività, dell’intuizione, di ciò che in modo sotterraneo, subconscio, ci rende possibile di “uscire dagli schemi” e trovare chiavi di lettura decisive per scenari apparentemente indecifrabili. Essa deriva, in modi assolutamente non chiari – allo stato attuale dell’indagine scientifica, dall’interazione tra il livello della coscienza, ovvero il “luogo della mente” in cui abbiamo le rappresentazioni del corpo fisico, e il livello del corpo fisico. Poiché le macchine cognitive non hanno né l’una né l’altro sembrano essere chiaramente escluse da questa possibilità.

Certamente vi sono i recentissimi sistemi di intelligenza artificiale generativa che, a partire dal 2021, sono in grado di sintetizzare, a partire da una descrizione testuale, un’immagine fotografica o artistica, o anche una sequenza video, che realizza tale descrizione. Tralasciamo il fatto che questi sistemi, non avendo una reale comprensione a livello simbolico di ciò che rappresentano, possono facilmente generare immagini o video erronei rispetto alle conoscenze tacitamente accettate e condivise dall’umanità (p.es.: il fatto che le persone non hanno né tre braccia né tre gambe o che se due gattini stanno giocando non può spuntare dal nulla in mezzo a loro un terzo gattino). Il punto centrale è che la cosiddetta creatività che viene attribuita a questi sistemi risiede in realtà nella formulazione di ciò che le si chiede di realizzare.

Tutto il resto non è che l’automazione di un’attività di tipo cognitivo, estremamente sofisticata e che non sto in alcun modo sminuendo: va però considerato che tale automazione sta alle capacità intellettive dell’essere umano nello stesso modo con cui una fabbrica automatizzata sta alle sue capacità fisiche. Chiaramente, il fatto che tutto ciò accade ad un livello che, fino a qualche decennio fa, era riservato alla specie umana ci lascia un po’ sconcertati, però sempre di un’attività meccanica si tratta.

Il fatto che ci siano macchine cognitive a svolgere lavori di questo tipo è certamente un aspetto positivo. In questo senso sono completamente d’accordo con l’opinione di Charles W. Eliot, che è stato per quarant’anni presidente dell’Università di Harvard, dal 1869 al 1909, trasformandola in una delle più importanti università americane: «Un uomo non dovrebbe essere usato per un compito che può essere svolto da una macchina ».

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 19 febbraio 2025.

sabato 15 febbraio 2025

A passeggio con l'informatica #19 – Intelligenza delle macchine: è vera intelligenza?

di Enrico Nardelli

Continuando il discorso sulle macchine cognitive iniziato nel post precedente, osserviamo che si tende a considerare i dati elaborati dalle macchine cognitive come un qualcosa di oggettivo e assoluto, sulla base dell’etimologia di “dato” (che deriva dal latino datum = ciò che è stato dato) quando in realtà esso, in quanto rappresentazione di un fenomeno, ne costituisce solo un modello, uno dei tanti possibili. Quindi, nell’atto di scegliere un dato c’è già un’idea di interpretazione, che è soggettiva e che guida le modalità con le quali chi poi leggerà il dato gli darà un senso. L'esempio che tutti conoscono è quello della bottiglia, che può essere mezza vuota o mezza piena. Anche se usiamo un linguaggio più scientifico, posso descrivere questa bottiglia come un recipiente del volume di un litro contenente mezzo litro di acqua (bottiglia mezza piena) o contenente mezzo litro di aria (mezza vuota). Sto descrivendo lo stesso fenomeno, ma focalizzo il lettore su due interpretazioni differenti. La selezione di un certo insieme di dati è quindi l’atto fondamentale su cui si basa la successiva interpretazione. Si tratta di un meccanismo ben noto sia ai professionisti dell’informazione, che spesso lo usano per guidare chi legge verso una certa interpretazione, sia a chi per mestiere cerca di capire cosa sia davvero accaduto in certe occasioni, che si trova spesso di fronte resoconti contrastanti di una stessa vicenda da parte dei testimoni oculari.

Una seconda osservazione rilevante è che, data l’enorme quantità di dati digitali utilizzabili e la disponibilità di sofisticate tecniche di apprendimento automatico (machine learning), sembra non ci sia più bisogno di teorie, ovvero di quadri interpretativi coerenti per i fenomeni, perché l’opera di invenzione di queste teorie può essere sostituita dall’attività di macchine cognitive che, macinando senza fatica terabyte e terabyte di dati con sofisticate analisi statistiche, scopriranno per noi tutte le teorie necessarie. Quest’opinione, lanciata nel 2008 da Chris Anderson, direttore responsabile di Wired (una delle prime riviste che hanno affrontato il tema dell’impatto del digitale sulla società), sosteneva appunto che con il diluvio di dati disponibili non ci sarebbe più stato bisogno della teoria. L’ipotesi ha avuto nel 2016 una netta confutazione scientifica da parte degli informatici Christian Calude e Giuseppe Longo, che hanno matematicamente dimostrato come al crescere della quantità dei dati aumenta il numero di correlazioni che possono essere trovate in essi. Dal momento che questo è vero anche se i dati sono stati generati in modo casuale, ne discende che una correlazione trovata semplicemente applicando tecniche statistiche senza essere guidata da un modello interpretativo (cioè, da una teoria) non ha un significato intrinseco. Le macchine cognitive quindi, con le loro enormi capacità di analisi dati, possono certamente arricchire il metodo scientifico, ma non potranno mai sostituirlo.

Le macchine cognitive sono sicuramente utili al progresso della società umana e, data la velocità di avanzamento della tecnologia, è ragionevole aspettarsi che su un piano cognitivo puramente razionale le loro capacità analitico-deduttive saranno presto insuperate. Questo, però, non vuol dire che la cosiddetta “singolarità tecnologica” verrà presto raggiunta. Con questo termine si intende il momento in cui una macchina cognitiva diventa più intelligente di un essere umano, prefigurando quindi la sottomissione della nostra specie. Si tratta di una paura ancestrale, quella della macchina che si ribella al suo creatore, presente nella letteratura fin dal medievale mito ebraico del golem, passando per il racconto di Karel Capek, che ha dato origine al moderno uso della parola “robot", per arrivare alla fantascienza e ai moderni resoconti sui mass media, originati, questi ultimi, da personaggi molto noti in ambito tecnologico quali Ray Kurzweil ed Elon Musk.

La realtà è ben diversa. L’intelligenza delle macchine e l’intelligenza umana sono due cose piuttosto differenti, anche se hanno una qualche sovrapposizione. Il problema è che usando il termine intelligenza, che per tutta la storia dell’umanità ha sempre indicato quella umana, accoppiato all’aggettivo artificiale, tendiamo a evocare l’idea che si tratti di intelligenza umana artificialmente realizzata mediante automi. In altre parole, il termine “intelligenza artificiale” induce a credere che esso descriva più di quello che effettivamente è. Invece, come detto, si tratta solo dell’aspetto legato alle capacità analitico-deduttive puramente razionali, ovvero alla possibilità di calcolare nuovi dati logicamente implicati dai dati sotto esame. Ho articolato questa riflessione in un articolo in cui ho suggerito (in modo un po’ provocatorio, perché non penso che, a questo punto, si possa davvero cambiare modo di dire) di usare l’espressione “intelligenza meccanica” invece che “intelligenza artificiale”, per meglio concentrare l’attenzione sul fatto che si sta parlando comunque di capacità meccaniche, anche se estremamente sofisticate. In quest’ambito, come abbiamo già avuto prova nel campo dei giochi da tavolo, le macchine cognitive sono superiori alle capacità umane, così come le macchine industriali hanno superato l’uomo per quanto riguarda le capacità fisiche.

Discuteremo nel prossimo post alcune caratteristiche dell’intelligenza umana che appaiono difficilmente ottenibili mediante le macchine.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 12 febbraio 2025.

sabato 8 febbraio 2025

A passeggio con l'informatica #18 – Macchine cognitive

di Enrico Nardelli

Avendo terminato con il post precedente un rapido excursus sui concetti fondamentali più rilevanti dell’informatica come disciplina scientifica, in questa seconda parte iniziamo una serie di riflessione sul suo impatto su persone e società.

L’attuale società digitale è pervasa da macchine cognitive, che realizzano cioè operazioni di natura cognitiva. Sottolineo che con tale termine non sto assegnando a queste macchine un’intrinseca capacità cognitiva simile a quella degli esseri umani, ma solo che le funzioni che esse meccanicamente svolgono sono analoghe a quelle di elaborazione puramente logico-razionale che svolgono le persone. È inoltre opportuno aggiungere che negli individui, avvenendo tali elaborazioni in una mente incarnata in un corpo fisico, è difficile, se non impossibile in certe situazioni, farle accadere su un piano esclusivamente logico-razionale.

Si tratta di una vera e propria rivoluzione, la “rivoluzione informatica”, che ho caratterizzato come la terza “rivoluzione dei rapporti di potere”, e di cui parlo estesamente nel mio libro La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, perché per la prima volta nella storia dell’umanità complesse funzioni cognitive di tipo logico-razionale vengono svolte da macchine. Questa terza rivoluzione “rompe” il potere dell’intelligenza umana, realizzando artefatti che possono meccanicamente replicare azioni cognitive che erano finora caratteristiche esclusive dell’uomo.

Per certi versi queste macchine ricordano quelle che, nel corso della rivoluzione industriale, hanno reso possibile la trasformazione della società da contadina a industriale: tali macchine industriali sono degli amplificatori della forza fisica dell’uomo. In questo caso abbiamo macchine di natura diversa ed enormemente più potenti: queste della rivoluzione informatica sono macchine che amplificano le funzioni cognitive delle persone, vale a dire dispositivi che potenziano le capacità di quell’organo la cui funzione costituisce il tratto distintivo dell’essere umano.

Abbiamo una rivoluzione tecnica, cioè l’elaborazione più veloce dei dati, ma anche una rivoluzione sociale, cioè la generazione di nuova conoscenza. Il potere che viene scardinato, in questo caso, è quello dell’intelligenza umana. L’umanità è sempre stata, in tutta la sua storia, signora e padrona delle sue macchine. Per la prima volta questa supremazia rischia di essere messa in crisi: abbiamo delle macchine che esibiscono comportamenti che, quando vengono attuati dagli esseri umani, sono considerati manifestazioni di intelligenza.

Abbiamo iniziato con cose semplici, come mettere in ordine delle liste di nomi, ma adesso possiamo riconoscere se un frutto è maturo o se un tessuto presenta difetti, per citare un paio di esempi resi possibili da quella parte dell’informatica che va sotto il nome di intelligenza artificiale. Certe attività cognitive non sono più dominio esclusivo dell’umanità: lo vediamo nei vari giochi da scacchiera (dama, scacchi, go, …), un tempo unità di misura per l’intelligenza e nei quali ormai il computer batte regolarmente i campioni del mondo. Lo vediamo in tutta una serie di attività lavorative, un tempo appannaggio esclusivo delle persone, nelle quali sono ormai abitualmente utilizzati i cosiddetti bot, sistemi informatici basati su tecniche di apprendimento automatico (machine learning).

Infine, sono arrivati i sistemi di intelligenza artificiale generativa (tipo ChatGPT, per intenderci) di cui tutti ormai hanno sentito parlare, che esibiscono una competenza nella conversazione con gli esseri umani che è oggettivamente stupefacente. Purtroppo, tale competenza può essere macchiata da errori o imprecisioni di cui è difficile accorgersi, se non conosciamo già la risposta corretta. Accade che questi sistemi esibiscono una competenza eccellente con le parole che descrivono il mondo ma non posseggono davvero competenza sul mondo, non hanno una vera comprensione del significato delle parole che usano, nonostante le apparenze. In altri termini, noi proiettiamo su quanto questi sistemi producono il significato che è dentro di noi: la vera intelligenza è nel cervello di chi legge e non nei sistemi di intelligenza artificiale generativa.

Rimandando a successivi post una discussione più approfondita sul ruolo che tali sistemi possono giocare in futuro, è interessante quindi accennare a un paio di problemi che si applicano a tutte le macchine cognitive, anche a queste versioni più sofisticate.

Il primo è che allo stato attuale le macchine cognitive non hanno né flessibilità né adattabilità per cambiare il loro modo di operare al mutare delle condizioni di contesto. È vero che gli approcci basati su tecniche di apprendimento automatico consentono di rilevare cambiamenti nel loro ambiente e di adattare le loro azioni, però questo spazio di adattamento ha limiti severi. Tutti i possibili scenari futuri devono essere stati in qualche modo previsti dai progettisti. Le persone sono intrinsecamente in grado di apprendere ciò che non sanno, mentre le macchine cognitive possono apprendere solo ciò per cui sono state progettate. Le persone hanno imparato, attraverso milioni di anni di evoluzione, ad adattarsi flessibilmente a cambiamenti imprevisti nell’ambiente, mentre le macchine della conoscenza possono – ancora una volta – adattarsi solo ai cambiamenti previsti. Non possiamo quindi lasciarle operare da sole, a meno che non siano in contesti in cui c’è la certezza che tutto è stato tenuto in considerazione.

Il secondo è che le macchine cognitive sono del tutto distaccate da cosa significhi essere persone. Qualcuno lo vede come un pregio, per me è un enorme difetto. Io ritengo che non esista la possibilità di determinare un unico modo migliore di prendere le decisioni. Quelli che pensano che mediante l’intelligenza artificiale si possa governare la società umana nel modo migliore per tutti sono degli illusi (o hanno interessi nascosti). Da che esiste la società umana è compito della politica determinare la sintesi tra le esigenze contrastanti che sempre esistono in ogni consesso. E tale sintesi non può prescindere dal nostro essere umani. L’unica intelligenza che può prendere decisioni appropriate in questo contesto è l’intelligenza incarnata delle persone, non quella artificiale delle macchine cognitive.

Questo non implica che non ci sia un ruolo per le macchine cognitive. Il loro uso dovrebbe rimanere confinato a quello di potenti assistenti personali, che ci alleviano la pesantezza del lavoro intellettuale di routine, aiutandoci a non fare errori a causa della fatica o di sviste. Ma le persone devono sempre avere il controllo e le decisioni finali, soprattutto quelle che – direttamente o indirettamente – hanno conseguenze rilevanti per altre persone, devono sempre essere prese da esseri umani.

Ne riparleremo in post futuri.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 5 febbraio 2025.

sabato 1 febbraio 2025

A passeggio con l'informatica #17 – Bit che si riproducono

di Enrico Nardelli

Nel precedente post (Dati o programmi? Questo è il problema) abbiamo discusso come, a livello del linguaggio di programmazione che la macchina fisica è in grado di eseguire direttamente attraverso i suoi circuiti elettronici, non vi sia una distinzione intrinseca tra cosa costituisce un’istruzione e cosa un dato. Solo le istruzioni dell’Unità di Controllo della macchina a registri, che sono quelle poste all’interno dei cerchi della seconda figura del post n.4 (Come funziona un computer), sono intrinsecamente delle istruzioni. Quello che comunemente chiamiamo “programma” (indipendentemente se sia in linguaggio simbolico o in linguaggio macchina) è, al livello fisico direttamente eseguibile, solo una sequenza di bit zero e uno.

Questo costituisce un vantaggio, perché ci permette di elaborare i programmi trattandoli semplicemente come dati, ma può costituire anche una debolezza, se delle sequenze di bit che erano state considerate dei dati vengono invece interpretate come istruzioni e sono eseguite. Quest’ultimo è infatti il meccanismo con cui i virus informatici si diffondono: in assenza di opportune contromisure, vengono trasferiti da un computer a un altro come se fossero dei dati e poi vengono eseguiti.

Questa natura duale posseduta dalle sequenze di bit, insieme al fatto che – proprio a causa di tale dualità – una stessa sequenza di bit può essere interpretata in entrambi i modi e può quindi manipolare se stessa, conferisce all’informatica un potere di riproduzione di cui l’unica altra manifestazione esistente in natura è quella posseduta dai sistemi biologici.

Illustriamo questo potere di riproduzione con un automa molto semplice. Descrivo prima il suo semplice repertorio di istruzioni e poi presento un programma che, nonostante la semplicità dell’automa, è in grado di riprodurre se stesso. La prima istruzione del repertorio è un’istruzione di assegnazione del tipo

P=100;

che assegna a P il valore 100. Notiamo che ogni istruzione è terminata da un punto e virgola (;). Questo è solo un esempio di uso dell’istruzione, un altro potrebbe essere

Q=3;

che assegna a Q il valore 3. Abbiamo poi un’istruzione di stampa del tipo

stampa P;

che, avendo eseguito l’istruzione di assegnazione precedentemente descritta, produce come risultato

100

Chiaramente l’istruzione «stampa Q;» avrebbe invece prodotto «3»: osservate che in questo caso abbiamo usato le doppie parentesi angolari aperte («) e chiuse (») per denotare con precisione nel corpo del testo le istruzioni di cui parliamo o il loro effetto, mentre prima le avevamo presentate ognuna isolata su una riga. L’automa possiede anche una variante di tale istruzione di stampa, cioè

stampa “P”;

la cui esecuzione non produce più la stampa del valore eventualmente assegnato a P ma produce come risultato letteralmente quanto è contenuto tra i doppi apici, cioè

P

(analogamente «stampa “Q”;» produrrebbe «Q»). Osserviamo a questo punto che l’istruzione di stampa può avere più oggetti da stampare, come per esempio accade con

stampa P Q;

che produce

100    3

e con

stampa “P=” P;

che invece produce

P=100

Infine, l’automa possiede una convenzione di ripetizione, in base alla quale, ad esempio

3|X;

costituisce un modo abbreviato di rappresentare

X; X; X;

Abbiamo pertanto che il programma (fatto da due istruzioni che per semplicità scriviamo sulla stessa riga)

P=3|X; stampa P;

produce in uscita

X; X; X;

mentre il programma

P=3|X; stampa “P=” P;

produce in uscita

P=X; X; X;

Siamo pronti a questo punto a presentare e discutere il programma che riproduce se stesso, che è costituito da queste due sole istruzioni, presentate di seguito sulla stessa riga

P=2|stampa “P=2|” P;      stampa “P=2|” P;

Determiniamo cosa fa l’automa quando esegue questo programma. Con la prima istruzione assegna a P – in base alla convenzione di ripetizione sopra descritta – il valore «stampa “P=2|” P; stampa “P=2|” P;». Con la seconda istruzione produce in uscita il valore «P=2|» seguito dal valore appena assegnato a P, cioè

P=2|stampa “P=2|” P; stampa “P=2|” P;

L’esecuzione del programma ha quindi prodotto in uscita una copia esatta di se stesso! Notate che lo spazio tra le due istruzioni nel primo caso (il testo del programma) è maggiore del secondo (il risultato della sua esecuzione) solo per motivi di chiarezza tipografica.

Abbiamo ottenuto un comportamento che, a livello astratto, è esattamente lo stesso comportamento che realizza una sequenza di DNA durante la replicazione, processo chiave per la riproduzione biologica. Nel nostro caso, otteniamo la “riproduzione dei bit” e questo aspetto dell’informatica costituisce forse il più importante dei suoi apporti concettuali al panorama della cultura scientifica.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 29 gennaio 2025.