Pagine

sabato 22 marzo 2025

A passeggio con l’informatica #24 – Dati digitali e vita reale

di Enrico Nardelli

Nell’articolo precedente abbiamo discusso l’importanza di mantenere un approccio basato sul rispetto dell’uomo, sia dal punto di vista personale che sociale, nel considerare lo sviluppo delle tecnologie informatiche. Dopo l’ubriacatura dei primi vent’anni di questo secolo, quando sembrava che gli strumenti digitali ci stessero portando in una specie di società ideale, abbiamo cominciato a renderci conto dei problemi connessi con la misurazione digitale di ogni aspetto della nostra vita. Per reazione, questo sta dando sempre più importanza agli aspetti intrinsecamente non misurabili della nostra esistenza, attribuendo ad essi un valore sempre maggiore. Le relazioni personali, il contatto con la natura, il senso dell’identità e della tradizione stanno recuperando terreno e diventando spazi nei quali, sempre più attivamente, ci rifugiamo per sfuggire al controllo digitale.

Il distacco dalla tecnologia digitale è il segno distintivo delle élite che hanno maggiormente contribuito alla diffusione di strumenti che – come vediamo dalle discussioni sempre più accese e polarizzate che occupano i social media – stanno minando i valori fondanti delle società evolute: la comprensione reciproca, la solidarietà, la compassione, il sostegno e la protezione per i più deboli. Non solo, ci sono ormai da qualche anno evidenze sempre più importanti delle conseguenze negative di un uso troppo precoce di smartphone e social media. Si veda, ad esempio, il rapporto finale della 7a Commissione Permanente del Senato “Sull’impatto del digitale sugli studenti, con particolare riferimento ai processi di apprendimento” del giugno 2021.

La tecnologia digitale non implica intrinsecamente un suo utilizzo in modo anti-sociale, ma se lo sviluppo è guidato unicamente da valori economici senza essere contemperato da un approccio pro-sociale, l’atomizzazione dei comportamenti che essa favorisce, giacché si può far tutto attraverso uno smartphone, rischia di far regredire l’umanità alla situazione dell’homo homini lupus.

D'altra parte, è vero che abbiamo spostato gran parte della nostra vita nel regno in cui dominano queste macchine cognitive disincarnate. Di conseguenza, la nostra esistenza si sviluppa ormai non solo lungo le consuete dimensioni relazionali (economica, giuridica, culturale…) ma si articola anche in questa dimensione incorporea delle “rappresentazioni”, sempre più rilevante dal punto di vista sociale.

Non è un fatto del tutto nuovo. L'umanità ha registrato dati sul mondo per migliaia se non decine di migliaia di anni. Tuttavia, da componente del tutto trascurabile della nostra esistenza, le rappresentazioni dei dati ne sono diventate una parte rilevante e importante. Anche se la maggior parte dei dati digitali che creiamo hanno un uso effimero senza essere conservati permanentemente, la quantità di dati raccolti ha raggiunto livelli incredibili. Nel 2025, il totale dei dati digitali archiviati in tutto il mondo dovrebbe raggiungere, secondo diverse stime i 200 Zettabyte, cioè 200 miliardi di Terabyte, ovvero 200 milioni di milioni di Gigabyte. Sono valori che non riusciamo neanche a immaginare.

Come purtroppo ci ha insegnato l'emergenza sanitaria del 2020, non possiamo più ignorare la rappresentazione digitale dei dati che ci riguardano. Essi sono diventati una componente integrante e costitutiva della nostra vita personale e sociale. Da qui la necessità di tutelare i diritti delle persone non solo per quanto riguarda il loro corpo e il loro spirito, ma anche per le loro proiezioni digitali. Nel mio volume La rivoluzione informatica ho argomentato che sarebbe necessaria una tutela di livello costituzionale, modificando l’articolo 2 in modo che riconosca non solo la protezione dei diritti ma anche il soddisfacimento dei doveri nel mondo digitale. Questa sarebbe la nuova versione proposta (in neretto la parte aggiunta): “La Repubblica riconosce e garantisce i diritti inviolabili dell’uomo, sia come singolo, sia nelle formazioni sociali che nei contesti digitali ove si svolge la sua personalità, e richiede l’adempimento dei doveri inderogabili di solidarietà politica, economica e sociale”.

Per chiudere, ricordo che l’assenza nelle macchine cognitive di un corpo fisico ha una controparte duale nel fatto che questa dimensione digitale della nostra esistenza è popolata da “forme di vita” per le quali non abbiamo sensori di rilevazione. I virus e i worm digitali, che non sono benigni nei confronti del nostro “sé digitale”, proprio come le loro controparti biologiche non sono benevole per i nostri corpi fisici, continuano a diffondersi a un ritmo allarmante senza che siamo in grado di contrastarli efficacemente. Avremmo infatti bisogno della versione digitale di quelle norme igieniche che tanto ruolo hanno avuto nel miglioramento delle condizioni di vita nel Novecento . Ancora una volta, è solo attraverso l'istruzione che possiamo fare la differenza, e si deve iniziare il prima possibile.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 19 marzo 2025.

sabato 15 marzo 2025

A passeggio con l’informatica #23 – Per una visione umanistica del digitale

di Enrico Nardelli

L’insegnamento dei princìpi dell’informatica dovrebbe iniziare fin dai primi anni di scuola. Si tratta di una posizione che la coalizione europea Informatics for All, che ho fondato insieme ad altri colleghi europei quando ero presidente di Informatics Europe, sostiene da molti anni. Recentemente, la richiesta è stata fatta propria dal Consiglio dell’Unione Europea, con la Raccomandazione del 23 novembre 2023 di cui abbiamo parlato proprio nella puntata di introduzione a questo percorso.

La nozione fondamentale che un sistema informatico opera senza alcuna comprensione, da parte del sistema stesso, di ciò che viene elaborato e di come viene elaborato, deve accompagnare l'intero processo educativo. Inoltre, dovrebbe sempre andare di pari passo con la riflessione che il processo di modellare la realtà in termini di dati digitali e di elaborarli mediante algoritmi è un'attività umana e, in quanto tale, può essere influenzata dal pregiudizio e dall'ignoranza, senza che l’individuo possa esserne consapevole. Solo così, infatti, diventa possibile comprendere che qualsiasi scelta, da quelle iniziali relative a quali elementi rappresentare e come rappresentarli, a quelle che determinano le regole del trattamento stesso, è frutto di un processo decisionale umano ed è quindi privo di quell’oggettività che troppo spesso è associata ai processi decisionali algoritmici.

A livello scientifico nel maggio 2019 è nato – anche con il contributo dell’Autore – un movimento che ha prodotto il Manifesto di Vienna per l’Umanesimo Digitale, che ricorda come le tecnologie digitali «stanno minando la società e mettendo in discussione la nostra comprensione di cosa significhi essere umani ». Il Manifesto ricorda che la posta in gioco è alta e l’obiettivo di costruire una società giusta e democratica in cui le persone siano al centro del progresso tecnologico è una sfida da affrontare con determinazione e creatività.

Come tutte le tecnologie, anche quelle digitali non emergono dal nulla. Sono modellate da scelte implicite ed esplicite e, quindi, incorporano un insieme di valori e interessi relativi al nostro mondo. L’insegnamento dell'informatica e la riflessione sul suo influsso sulla società devono quindi iniziare il prima possibile. Gli studenti dovrebbero imparare a unire le competenze informatiche con la consapevolezza delle questioni etiche e sociali in gioco.

Il Manifesto ribadisce l’importanza di sviluppare e progettare le tecnologie digitali in base ai valori e ai bisogni umani quali: democrazia, inclusione, rispetto della privacy, libertà di espressione, valorizzazione delle diversità, uguaglianza ed equità, trasparenza.

Sottolinea inoltre l’importanza di far crescere la consapevolezza sul fatto che le decisioni rilevanti che riguardano gli esseri umani debbano sempre essere prese dalle persone e non dagli algoritmi.

Quest’ultimo è un punto della massima importanza. Infatti, come ha osservato Giuseppe Longo (valente informatico italiano che opera in Francia da molti anni), la distinzione fondamentale introdotta da Alan Turing tra hardware e software, se applicata agli esseri viventi e alla società è una «follia computazionale ». Primo, perché nel mondo biologico non esiste una tale distinzione tra hardware e software. Il DNA, il codice della vita, costituisce il suo stesso hardware. La riscrittura delle rappresentazioni che avviene nelle macchine digitali unicamente attraverso il software è in questo senso diversa dalla trascrizione dal DNA all'RNA che avviene in biologia.

In secondo luogo, perché le fluttuazioni sono completamente assenti nel mondo discreto in cui operano le macchine di Turing, mentre svolgono un ruolo essenziale nei complessi sistemi dinamici che ci circondano. Come notato per la prima volta dal grande matematico francese Henri Poincaré, ciò può risultare nell'imprevedibilità dell’evoluzione di tali sistemi, anche se le leggi che li caratterizzano sono definite deterministicamente.

Terzo, perché un qualunque software è in grado di rappresentare solo un'astrazione di un fenomeno reale. Se questa astrazione può fornire indicazioni preziose sulla sua dinamica, considerare la rappresentazione come il fenomeno stesso è tanto sbagliato quanto confondere la mappa col territorio.

E, infine, i sistemi digitali, una volta posti nelle stesse condizioni di partenza all'interno di uno stesso contesto, calcoleranno in modo identico sempre lo stesso risultato, anche per quei sistemi complessi dove (come ha dimostrato Poincaré) questo è fisicamente assurdo. «Le reti informatiche e le banche dati, se considerate come ultimo strumento di conoscenza o come immagine del mondo » scrive Longo «vivono nell'incubo della conoscenza esatta per puro conteggio, della certezza incrollabile per esatta iterazione, e di una “soluzione finale” di tutti i problemi scientifici ».

Da un punto di vista matematico-fisico, questo atteggiamento è fallace, per diversi motivi. In primo luogo, perché i nostri comportamenti accadono in uno spazio continuo e, come Poincaré aveva per primo intuito, nell’approssimazione che ogni misura compie rispetto a un valore continuo si annida l’impredicibilità dei fenomeni fisici.

In secondo luogo, la quantità di “dimensioni” mediante le quali possiamo “misurare” il nostro comportamento è presumibilmente infinita. In altre parole, un nostro comportamento puntuale potrebbe aver bisogno di un numero infinito di valori per poter essere rappresentato (ognuno dei quali sarebbe comunque sottoposto all’approssimazione precedentemente descritta). Ne consegue, quindi, che nessun dispositivo digitale reale, che è finito, potrebbe fisicamente rappresentare tale quantità infinita di valori, introducendo pertanto una seconda tipologia di approssimazione.

Le conseguenze sociali di questo approccio culturale possono però essere effettivamente terrificanti, come diceva David Bowie nell’intervista ricordata nel precedente post. Questa tendenza, sostenuta da una raccolta dei dati relativi alle nostre attività sempre più pervasiva e sempre più sfuggente al nostro controllo, porta a ridurre l’essere umano a una serie di dati, spingendolo ad agire da meccanismo automatico che ripercorre sempre gli stessi schemi di comportamento. Viene in mente il celeberrimo film “The Truman show”, il cui protagonista era marionetta inconsapevole di una sceneggiatura scritta da altri.

Non sfuggiranno certo al lettore attento i pericoli in termini di controllo sociale che si nascondono dietro il dare per scontata questa visione meccanicistica della società umana, che riconduce l’infinita e sfumata complessità delle nostre esperienze a un insieme finito di bit distinti.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 12 marzo 2025.

sabato 8 marzo 2025

A passeggio con l’informatica #22 – Si fa presto a dire digitale

di Enrico Nardelli

Dopo aver esaminato negli ultimi articoli prima di questo il significato della rivoluzione informatica, i vari significati del termine intelligenza per le macchine e per l’uomo, e l’importanza di non concentrarsi solo sui temi di moda, inizio ad affrontare con questo post le sfide che ci vengono poste dalla crescita e dallo viluppo della società digitale, citando alcuni riferimenti storici.

A fine 2019 abbiamo celebrato i 50 anni della “rete delle reti”, quell’Internet la cui data di nascita è stata convenzionalmente fissata al 29 ottobre 1969, quando il primo collegamento tra computer remoti fu stabilito tra un calcolatore della UCLA (Università della California a Los Angeles) e uno dello SRI (Stanford Research Institute). Con quella prima trasmissione era nata Arpanet, la rete di comunicazione tra calcolatori il cui sviluppo fu finanziato dal Ministero della Difesa americano per dotare il Paese di un sistema di comunicazione estremamente resistente agli attacchi nemici, che negli anni 90 sarebbe diventata Internet e che – grazie anche alla diffusione planetaria del World Wide Web – nel primo decennio del nuovo secolo avrebbe superato il miliardo di utenti.

La prima pietra di una rivoluzione sociale, oltre che tecnologica, era stata posata, anche se per diversi decenni è sembrato che fosse solo uno strumento. Ma un artista visionario come David Bowie, nel corso di un’intervista alla BBC del 1999, la definì «una forma di vita aliena, … la nascita di qualcosa di esaltante e terrificante » . Spesso gli artisti vedono con chiarezza ciò che scienziati e tecnologi non riescono ad afferrare bene, soprattutto quando si parla dell’impatto sociale delle loro scoperte. Gioca a loro favore l’essere più allenati a cogliere queste sfumature delle conseguenze del progresso sulle persone e sulle relazioni umane, ma va anche tenuto presente che si tratta comunque di pronostici estremamente difficili.

Quest’anno ricorrono i 70 anni dell’introduzione del termine “intelligenza artificiale”, apparso nella proposta di ricerca che mirava a ottenere un «significativo avanzamento» di «ogni aspetto dell’apprendimento o di ogni altra caratteristica dell’intelligenza » lavorandoci «con un gruppo attentamente selezionato di scienziati per un’estate ». Sicuramente sono stati fatti enormi progressi, ma è ancora presto per dire in che misura essa determinerà un cambiamento della società così importante quale quello determinato dall’avvento di Internet.

È infatti difficilissimo capire dove le tecnologie informatiche ci porteranno, non dico tra 50 anni, ma anche solo tra 10 o 20. Basti pensare che nel 1999 Amazon stava muovendo i primi passi, Google era appena nato e Facebook non era ancora stato concepito.

Il vero problema è che ci stiamo dimenticando che l’uomo dovrebbe sempre rimanere il fuoco di ogni iniziativa di progresso tecnologico, mentre queste novità digitali che sembrava dovessero portarci in un futuro migliore stanno viceversa ingabbiando sempre di più la nostra vita quotidiana. La digitalizzazione apre opportunità senza precedenti alla società, ma pone anche serie preoccupazioni.

Si tratta di una sfida prima di tutto sociale e politica e solo in seconda istanza scientifica o tecnologica, perché la dimensione digitale è ormai sempre più intrecciata con le varie dimensioni sociali, che coprono tutti i vari rapporti (economici, giuridici, culturali, …) che si stabiliscono tra le persone . Questa dimensione, che è quella in cui sono presenti i dati digitalizzati, definisce quindi uno spazio sociale che, come tale, può essere costruito secondo diverse visioni. Ritengo quindi del tutto naturale che i governi vogliano attuare la loro attività di indirizzo e gestione anche nei confronti del digitale.

Così come ogni nazione protegge le proprie risorse naturali così dovrebbe fare con quelle digitali, inclusi i dati dei propri cittadini. Quando nel 2019 ho cominciato a sollevare l’attenzione su questi temi, molti li minimizzavano etichettandoli come “populisti” e “sovranisti”, mentre adesso sono diventati rilevanti.

Ritenevo e ritengo assolutamente legittimo e doveroso che uno Stato governi lo spazio digitale così come governa lo spazio fisico, visto che mondo naturale e mondo digitale sono ormai compenetrati e vanno gestiti insieme. Nella società digitale chi controlla i dati controlla la società.

Come diremmo se i governanti vendessero i propri cittadini a poteri stranieri? È lecito che questo accada nella dimensione digitale? A quali fini deve essere asservito il controllo e il governo di infrastrutture e dati digitali? Si ripete spesso negli ultimi anni che “i dati sono il nuovo petrolio”. Ma se questi dati sono quelli delle persone è corretto (socialmente, eticamente e politicamente) considerarli come una merce? Le persone sono una merce? C’è una scarsissima consapevolezza di questi aspetti, se in un famoso esperimento un negozio ha venduto oggetti a clienti che pagavano . Chiedo scusa in anticipo se il paragone è macabro, ma vi privereste di un dito per comprare un’automobile?

Aggiungo una notazione di tipo psicologico a proposito dei fanatici del digitale, entusiasti di poter registrare e tenere sotto controllo ogni loro attività. Passare dal tracciamento dei battiti cardiaci durante la corsa a un controllo sanitario totale ogni anno, o da una semplice telecamera di sorveglianza alla porta di ingresso a una rete di sentinelle robotiche è solo una questione di denaro. Farlo dà l’illusione di poter controllare il futuro, rimuovendo le minacce esistenziali. Ma non è un comportamento produttivo.

Come per altri grandi temi sociali, è compito della politica decidere cosa fare. Nella sfera del digitale, io sono solito ricordare una citazione di Evgenj Morozov (sociologo di origine bielorussa tra i più acuti e profondi nell’analisi del mondo digitale) che nel suo libro “I signori del silicio” ha scritto «per un partito di massa odierno, non curarsi della propria responsabilità sul digitale equivale a non curarsi della propria responsabilità sul futuro stesso della democrazia ».

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 5 marzo 2025.

sabato 1 marzo 2025

A passeggio con l’informatica #21 – Non di sola IA vive un Paese

di Enrico Nardelli

Abbiamo discusso nel post precedente alcuni aspetti che sono esclusivi dell’intelligenza umana, in quanto espressione di una mente incarnata in un corpo fisico con le caratteristiche della nostra razza umana.

Aggiungo qui solo un accenno al fatto che vi sono poi tutta una serie di altri valori, che possiamo chiamare di “intelligenza sociale”, che danno senso alle società umane in quanto fatte da persone, quali, ad esempio, la compassione, la solidarietà, l’immaginazione, l’umorismo, e così via, che mi appaiano anche questi totalmente al di fuori della portata delle macchine cognitive, in generale, e in particolare di quelle che posseggono ciò che chiamo intelligenza meccanica, universalmente nota come intelligenza artificiale.

Nonostante queste limitazioni, le macchine cognitive – e in modo particolare quelle che utilizzano le tecniche dell’intelligenza artificiale – si diffonderanno sempre di più, per la loro indubbia utilità, mentre le persone cambieranno il tipo di lavoro che fanno. Ciò va inteso nel senso che il loro lavoro vedrà in misura sempre maggiore l’utilizzo di macchine cognitive, per coadiuvare l’uomo nelle attività intellettuali di routine. Si tratta di un processo analogo a ciò che è accaduto in passato, sia recente che remoto, con sempre più lavoro manuale, precedentemente svolto direttamente dall’uomo, sempre più affidato a macchine industriali, mentre l’uomo manteneva un ruolo di controllo e supervisione.

Per questo è della massima importanza che ogni persona sia appropriatamente istruita e formata sulle basi dell’informatica, la disciplina scientifica che rende possibile la progettazione e realizzazione delle macchine cognitive. Solo in questo modo ognuno sarà in grado di capire la differenza tra ciò che tali macchine possono fare e ciò che non devono fare. Infatti, mentre la terza rivoluzione dei rapporti di potere ha consegnato alle macchine cognitive il predominio sulla specie umana nella dimensione della razionalità pura, nella società umana ci sono molte altre dimensioni altamente rilevanti oltre a questa, l’unica in cui agiscono le macchine cognitive. Affinché l’umanità possa continuare a dirigere e governare il proprio futuro dovrà fare attenzione a non perdere la consapevolezza di questa sua specificità. A tal scopo, è necessaria una corretta formazione sin dai primi anni di scuola sulle basi scientifiche dell’informatica e sull’impatto sociale delle sue tecnologie. Riprenderemo il tema di come governare nel miglior interesse dell’umanità lo sviluppo dei sistemi informatici in un successivo articolo.

Richiamo l’attenzione su un aspetto particolarmente importante in questo momento, in cui i sistemi di intelligenza artificiale sono sulla bocca di tutti per le loro impressionanti prestazioni, che sono dovute all’enorme quantità di dati disponibili, agli avanzamenti nella tecnologia dei processori e ai progressi delle tecniche algoritmiche dell’apprendimento profondo (deep learning ). Si tratta di ritenere che un Paese per essere all’avanguardia nella società digitale abbia bisogno solo di “sistemi intelligenti”. Nella storia della tecnologia in generale e di quella informatica in particolare, vi sono momenti nei quali sembra che un certo approccio sia quello assolutamente vincente, salvo poi scoprire, magari dopo una decina d’anni, che si è un po’ esagerato.

Non sto assolutamente negando l’importanza di questo settore dell’informatica, ed è vitale investire in esso, ma non possiamo dimenticarci che alla base di tutto il mondo digitale ci sono i “normali” sistemi informatici, il cui stato di realizzazione lascia molto a desiderare e ai quali bisognerebbe fare molta più attenzione. In molte nazioni che nell’ultimo decennio hanno cominciato a stanziare somme molto ingenti di denaro per la ricerca nell’area dell’intelligenza artificiale, gli analisti più attenti hanno osservato che tali sforzi non devono accadere a discapito del miglioramento di sistemi informatici che non funzionano proprio come dovrebbero. Investire solo sulla realizzazione di sistemi basati sull’apprendimento automatico (machine learning ), quando l’informatizzazione tradizionale ancora non funziona come dovrebbe, è un po’ come comprarsi una Ferrari dimenticandosi di avere scarpe bucate e vestiti rovinati.

Per un professionista o una piccola azienda penso che sia più molto più rilevante avere la capacità di organizzare efficacemente i propri dati in modo autonomo e di poter realizzare semplici elaborazioni con programmi informatici sviluppati da soli. È di queste competenze di base, analoghe a quelle di saper scrivere una relazione o mantenere una semplice contabilità, che ritengo ci sia bisogno per attuare sul serio la trasformazione digitale, più che di intelligenza artificiale o di una delle molte parole inglesi alla moda che si sentono sempre più frequentemente sui media in questi anni.

Riprenderemo il tema dell’impatto dell’informatica sul mondo del lavoro in un prossimo post.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 26 febbraio 2025.

sabato 22 febbraio 2025

A passeggio con l’informatica #20 – Non avrai intelligenza al di fuori di me!

di Enrico Nardelli

Mentre nel post precedente abbiamo messo a fuoco alcune caratteristiche dell’intelligenza delle macchine, in questo mi concentro su alcuni aspetti peculiari dell’intelligenza umana, che la rendono diversa da quella che ho suggerito di chiamare “intelligenza meccanica” e quindi, ritengo, impossibile da realizzare attraverso meccanismi artificiali.

Si tratta di alcuni elementi che caratterizzano in modo specifico e unico la comunità di individui in carne e ossa, e rispetto ai quali le macchine cognitive sono intrinsecamente diverse da noi.

Una prima differenza deriva dal fatto che le informazioni sul mondo che noi acquisiamo mediante i sensi diventano rappresentazioni, cioè dati, per le nostre elaborazioni, attraverso il filtro del nostro cervello, che quindi ci fa percepire una realtà che non necessariamente è oggettiva, ovvero universalmente condivisa. Però, avendo le persone una stessa natura umana, pur nella loro diversità individuale, si può raggiungere un qualche grado di accordo sull’oggettività di ciò che viene percepito, anche grazie all’ausilio del linguaggio che ci permette di spiegare e condividere le descrizioni delle sensazioni provate. Questo non accade tra noi e altre specie animali. A maggior ragione, non si applica a una macchina cognitiva che riceve rappresentazioni già definite da qualcuno (in base a criteri da questo stabiliti ma che magari non sono noti e quindi difficilmente condivisibili) oppure le deve costruire attraverso sensori fisici di acquisizione, anch’essi governati da altri automi. È arduo sostenere che questo consenta di avere rappresentazioni condivise tra uomini e macchine.

Una seconda differenza risiede nel fatto che, come già detto, le macchine cognitive non hanno un corpo fisico, e quindi non possono trattare tutti quegli aspetti emotivi che dipendono intrinsecamente da esso. Le più recenti acquisizioni delle neuroscienze ci dicono che quando abbiamo paura o siamo felici, queste emozioni sono prima di tutto reazioni fisiche che avvengono in modo involontario nel nostro corpo a causa di eventi percettivi (ma possono essere scatenate anche dall’attivazione di un ricordo) e che hanno lo scopo, giustificato in base all’evoluzione, di mantenere l’equilibrio del corpo stesso, per esempio facendoci fuggire da una situazione di pericolo o permanere in una condizione positiva. Il ruolo delle emozioni è fondamentale nel determinare la nascita e la crescita delle relazioni sociali e nella valutazione delle situazioni. La loro assenza nelle macchine cognitive è una differenza che le mette in modo insuperabile in una classe a parte. Connessa a questa mancanza vi è l’assenza dell’autocoscienza, cioè della coscienza di se stessi, elemento fondamentale per poter “sentire le emozioni”. Non si può escludere, in linea teorica, la possibilità che, grazie agli sviluppi delle tecniche di intelligenza artificiale, si riesca a creare delle macchine cognitive che sono in qualche modo coscienti di se stesse. Ma, anche se questo dovesse accadere, e mi sembra molto improbabile, si tratterebbe sempre dell’autocoscienza di una specie aliena rispetto alla razza umana, perché basata su materiali fisici differenti.

Una terza differenza è quella della creatività, dell’intuizione, di ciò che in modo sotterraneo, subconscio, ci rende possibile di “uscire dagli schemi” e trovare chiavi di lettura decisive per scenari apparentemente indecifrabili. Essa deriva, in modi assolutamente non chiari – allo stato attuale dell’indagine scientifica, dall’interazione tra il livello della coscienza, ovvero il “luogo della mente” in cui abbiamo le rappresentazioni del corpo fisico, e il livello del corpo fisico. Poiché le macchine cognitive non hanno né l’una né l’altro sembrano essere chiaramente escluse da questa possibilità.

Certamente vi sono i recentissimi sistemi di intelligenza artificiale generativa che, a partire dal 2021, sono in grado di sintetizzare, a partire da una descrizione testuale, un’immagine fotografica o artistica, o anche una sequenza video, che realizza tale descrizione. Tralasciamo il fatto che questi sistemi, non avendo una reale comprensione a livello simbolico di ciò che rappresentano, possono facilmente generare immagini o video erronei rispetto alle conoscenze tacitamente accettate e condivise dall’umanità (p.es.: il fatto che le persone non hanno né tre braccia né tre gambe o che se due gattini stanno giocando non può spuntare dal nulla in mezzo a loro un terzo gattino). Il punto centrale è che la cosiddetta creatività che viene attribuita a questi sistemi risiede in realtà nella formulazione di ciò che le si chiede di realizzare.

Tutto il resto non è che l’automazione di un’attività di tipo cognitivo, estremamente sofisticata e che non sto in alcun modo sminuendo: va però considerato che tale automazione sta alle capacità intellettive dell’essere umano nello stesso modo con cui una fabbrica automatizzata sta alle sue capacità fisiche. Chiaramente, il fatto che tutto ciò accade ad un livello che, fino a qualche decennio fa, era riservato alla specie umana ci lascia un po’ sconcertati, però sempre di un’attività meccanica si tratta.

Il fatto che ci siano macchine cognitive a svolgere lavori di questo tipo è certamente un aspetto positivo. In questo senso sono completamente d’accordo con l’opinione di Charles W. Eliot, che è stato per quarant’anni presidente dell’Università di Harvard, dal 1869 al 1909, trasformandola in una delle più importanti università americane: «Un uomo non dovrebbe essere usato per un compito che può essere svolto da una macchina ».

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 19 febbraio 2025.

sabato 15 febbraio 2025

A passeggio con l'informatica #19 – Intelligenza delle macchine: è vera intelligenza?

di Enrico Nardelli

Continuando il discorso sulle macchine cognitive iniziato nel post precedente, osserviamo che si tende a considerare i dati elaborati dalle macchine cognitive come un qualcosa di oggettivo e assoluto, sulla base dell’etimologia di “dato” (che deriva dal latino datum = ciò che è stato dato) quando in realtà esso, in quanto rappresentazione di un fenomeno, ne costituisce solo un modello, uno dei tanti possibili. Quindi, nell’atto di scegliere un dato c’è già un’idea di interpretazione, che è soggettiva e che guida le modalità con le quali chi poi leggerà il dato gli darà un senso. L'esempio che tutti conoscono è quello della bottiglia, che può essere mezza vuota o mezza piena. Anche se usiamo un linguaggio più scientifico, posso descrivere questa bottiglia come un recipiente del volume di un litro contenente mezzo litro di acqua (bottiglia mezza piena) o contenente mezzo litro di aria (mezza vuota). Sto descrivendo lo stesso fenomeno, ma focalizzo il lettore su due interpretazioni differenti. La selezione di un certo insieme di dati è quindi l’atto fondamentale su cui si basa la successiva interpretazione. Si tratta di un meccanismo ben noto sia ai professionisti dell’informazione, che spesso lo usano per guidare chi legge verso una certa interpretazione, sia a chi per mestiere cerca di capire cosa sia davvero accaduto in certe occasioni, che si trova spesso di fronte resoconti contrastanti di una stessa vicenda da parte dei testimoni oculari.

Una seconda osservazione rilevante è che, data l’enorme quantità di dati digitali utilizzabili e la disponibilità di sofisticate tecniche di apprendimento automatico (machine learning), sembra non ci sia più bisogno di teorie, ovvero di quadri interpretativi coerenti per i fenomeni, perché l’opera di invenzione di queste teorie può essere sostituita dall’attività di macchine cognitive che, macinando senza fatica terabyte e terabyte di dati con sofisticate analisi statistiche, scopriranno per noi tutte le teorie necessarie. Quest’opinione, lanciata nel 2008 da Chris Anderson, direttore responsabile di Wired (una delle prime riviste che hanno affrontato il tema dell’impatto del digitale sulla società), sosteneva appunto che con il diluvio di dati disponibili non ci sarebbe più stato bisogno della teoria. L’ipotesi ha avuto nel 2016 una netta confutazione scientifica da parte degli informatici Christian Calude e Giuseppe Longo, che hanno matematicamente dimostrato come al crescere della quantità dei dati aumenta il numero di correlazioni che possono essere trovate in essi. Dal momento che questo è vero anche se i dati sono stati generati in modo casuale, ne discende che una correlazione trovata semplicemente applicando tecniche statistiche senza essere guidata da un modello interpretativo (cioè, da una teoria) non ha un significato intrinseco. Le macchine cognitive quindi, con le loro enormi capacità di analisi dati, possono certamente arricchire il metodo scientifico, ma non potranno mai sostituirlo.

Le macchine cognitive sono sicuramente utili al progresso della società umana e, data la velocità di avanzamento della tecnologia, è ragionevole aspettarsi che su un piano cognitivo puramente razionale le loro capacità analitico-deduttive saranno presto insuperate. Questo, però, non vuol dire che la cosiddetta “singolarità tecnologica” verrà presto raggiunta. Con questo termine si intende il momento in cui una macchina cognitiva diventa più intelligente di un essere umano, prefigurando quindi la sottomissione della nostra specie. Si tratta di una paura ancestrale, quella della macchina che si ribella al suo creatore, presente nella letteratura fin dal medievale mito ebraico del golem, passando per il racconto di Karel Capek, che ha dato origine al moderno uso della parola “robot", per arrivare alla fantascienza e ai moderni resoconti sui mass media, originati, questi ultimi, da personaggi molto noti in ambito tecnologico quali Ray Kurzweil ed Elon Musk.

La realtà è ben diversa. L’intelligenza delle macchine e l’intelligenza umana sono due cose piuttosto differenti, anche se hanno una qualche sovrapposizione. Il problema è che usando il termine intelligenza, che per tutta la storia dell’umanità ha sempre indicato quella umana, accoppiato all’aggettivo artificiale, tendiamo a evocare l’idea che si tratti di intelligenza umana artificialmente realizzata mediante automi. In altre parole, il termine “intelligenza artificiale” induce a credere che esso descriva più di quello che effettivamente è. Invece, come detto, si tratta solo dell’aspetto legato alle capacità analitico-deduttive puramente razionali, ovvero alla possibilità di calcolare nuovi dati logicamente implicati dai dati sotto esame. Ho articolato questa riflessione in un articolo in cui ho suggerito (in modo un po’ provocatorio, perché non penso che, a questo punto, si possa davvero cambiare modo di dire) di usare l’espressione “intelligenza meccanica” invece che “intelligenza artificiale”, per meglio concentrare l’attenzione sul fatto che si sta parlando comunque di capacità meccaniche, anche se estremamente sofisticate. In quest’ambito, come abbiamo già avuto prova nel campo dei giochi da tavolo, le macchine cognitive sono superiori alle capacità umane, così come le macchine industriali hanno superato l’uomo per quanto riguarda le capacità fisiche.

Discuteremo nel prossimo post alcune caratteristiche dell’intelligenza umana che appaiono difficilmente ottenibili mediante le macchine.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 12 febbraio 2025.

mercoledì 12 febbraio 2025

Per l’Italia digitale serve un “Piano Olivetti”

di Enrico Nardelli

Finalmente sul Corriere della Sera, sezione Economia, ci si accorge dell'importanza per l’Italia di possedere il controllo sulle infrastrutture digitali. Ferruccio de Bortoli, in un'analisi sullo stato dell'innovazione digitale in Italia, invita a "a credere di più in sé stessi, ad avere fiducia nel futuro, a non arrendersi anticipatamente quando la partita ... sembra ormai irrimediabilmente perduta ". Ovviamente si parla di Intelligenza Artificiale, perché la sua fragorosa irruzione nella vita di tutti i giorni ha fatto capire a tutti qual è l'importanza dell'informatica nella società odierna.

Meglio tardi che mai, mi è venuto da pensare, visto che ne parlo pubblicamente da molto tempo. Non certo noto come Stefano Quintarelli che, giustissimamente viene citato da de Bortoli a proposito di tante innovazioni che in Italia non trovano spazio, avevo già scritto più di quattro anni fa dell'importanza che il nostro sistema educativo si dotasse di un'infrastruttura digitale pubblica, e dell’interesse nazionale a curare lo spazio digitale così come accade per lo spazio fisico. Esigenze che de Bortoli scopre adesso attraverso le parole di Quintarelli, anche lui da molto tempo inascoltato fautore dell'importanza di questi temi. Stefano è stato anche deputato e, nonostante le sue indubbie capacità, non è riuscito a farsi ascoltare dalla politica su questi temi: nel frattempo, il mondo è andato avanti.

Prima di lui altri intellettuali di valore hanno cercato di convincere i decisori politici dell’importanza dell’informatica per lo sviluppo del Paese. Due fra tutti, Giovan Battista Gerace e Mario Bolognani. Tutto invano. A cavallo tra gli anni ‘60 e ‘70 con l’Olivetti eravamo all’avanguardia nel mondo dell’informatica. Il primo personal computer (P101) era stato realizzato da loro e la NASA ne usò 45 per preparare la missione Apollo 11 che sbarcò sulla luna nel 1969. Ma poi, politici, “ministri occasionali”, economisti e “capitani coraggiosi” non riconobbero l’importanza strategica di sostenere l’azienda, che aveva delle difficoltà finanziarie, per continuare a far crescere l’Italia in quella direzione e si limitarono a ripetere in continuazione “il treno è perso”. Ma a partire dagli anni ‘80 ne sono arrivati di nuovi, su cui altri sono stati in grado di salire a bordo: Internet, i social media, e adesso l’intelligenza artificiale generativa. Noi ci siamo riempiti la bocca di trasformazione digitale, pensando che si potesse realizzare acquistando tecnologia senza investire nell’istruzione scolastica e universitaria. Nell’ultimo decennio è riecheggiato in modo ossessivo il mito della “scuola digitale”, salvo poi dover constatare che l’UNESCO ha attestato la tragedia dell’istruzione digitale.

L'innovazione nel digitale non si inventa, serve la formazione e bisogna cominciare almeno vent’anni prima. L'exploit cinese con DeepSeek non è arrivato all'improvviso, è il risultato di un periodo di investimenti in istruzione sia di base che superiore e in ricerca che la Cina ha iniziato da moltissimo tempo. Serve studiare informatica, nella scuola, nell'università. Serve finanziare la ricerca in informatica e nelle sue tecnologie, anche la ricerca di base, senza illudersi che sia solo l'eccellenza quella che conta. Per avere l'eccellenza del singolo bisogna comunque investire nella preparazione media della massa. Per avere l'eccellenza di un Paese bisogna investire nella preparazione media dei suoi cittadini.

È ormai da dieci anni che io personalmente spingo sull'importanza far studiare informatica nella scuola, sia perché tutti i cittadini devono conoscere come funziona il mondo digitale intorno a noi, sia perché una conoscenza di base di questa materia è necessaria per far sì che più ragazzi, e soprattutto più ragazze, la scelgano come materia dei loro studi tecnici o universitari. E se non abbiamo più studenti nelle università in questi settori, i ricercatori per sviluppare i sistemi informatici di avanguardia non potremo mai trovarli. Per chi volesse approfondire ecco i miei interventi divulgativi a stampa e in video.

Negli ultimi venti o trent'anni ho invece sentito generalmente parlare solo di competenze digitali declinate in senso operativo (ricordate l'ECDL, la famigerata patente europea del computer?), nell'incomprensione generale da parte di chi dovrebbe avere gli strumenti culturali per capire come si sta evolvendo la società e guidare il Paese lungo questo percorso. Stiamo sprecando centinaia di milioni di euro del PNRR nelle scuole comprando tecnologia realizzata altrove invece di formare seriamente i docenti per insegnare informatica nella scuola, come ormai anche il Consiglio dell’Unione Europea raccomanda.

Senza una vera conoscenza di concetti, teorie e metodi dell’informatica, l’Italia rischia di pagare un prezzo enorme in termini di possibilità di scegliere la sua direzione di sviluppo nella società digitale perché sarà sempre più dipendente da sistemi e conoscenze che non le appartengono e soggetta alla sorveglianza di chi le possiede.

Sarebbe ora di risvegliarsi sul serio. Enrico Mattei e Adriano Olivetti, due italiani di genio che stavano guidando il Paese a essere leader mondiali, non ci sono più, ma la loro lezione è ancora valida. Dopo il “Piano Mattei” ci serve un “Piano Olivetti”.

--
Versione originale pubblicata su "StartMAG" il 6 febbraio 2025.

sabato 8 febbraio 2025

A passeggio con l'informatica #18 – Macchine cognitive

di Enrico Nardelli

Avendo terminato con il post precedente un rapido excursus sui concetti fondamentali più rilevanti dell’informatica come disciplina scientifica, in questa seconda parte iniziamo una serie di riflessione sul suo impatto su persone e società.

L’attuale società digitale è pervasa da macchine cognitive, che realizzano cioè operazioni di natura cognitiva. Sottolineo che con tale termine non sto assegnando a queste macchine un’intrinseca capacità cognitiva simile a quella degli esseri umani, ma solo che le funzioni che esse meccanicamente svolgono sono analoghe a quelle di elaborazione puramente logico-razionale che svolgono le persone. È inoltre opportuno aggiungere che negli individui, avvenendo tali elaborazioni in una mente incarnata in un corpo fisico, è difficile, se non impossibile in certe situazioni, farle accadere su un piano esclusivamente logico-razionale.

Si tratta di una vera e propria rivoluzione, la “rivoluzione informatica”, che ho caratterizzato come la terza “rivoluzione dei rapporti di potere”, e di cui parlo estesamente nel mio libro La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, perché per la prima volta nella storia dell’umanità complesse funzioni cognitive di tipo logico-razionale vengono svolte da macchine. Questa terza rivoluzione “rompe” il potere dell’intelligenza umana, realizzando artefatti che possono meccanicamente replicare azioni cognitive che erano finora caratteristiche esclusive dell’uomo.

Per certi versi queste macchine ricordano quelle che, nel corso della rivoluzione industriale, hanno reso possibile la trasformazione della società da contadina a industriale: tali macchine industriali sono degli amplificatori della forza fisica dell’uomo. In questo caso abbiamo macchine di natura diversa ed enormemente più potenti: queste della rivoluzione informatica sono macchine che amplificano le funzioni cognitive delle persone, vale a dire dispositivi che potenziano le capacità di quell’organo la cui funzione costituisce il tratto distintivo dell’essere umano.

Abbiamo una rivoluzione tecnica, cioè l’elaborazione più veloce dei dati, ma anche una rivoluzione sociale, cioè la generazione di nuova conoscenza. Il potere che viene scardinato, in questo caso, è quello dell’intelligenza umana. L’umanità è sempre stata, in tutta la sua storia, signora e padrona delle sue macchine. Per la prima volta questa supremazia rischia di essere messa in crisi: abbiamo delle macchine che esibiscono comportamenti che, quando vengono attuati dagli esseri umani, sono considerati manifestazioni di intelligenza.

Abbiamo iniziato con cose semplici, come mettere in ordine delle liste di nomi, ma adesso possiamo riconoscere se un frutto è maturo o se un tessuto presenta difetti, per citare un paio di esempi resi possibili da quella parte dell’informatica che va sotto il nome di intelligenza artificiale. Certe attività cognitive non sono più dominio esclusivo dell’umanità: lo vediamo nei vari giochi da scacchiera (dama, scacchi, go, …), un tempo unità di misura per l’intelligenza e nei quali ormai il computer batte regolarmente i campioni del mondo. Lo vediamo in tutta una serie di attività lavorative, un tempo appannaggio esclusivo delle persone, nelle quali sono ormai abitualmente utilizzati i cosiddetti bot, sistemi informatici basati su tecniche di apprendimento automatico (machine learning).

Infine, sono arrivati i sistemi di intelligenza artificiale generativa (tipo ChatGPT, per intenderci) di cui tutti ormai hanno sentito parlare, che esibiscono una competenza nella conversazione con gli esseri umani che è oggettivamente stupefacente. Purtroppo, tale competenza può essere macchiata da errori o imprecisioni di cui è difficile accorgersi, se non conosciamo già la risposta corretta. Accade che questi sistemi esibiscono una competenza eccellente con le parole che descrivono il mondo ma non posseggono davvero competenza sul mondo, non hanno una vera comprensione del significato delle parole che usano, nonostante le apparenze. In altri termini, noi proiettiamo su quanto questi sistemi producono il significato che è dentro di noi: la vera intelligenza è nel cervello di chi legge e non nei sistemi di intelligenza artificiale generativa.

Rimandando a successivi post una discussione più approfondita sul ruolo che tali sistemi possono giocare in futuro, è interessante quindi accennare a un paio di problemi che si applicano a tutte le macchine cognitive, anche a queste versioni più sofisticate.

Il primo è che allo stato attuale le macchine cognitive non hanno né flessibilità né adattabilità per cambiare il loro modo di operare al mutare delle condizioni di contesto. È vero che gli approcci basati su tecniche di apprendimento automatico consentono di rilevare cambiamenti nel loro ambiente e di adattare le loro azioni, però questo spazio di adattamento ha limiti severi. Tutti i possibili scenari futuri devono essere stati in qualche modo previsti dai progettisti. Le persone sono intrinsecamente in grado di apprendere ciò che non sanno, mentre le macchine cognitive possono apprendere solo ciò per cui sono state progettate. Le persone hanno imparato, attraverso milioni di anni di evoluzione, ad adattarsi flessibilmente a cambiamenti imprevisti nell’ambiente, mentre le macchine della conoscenza possono – ancora una volta – adattarsi solo ai cambiamenti previsti. Non possiamo quindi lasciarle operare da sole, a meno che non siano in contesti in cui c’è la certezza che tutto è stato tenuto in considerazione.

Il secondo è che le macchine cognitive sono del tutto distaccate da cosa significhi essere persone. Qualcuno lo vede come un pregio, per me è un enorme difetto. Io ritengo che non esista la possibilità di determinare un unico modo migliore di prendere le decisioni. Quelli che pensano che mediante l’intelligenza artificiale si possa governare la società umana nel modo migliore per tutti sono degli illusi (o hanno interessi nascosti). Da che esiste la società umana è compito della politica determinare la sintesi tra le esigenze contrastanti che sempre esistono in ogni consesso. E tale sintesi non può prescindere dal nostro essere umani. L’unica intelligenza che può prendere decisioni appropriate in questo contesto è l’intelligenza incarnata delle persone, non quella artificiale delle macchine cognitive.

Questo non implica che non ci sia un ruolo per le macchine cognitive. Il loro uso dovrebbe rimanere confinato a quello di potenti assistenti personali, che ci alleviano la pesantezza del lavoro intellettuale di routine, aiutandoci a non fare errori a causa della fatica o di sviste. Ma le persone devono sempre avere il controllo e le decisioni finali, soprattutto quelle che – direttamente o indirettamente – hanno conseguenze rilevanti per altre persone, devono sempre essere prese da esseri umani.

Ne riparleremo in post futuri.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 5 febbraio 2025.

sabato 1 febbraio 2025

A passeggio con l'informatica #17 – Bit che si riproducono

di Enrico Nardelli

Nel precedente post (Dati o programmi? Questo è il problema) abbiamo discusso come, a livello del linguaggio di programmazione che la macchina fisica è in grado di eseguire direttamente attraverso i suoi circuiti elettronici, non vi sia una distinzione intrinseca tra cosa costituisce un’istruzione e cosa un dato. Solo le istruzioni dell’Unità di Controllo della macchina a registri, che sono quelle poste all’interno dei cerchi della seconda figura del post n.4 (Come funziona un computer), sono intrinsecamente delle istruzioni. Quello che comunemente chiamiamo “programma” (indipendentemente se sia in linguaggio simbolico o in linguaggio macchina) è, al livello fisico direttamente eseguibile, solo una sequenza di bit zero e uno.

Questo costituisce un vantaggio, perché ci permette di elaborare i programmi trattandoli semplicemente come dati, ma può costituire anche una debolezza, se delle sequenze di bit che erano state considerate dei dati vengono invece interpretate come istruzioni e sono eseguite. Quest’ultimo è infatti il meccanismo con cui i virus informatici si diffondono: in assenza di opportune contromisure, vengono trasferiti da un computer a un altro come se fossero dei dati e poi vengono eseguiti.

Questa natura duale posseduta dalle sequenze di bit, insieme al fatto che – proprio a causa di tale dualità – una stessa sequenza di bit può essere interpretata in entrambi i modi e può quindi manipolare se stessa, conferisce all’informatica un potere di riproduzione di cui l’unica altra manifestazione esistente in natura è quella posseduta dai sistemi biologici.

Illustriamo questo potere di riproduzione con un automa molto semplice. Descrivo prima il suo semplice repertorio di istruzioni e poi presento un programma che, nonostante la semplicità dell’automa, è in grado di riprodurre se stesso. La prima istruzione del repertorio è un’istruzione di assegnazione del tipo

P=100;

che assegna a P il valore 100. Notiamo che ogni istruzione è terminata da un punto e virgola (;). Questo è solo un esempio di uso dell’istruzione, un altro potrebbe essere

Q=3;

che assegna a Q il valore 3. Abbiamo poi un’istruzione di stampa del tipo

stampa P;

che, avendo eseguito l’istruzione di assegnazione precedentemente descritta, produce come risultato

100

Chiaramente l’istruzione «stampa Q;» avrebbe invece prodotto «3»: osservate che in questo caso abbiamo usato le doppie parentesi angolari aperte («) e chiuse (») per denotare con precisione nel corpo del testo le istruzioni di cui parliamo o il loro effetto, mentre prima le avevamo presentate ognuna isolata su una riga. L’automa possiede anche una variante di tale istruzione di stampa, cioè

stampa “P”;

la cui esecuzione non produce più la stampa del valore eventualmente assegnato a P ma produce come risultato letteralmente quanto è contenuto tra i doppi apici, cioè

P

(analogamente «stampa “Q”;» produrrebbe «Q»). Osserviamo a questo punto che l’istruzione di stampa può avere più oggetti da stampare, come per esempio accade con

stampa P Q;

che produce

100    3

e con

stampa “P=” P;

che invece produce

P=100

Infine, l’automa possiede una convenzione di ripetizione, in base alla quale, ad esempio

3|X;

costituisce un modo abbreviato di rappresentare

X; X; X;

Abbiamo pertanto che il programma (fatto da due istruzioni che per semplicità scriviamo sulla stessa riga)

P=3|X; stampa P;

produce in uscita

X; X; X;

mentre il programma

P=3|X; stampa “P=” P;

produce in uscita

P=X; X; X;

Siamo pronti a questo punto a presentare e discutere il programma che riproduce se stesso, che è costituito da queste due sole istruzioni, presentate di seguito sulla stessa riga

P=2|stampa “P=2|” P;      stampa “P=2|” P;

Determiniamo cosa fa l’automa quando esegue questo programma. Con la prima istruzione assegna a P – in base alla convenzione di ripetizione sopra descritta – il valore «stampa “P=2|” P; stampa “P=2|” P;». Con la seconda istruzione produce in uscita il valore «P=2|» seguito dal valore appena assegnato a P, cioè

P=2|stampa “P=2|” P; stampa “P=2|” P;

L’esecuzione del programma ha quindi prodotto in uscita una copia esatta di se stesso! Notate che lo spazio tra le due istruzioni nel primo caso (il testo del programma) è maggiore del secondo (il risultato della sua esecuzione) solo per motivi di chiarezza tipografica.

Abbiamo ottenuto un comportamento che, a livello astratto, è esattamente lo stesso comportamento che realizza una sequenza di DNA durante la replicazione, processo chiave per la riproduzione biologica. Nel nostro caso, otteniamo la “riproduzione dei bit” e questo aspetto dell’informatica costituisce forse il più importante dei suoi apporti concettuali al panorama della cultura scientifica.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 29 gennaio 2025.

sabato 25 gennaio 2025

A passeggio con l'informatica #16 – Dati o programmi? Questo è il problema

di Enrico Nardelli

In questo ultimo post dedicato alla presentazione dei concetti fondamentali dell’informatica iniziamo ad affrontare quello che forse è il contributo più rilevante da un punto di vista culturale apportato da questa disciplina alla visione del mondo.

I concetti di algoritmo, linguaggio, automa, che – insieme agli altri – abbiamo esplorato nei precedenti post di questa serie, fanno parte del bagaglio concettuale di un informatico e sono gli strumenti intellettuali che un informatico usa per modellare e interpretare il mondo. Essi possono essere impiegati con successo per fornire descrizioni complementari a quelle fornite da altre scienze, per esprimere il punto di vista informatico sui fenomeni, arricchendo così la capacità di comprendere la realtà intorno a noi.

Nel post n.5 (Come istruire un computer) avevamo presentato un semplice programma scritto in linguaggio simbolico per una semplicissima macchina a registri (MR). Avevamo poi commentato che tale automa, per poter eseguire effettivamente il programma ha bisogno di una sua traduzione in linguaggio macchina. Come abbiamo infatti spiegato nel precedente post (Dalla virtualizzazione al cloud), il livello della macchina fisica è l’unico che può concretamente eseguire i programmi e ha bisogno di un linguaggio al suo livello (si veda la figura del post).

Nella figura sottostante, dove a sinistra vi sono le istruzioni e a destra i dati, viene presentata la versione in linguaggio macchina del programma presentato nel post n.5.

Rimandando alla sezione 4.2.2 del volume La rivoluzione informatica per una spiegazione di dettaglio di come tale programma viene ottenuto dalla versione in linguaggio simbolico, qui lo prendiamo così com’è perché ci serve per iniziare a discutere un concetto molto rilevante dell’informatica, cioè la natura duale che ha la rappresentazione per l’esecutore.

Infatti, ciò che c’è scritto nelle celle di memoria della MR non ha un’intrinseca caratterizzazione come dato o come istruzione. Nell’esempio di programma in linguaggio simbolico per MR presentato nella figura del post n.5 (Come istruire un computer) abbiamo distinto la zona di memoria con il programma e quella con i dati a solo scopo didattico. In quell’esempio noi, in quanto esseri umani, possiamo distinguere se ciò che leggiamo in una cella è un’istruzione o un dato, ma dal punto di vista della macchina stessa questa distinzione in realtà non esiste.

Consideriamo la seconda figura del post n.4 (Come funziona un computer): in tale figura, c’è scritto che la MR “legge l’istruzione all’indirizzo IC”, quando in realtà la MR sta leggendo semplicemente una sequenza di “0” e “1” e non ha – diversamente da noi esseri umani – alcuna consapevolezza che ciò che legge sia un’istruzione. Soltanto l’azione espressa in basso nella stessa figura, “esegui istruzione letta”, assegnerà l’effettiva natura di istruzione a quella sequenza binaria.

Ciò si capisce bene nella versione in linguaggio macchina del programma mostrato nella figura qua sopra. Infatti, in tale figura, nella cella di memoria di indirizzo 0 (che contiene un’istruzione) c’è scritta la sequenza “0000 00 0001”, ma anche nelle celle di memoria di indirizzo 15 e 16 (che contengono dati che il programma deve elaborare), c’è scritto lo stesso valore “0000 00 0001” (ricordate che gli spazi non contano). Nello stesso modo, nella cella 6 (istruzione) c’è scritto “0000 00 0000”, che è lo stesso valore scritto sia nella cella 10 che 17 (entrambi dati).

Questa osservazione implica che ogni dato gestito da una MR, o da qualunque calcolatore, ha in realtà una natura duale, potendo essere interpretato anche come un’istruzione per la macchina. Questa natura duale del dato fornisce all’informatica un potere di “riproduzione” che in precedenza era posseduto solo da sistemi biologici. È proprio questa natura duale il meccanismo concettuale di base per la costruzione dei virus informatici, che arrivano nei dispositivi digitali come dati e poi entrano in azione come programmi.

Nel prossimo post vedremo un esempio concreto di tale capacità di riproduzione.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 22 gennaio 2025.