Pagine

sabato 22 febbraio 2025

Strolling through informatics #20 – Thou shalt have no intelligence before me!

by Enrico Nardelli

(versione italiana qua)

While in the previous post we focused on some characteristics of machine intelligence, in this one I concentrate on certain peculiar aspects of human intelligence that make it different from what I have suggested calling "mechanical intelligence" and therefore, I believe, impossible to achieve through artificial mechanisms.

These are elements that specifically and uniquely characterize the community of flesh-and-blood individuals, and in relation to which cognitive machines are intrinsically different from us.

A first difference stems from the fact that the information about the world that we acquire through our senses becomes representations, that is, data, for our processing, through the filter of our brain, which therefore makes us perceive a reality that is not necessarily objective, meaning universally shared. However, since people share the same human nature, despite their individual diversity, some degree of agreement can be reached about the objectivity of what is perceived, also thanks to the aid of language that allows us to explain and share descriptions of the sensations experienced. This does not happen between us and other animal species. All the more so, it does not apply to a cognitive machine that receives representations already defined by someone (based on criteria established by them but which may not be known and therefore difficult to share) or must construct them through physical acquisition sensors, which are also governed by other automata. It is difficult to argue that this allows for shared representations between humans and machines.

A second difference lies in the fact that, as already mentioned, cognitive machines do not have a physical body, and therefore cannot handle all those emotional aspects that intrinsically depend on it. The most recent advances in neuroscience tell us that when we are afraid or happy, these emotions are first and foremost physical reactions that occur involuntarily in our body due to perceptual events (but can also be triggered by the activation of a memory) and that serve the purpose, justified by evolution, of maintaining the body's equilibrium, for example by making us flee from a dangerous situation or remain in a positive condition. The role of emotions is fundamental in determining the birth and growth of social relationships and in evaluating situations. Their absence in cognitive machines is a difference that insurmountably places them in a separate class. Connected to this lack is the absence of self-awareness, that is, consciousness of oneself, a fundamental element for being able to "feel emotions." One cannot exclude, in theoretical terms, the possibility that, thanks to developments in artificial intelligence techniques, cognitive machines could be created that are somehow conscious of themselves. But even if this were to happen, and it seems very unlikely to me, it would still be the self-awareness of an alien species compared to the human race, because it would be based on different physical materials.

A third difference is that of creativity, intuition, of what in an underground, subconscious way makes it possible for us to "break out of patterns" and find decisive interpretive keys for apparently indecipherable scenarios. It derives, in absolutely unclear ways – given the current state of scientific investigation, from the interaction between the level of consciousness, namely the "place of the mind" where we have representations of the physical body, and the level of the physical body. Since cognitive machines have neither one nor the other, they seem to be clearly excluded from this possibility.

Certainly there are the very recent generative artificial intelligence systems that, starting from 2021, are capable of synthesizing, from a textual description, a photographic or artistic image, or even a video sequence, that realizes such description. Let's set aside the fact that these systems, not having a real understanding at a symbolic level of what they represent, can easily generate images or videos that are erroneous with respect to knowledge tacitly accepted and shared by humanity (e.g.: the fact that people have neither three arms nor three legs or that if two kittens are playing, a third kitten cannot appear out of nowhere between them). The central point is that the so-called creativity attributed to these systems actually resides in the formulation of what they are asked to create.

Everything else is nothing but the automation of a cognitive activity, extremely sophisticated and which I am in no way diminishing: it should be considered, however, that such automation relates to human intellectual capacities in the same way that an automated factory relates to human physical capacities. Clearly, the fact that all this happens at a level that, until a few decades ago, was reserved for the human species leaves us somewhat bewildered, but it is still a mechanical activity.

The fact that there are cognitive machines performing this type of work is certainly a positive aspect. In this sense I completely agree with the opinion of Charles W. Eliot, who was president of Harvard University for forty years, from 1869 to 1909, transforming it into one of the most important American universities: "A man should not be used for a task that can be performed by a machine."

[[The posts in this series are based on the Author's book (in Italian) La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, (= The Informatics Revolution: Knowledge, Awareness and Power in the Digital Society) to which readers are referred for further reading]].

--
The original version (in italian) has been published by "Osservatorio sullo Stato digitale" (= Observatory on Digital State) of IRPA - Istituto di Ricerche sulla Pubblica Amministrazione (= Research Institute on Public Administration) on 19 February 2025.

A passeggio con l’informatica #20 – Non avrai intelligenza al di fuori di me!

di Enrico Nardelli

Mentre nel post precedente abbiamo messo a fuoco alcune caratteristiche dell’intelligenza delle macchine, in questo mi concentro su alcuni aspetti peculiari dell’intelligenza umana, che la rendono diversa da quella che ho suggerito di chiamare “intelligenza meccanica” e quindi, ritengo, impossibile da realizzare attraverso meccanismi artificiali.

Si tratta di alcuni elementi che caratterizzano in modo specifico e unico la comunità di individui in carne e ossa, e rispetto ai quali le macchine cognitive sono intrinsecamente diverse da noi.

Una prima differenza deriva dal fatto che le informazioni sul mondo che noi acquisiamo mediante i sensi diventano rappresentazioni, cioè dati, per le nostre elaborazioni, attraverso il filtro del nostro cervello, che quindi ci fa percepire una realtà che non necessariamente è oggettiva, ovvero universalmente condivisa. Però, avendo le persone una stessa natura umana, pur nella loro diversità individuale, si può raggiungere un qualche grado di accordo sull’oggettività di ciò che viene percepito, anche grazie all’ausilio del linguaggio che ci permette di spiegare e condividere le descrizioni delle sensazioni provate. Questo non accade tra noi e altre specie animali. A maggior ragione, non si applica a una macchina cognitiva che riceve rappresentazioni già definite da qualcuno (in base a criteri da questo stabiliti ma che magari non sono noti e quindi difficilmente condivisibili) oppure le deve costruire attraverso sensori fisici di acquisizione, anch’essi governati da altri automi. È arduo sostenere che questo consenta di avere rappresentazioni condivise tra uomini e macchine.

Una seconda differenza risiede nel fatto che, come già detto, le macchine cognitive non hanno un corpo fisico, e quindi non possono trattare tutti quegli aspetti emotivi che dipendono intrinsecamente da esso. Le più recenti acquisizioni delle neuroscienze ci dicono che quando abbiamo paura o siamo felici, queste emozioni sono prima di tutto reazioni fisiche che avvengono in modo involontario nel nostro corpo a causa di eventi percettivi (ma possono essere scatenate anche dall’attivazione di un ricordo) e che hanno lo scopo, giustificato in base all’evoluzione, di mantenere l’equilibrio del corpo stesso, per esempio facendoci fuggire da una situazione di pericolo o permanere in una condizione positiva. Il ruolo delle emozioni è fondamentale nel determinare la nascita e la crescita delle relazioni sociali e nella valutazione delle situazioni. La loro assenza nelle macchine cognitive è una differenza che le mette in modo insuperabile in una classe a parte. Connessa a questa mancanza vi è l’assenza dell’autocoscienza, cioè della coscienza di se stessi, elemento fondamentale per poter “sentire le emozioni”. Non si può escludere, in linea teorica, la possibilità che, grazie agli sviluppi delle tecniche di intelligenza artificiale, si riesca a creare delle macchine cognitive che sono in qualche modo coscienti di se stesse. Ma, anche se questo dovesse accadere, e mi sembra molto improbabile, si tratterebbe sempre dell’autocoscienza di una specie aliena rispetto alla razza umana, perché basata su materiali fisici differenti.

Una terza differenza è quella della creatività, dell’intuizione, di ciò che in modo sotterraneo, subconscio, ci rende possibile di “uscire dagli schemi” e trovare chiavi di lettura decisive per scenari apparentemente indecifrabili. Essa deriva, in modi assolutamente non chiari – allo stato attuale dell’indagine scientifica, dall’interazione tra il livello della coscienza, ovvero il “luogo della mente” in cui abbiamo le rappresentazioni del corpo fisico, e il livello del corpo fisico. Poiché le macchine cognitive non hanno né l’una né l’altro sembrano essere chiaramente escluse da questa possibilità.

Certamente vi sono i recentissimi sistemi di intelligenza artificiale generativa che, a partire dal 2021, sono in grado di sintetizzare, a partire da una descrizione testuale, un’immagine fotografica o artistica, o anche una sequenza video, che realizza tale descrizione. Tralasciamo il fatto che questi sistemi, non avendo una reale comprensione a livello simbolico di ciò che rappresentano, possono facilmente generare immagini o video erronei rispetto alle conoscenze tacitamente accettate e condivise dall’umanità (p.es.: il fatto che le persone non hanno né tre braccia né tre gambe o che se due gattini stanno giocando non può spuntare dal nulla in mezzo a loro un terzo gattino). Il punto centrale è che la cosiddetta creatività che viene attribuita a questi sistemi risiede in realtà nella formulazione di ciò che le si chiede di realizzare.

Tutto il resto non è che l’automazione di un’attività di tipo cognitivo, estremamente sofisticata e che non sto in alcun modo sminuendo: va però considerato che tale automazione sta alle capacità intellettive dell’essere umano nello stesso modo con cui una fabbrica automatizzata sta alle sue capacità fisiche. Chiaramente, il fatto che tutto ciò accade ad un livello che, fino a qualche decennio fa, era riservato alla specie umana ci lascia un po’ sconcertati, però sempre di un’attività meccanica si tratta.

Il fatto che ci siano macchine cognitive a svolgere lavori di questo tipo è certamente un aspetto positivo. In questo senso sono completamente d’accordo con l’opinione di Charles W. Eliot, che è stato per quarant’anni presidente dell’Università di Harvard, dal 1869 al 1909, trasformandola in una delle più importanti università americane: «Un uomo non dovrebbe essere usato per un compito che può essere svolto da una macchina ».

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 19 febbraio 2025.

sabato 15 febbraio 2025

Strolling through informatics #19 – Machine Intelligence: Is It Real Intelligence?

by Enrico Nardelli

(versione italiana qua)

Continuing the discussion on cognitive machines that began in the previous post, we observe that there's a tendency to consider the data processed by cognitive machines as something objective and absolute, based on the etymology of "data" (which derives from the Latin datum = that which has been given) when in reality, as a representation of a phenomenon, it constitutes only one model among many possible ones. Therefore, in the act of choosing data, there's already an interpretative idea that is subjective and guides the ways in which whoever reads the data will later make sense of it. The example everyone knows is that of the bottle, which can be half empty or half full. Even if we use more scientific language, I can describe this bottle as a one-liter container holding half a liter of water (half full bottle) or containing half a liter of air (half empty). I'm describing the same phenomenon, but I'm focusing the reader on two different interpretations. The selection of a certain set of data is therefore the fundamental act upon which subsequent interpretation is based. This is a mechanism well known both to information professionals, who often use it to guide readers toward a certain interpretation, and to those whose job it is to try to understand what really happened on certain occasions, who often find themselves facing conflicting accounts of the same event from eyewitnesses.

A second relevant observation is that, given the enormous quantity of usable digital data and the availability of sophisticated machine learning techniques, it seems there's no longer any need for theories—that is, coherent interpretative frameworks for phenomena—because the work of inventing these theories can be replaced by the activity of cognitive machines that, effortlessly processing terabytes and terabytes of data with sophisticated statistical analyses, will discover all the necessary theories for us. This opinion, launched in 2008 by Chris Anderson, editor-in-chief of Wired (one of the first magazines to address the topic of digital impact on society), argued precisely that with the deluge of available data, there would no longer be any need for theory. The hypothesis received a sharp scientific refutation in 2016 from computer scientists Christian Calude and Giuseppe Longo, who mathematically demonstrated how as the quantity of data increases, the number of correlations that can be found in them increases. Since this is true even if the data were generated randomly, it follows that a correlation found simply by applying statistical techniques without being guided by an interpretative model (that is, by a theory) has no intrinsic meaning. Cognitive machines, therefore, with their enormous data analysis capabilities, can certainly enrich the scientific method, but they can never replace it.

Cognitive machines are certainly useful for the progress of human society and, given the speed of technological advancement, it's reasonable to expect that on a purely rational cognitive level their analytical-deductive capabilities will soon be unsurpassed. This, however, doesn't mean that the so-called "technological singularity" will soon be reached. This term refers to the moment when a cognitive machine becomes more intelligent than a human being, thus foreshadowing the subjugation of our species. This is an ancestral fear, that of the machine rebelling against its creator, present in literature since the medieval Jewish myth of the "golem," passing through Karel Capek's story, which gave rise to the modern use of the word "robot," up to science fiction and modern accounts in the mass media, the latter originating from very well-known figures in the technological field such as Ray Kurzweil and Elon Musk.

The reality is quite different. Machine intelligence and human intelligence are two rather different things, even if they have some overlap. The problem is that by using the term intelligence, which throughout human history has always indicated human intelligence, coupled with the adjective artificial, we tend to evoke the idea that it's human intelligence artificially realized through automata. In other words, the term "artificial intelligence" leads us to believe that it describes more than what it actually is. Instead, as mentioned, it deals only with the aspect related to purely rational analytical-deductive capabilities, that is, the possibility of calculating new data logically implied by the data under examination. I've articulated this reflection in an article in which I suggested (somewhat provocatively, because I don't think that, at this point, we can really change the way of speaking) using the expression "mechanical intelligence" instead of "artificial intelligence", to better focus attention on the fact that we're still talking about mechanical capabilities, even if extremely sophisticated. In this field, as we've already had proof in the realm of board games, cognitive machines are superior to human capabilities, just as industrial machines have surpassed humans in terms of physical capabilities.

We'll discuss in the next post some characteristics of human intelligence that appear difficult to achieve through machines.

[[The posts in this series are based on the Author's book (in Italian) La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, (= The Informatics Revolution: Knowledge, Awareness and Power in the Digital Society) to which readers are referred for further reading]].

--
The original version (in italian) has been published by "Osservatorio sullo Stato digitale" (= Observatory on Digital State) of IRPA - Istituto di Ricerche sulla Pubblica Amministrazione (= Research Institute on Public Administration) on 12 February 2025.

A passeggio con l'informatica #19 – Intelligenza delle macchine: è vera intelligenza?

di Enrico Nardelli

Continuando il discorso sulle macchine cognitive iniziato nel post precedente, osserviamo che si tende a considerare i dati elaborati dalle macchine cognitive come un qualcosa di oggettivo e assoluto, sulla base dell’etimologia di “dato” (che deriva dal latino datum = ciò che è stato dato) quando in realtà esso, in quanto rappresentazione di un fenomeno, ne costituisce solo un modello, uno dei tanti possibili. Quindi, nell’atto di scegliere un dato c’è già un’idea di interpretazione, che è soggettiva e che guida le modalità con le quali chi poi leggerà il dato gli darà un senso. L'esempio che tutti conoscono è quello della bottiglia, che può essere mezza vuota o mezza piena. Anche se usiamo un linguaggio più scientifico, posso descrivere questa bottiglia come un recipiente del volume di un litro contenente mezzo litro di acqua (bottiglia mezza piena) o contenente mezzo litro di aria (mezza vuota). Sto descrivendo lo stesso fenomeno, ma focalizzo il lettore su due interpretazioni differenti. La selezione di un certo insieme di dati è quindi l’atto fondamentale su cui si basa la successiva interpretazione. Si tratta di un meccanismo ben noto sia ai professionisti dell’informazione, che spesso lo usano per guidare chi legge verso una certa interpretazione, sia a chi per mestiere cerca di capire cosa sia davvero accaduto in certe occasioni, che si trova spesso di fronte resoconti contrastanti di una stessa vicenda da parte dei testimoni oculari.

Una seconda osservazione rilevante è che, data l’enorme quantità di dati digitali utilizzabili e la disponibilità di sofisticate tecniche di apprendimento automatico (machine learning), sembra non ci sia più bisogno di teorie, ovvero di quadri interpretativi coerenti per i fenomeni, perché l’opera di invenzione di queste teorie può essere sostituita dall’attività di macchine cognitive che, macinando senza fatica terabyte e terabyte di dati con sofisticate analisi statistiche, scopriranno per noi tutte le teorie necessarie. Quest’opinione, lanciata nel 2008 da Chris Anderson, direttore responsabile di Wired (una delle prime riviste che hanno affrontato il tema dell’impatto del digitale sulla società), sosteneva appunto che con il diluvio di dati disponibili non ci sarebbe più stato bisogno della teoria. L’ipotesi ha avuto nel 2016 una netta confutazione scientifica da parte degli informatici Christian Calude e Giuseppe Longo, che hanno matematicamente dimostrato come al crescere della quantità dei dati aumenta il numero di correlazioni che possono essere trovate in essi. Dal momento che questo è vero anche se i dati sono stati generati in modo casuale, ne discende che una correlazione trovata semplicemente applicando tecniche statistiche senza essere guidata da un modello interpretativo (cioè, da una teoria) non ha un significato intrinseco. Le macchine cognitive quindi, con le loro enormi capacità di analisi dati, possono certamente arricchire il metodo scientifico, ma non potranno mai sostituirlo.

Le macchine cognitive sono sicuramente utili al progresso della società umana e, data la velocità di avanzamento della tecnologia, è ragionevole aspettarsi che su un piano cognitivo puramente razionale le loro capacità analitico-deduttive saranno presto insuperate. Questo, però, non vuol dire che la cosiddetta “singolarità tecnologica” verrà presto raggiunta. Con questo termine si intende il momento in cui una macchina cognitiva diventa più intelligente di un essere umano, prefigurando quindi la sottomissione della nostra specie. Si tratta di una paura ancestrale, quella della macchina che si ribella al suo creatore, presente nella letteratura fin dal medievale mito ebraico del golem, passando per il racconto di Karel Capek, che ha dato origine al moderno uso della parola “robot", per arrivare alla fantascienza e ai moderni resoconti sui mass media, originati, questi ultimi, da personaggi molto noti in ambito tecnologico quali Ray Kurzweil ed Elon Musk.

La realtà è ben diversa. L’intelligenza delle macchine e l’intelligenza umana sono due cose piuttosto differenti, anche se hanno una qualche sovrapposizione. Il problema è che usando il termine intelligenza, che per tutta la storia dell’umanità ha sempre indicato quella umana, accoppiato all’aggettivo artificiale, tendiamo a evocare l’idea che si tratti di intelligenza umana artificialmente realizzata mediante automi. In altre parole, il termine “intelligenza artificiale” induce a credere che esso descriva più di quello che effettivamente è. Invece, come detto, si tratta solo dell’aspetto legato alle capacità analitico-deduttive puramente razionali, ovvero alla possibilità di calcolare nuovi dati logicamente implicati dai dati sotto esame. Ho articolato questa riflessione in un articolo in cui ho suggerito (in modo un po’ provocatorio, perché non penso che, a questo punto, si possa davvero cambiare modo di dire) di usare l’espressione “intelligenza meccanica” invece che “intelligenza artificiale”, per meglio concentrare l’attenzione sul fatto che si sta parlando comunque di capacità meccaniche, anche se estremamente sofisticate. In quest’ambito, come abbiamo già avuto prova nel campo dei giochi da tavolo, le macchine cognitive sono superiori alle capacità umane, così come le macchine industriali hanno superato l’uomo per quanto riguarda le capacità fisiche.

Discuteremo nel prossimo post alcune caratteristiche dell’intelligenza umana che appaiono difficilmente ottenibili mediante le macchine.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 12 febbraio 2025.

mercoledì 12 febbraio 2025

Per l’Italia digitale serve un “Piano Olivetti”

di Enrico Nardelli

Finalmente sul Corriere della Sera, sezione Economia, ci si accorge dell'importanza per l’Italia di possedere il controllo sulle infrastrutture digitali. Ferruccio de Bortoli, in un'analisi sullo stato dell'innovazione digitale in Italia, invita a "a credere di più in sé stessi, ad avere fiducia nel futuro, a non arrendersi anticipatamente quando la partita ... sembra ormai irrimediabilmente perduta ". Ovviamente si parla di Intelligenza Artificiale, perché la sua fragorosa irruzione nella vita di tutti i giorni ha fatto capire a tutti qual è l'importanza dell'informatica nella società odierna.

Meglio tardi che mai, mi è venuto da pensare, visto che ne parlo pubblicamente da molto tempo. Non certo noto come Stefano Quintarelli che, giustissimamente viene citato da de Bortoli a proposito di tante innovazioni che in Italia non trovano spazio, avevo già scritto più di quattro anni fa dell'importanza che il nostro sistema educativo si dotasse di un'infrastruttura digitale pubblica, e dell’interesse nazionale a curare lo spazio digitale così come accade per lo spazio fisico. Esigenze che de Bortoli scopre adesso attraverso le parole di Quintarelli, anche lui da molto tempo inascoltato fautore dell'importanza di questi temi. Stefano è stato anche deputato e, nonostante le sue indubbie capacità, non è riuscito a farsi ascoltare dalla politica su questi temi: nel frattempo, il mondo è andato avanti.

Prima di lui altri intellettuali di valore hanno cercato di convincere i decisori politici dell’importanza dell’informatica per lo sviluppo del Paese. Due fra tutti, Giovan Battista Gerace e Mario Bolognani. Tutto invano. A cavallo tra gli anni ‘60 e ‘70 con l’Olivetti eravamo all’avanguardia nel mondo dell’informatica. Il primo personal computer (P101) era stato realizzato da loro e la NASA ne usò 45 per preparare la missione Apollo 11 che sbarcò sulla luna nel 1969. Ma poi, politici, “ministri occasionali”, economisti e “capitani coraggiosi” non riconobbero l’importanza strategica di sostenere l’azienda, che aveva delle difficoltà finanziarie, per continuare a far crescere l’Italia in quella direzione e si limitarono a ripetere in continuazione “il treno è perso”. Ma a partire dagli anni ‘80 ne sono arrivati di nuovi, su cui altri sono stati in grado di salire a bordo: Internet, i social media, e adesso l’intelligenza artificiale generativa. Noi ci siamo riempiti la bocca di trasformazione digitale, pensando che si potesse realizzare acquistando tecnologia senza investire nell’istruzione scolastica e universitaria. Nell’ultimo decennio è riecheggiato in modo ossessivo il mito della “scuola digitale”, salvo poi dover constatare che l’UNESCO ha attestato la tragedia dell’istruzione digitale.

L'innovazione nel digitale non si inventa, serve la formazione e bisogna cominciare almeno vent’anni prima. L'exploit cinese con DeepSeek non è arrivato all'improvviso, è il risultato di un periodo di investimenti in istruzione sia di base che superiore e in ricerca che la Cina ha iniziato da moltissimo tempo. Serve studiare informatica, nella scuola, nell'università. Serve finanziare la ricerca in informatica e nelle sue tecnologie, anche la ricerca di base, senza illudersi che sia solo l'eccellenza quella che conta. Per avere l'eccellenza del singolo bisogna comunque investire nella preparazione media della massa. Per avere l'eccellenza di un Paese bisogna investire nella preparazione media dei suoi cittadini.

È ormai da dieci anni che io personalmente spingo sull'importanza far studiare informatica nella scuola, sia perché tutti i cittadini devono conoscere come funziona il mondo digitale intorno a noi, sia perché una conoscenza di base di questa materia è necessaria per far sì che più ragazzi, e soprattutto più ragazze, la scelgano come materia dei loro studi tecnici o universitari. E se non abbiamo più studenti nelle università in questi settori, i ricercatori per sviluppare i sistemi informatici di avanguardia non potremo mai trovarli. Per chi volesse approfondire ecco i miei interventi divulgativi a stampa e in video.

Negli ultimi venti o trent'anni ho invece sentito generalmente parlare solo di competenze digitali declinate in senso operativo (ricordate l'ECDL, la famigerata patente europea del computer?), nell'incomprensione generale da parte di chi dovrebbe avere gli strumenti culturali per capire come si sta evolvendo la società e guidare il Paese lungo questo percorso. Stiamo sprecando centinaia di milioni di euro del PNRR nelle scuole comprando tecnologia realizzata altrove invece di formare seriamente i docenti per insegnare informatica nella scuola, come ormai anche il Consiglio dell’Unione Europea raccomanda.

Senza una vera conoscenza di concetti, teorie e metodi dell’informatica, l’Italia rischia di pagare un prezzo enorme in termini di possibilità di scegliere la sua direzione di sviluppo nella società digitale perché sarà sempre più dipendente da sistemi e conoscenze che non le appartengono e soggetta alla sorveglianza di chi le possiede.

Sarebbe ora di risvegliarsi sul serio. Enrico Mattei e Adriano Olivetti, due italiani di genio che stavano guidando il Paese a essere leader mondiali, non ci sono più, ma la loro lezione è ancora valida. Dopo il “Piano Mattei” ci serve un “Piano Olivetti”.

--
Versione originale pubblicata su "StartMAG" il 6 febbraio 2025.

sabato 8 febbraio 2025

Strolling through informatics #18 – Cognitive machines

by Enrico Nardelli

(versione italiana qua)

Having completed with the previous post (Self-reproducing bits) a quick excursus on the most relevant fundamental concepts of informatics as a scientific discipline, in this second part of our stroll we begin a series of reflections on its impact on people and society.

Today's digital society is pervaded by cognitive machines, which carry out operations of a cognitive nature. I emphasize that with this term I am not attributing to these machines an intrinsic cognitive capacity similar to that of human beings, but only that the functions they mechanically perform are analogous to those purely logical-rational processes that people carry out. It is also worth adding that in individuals, since such processes occur in a mind embodied in a physical body, it is difficult, if not impossible in certain situations, to make them happen on an exclusively logical-rational plane.

This is a real revolution, the "informatics revolution," which I have characterized as the third "revolution of power relations," and which I discuss extensively in my book The Informatics Revolution: Knowledge, Awareness and Power in Digital Society, because for the first time in human history complex cognitive functions of a logical-rational type are being performed by machines. This third revolution "breaks" the power of human intelligence, creating artifacts that can mechanically replicate cognitive actions that were until now exclusive characteristics of humans.

In some ways these machines are reminiscent of those that, during the industrial revolution, made possible the transformation of society from agricultural to industrial: such industrial machines are amplifiers of human physical strength. In this case we have machines of a different nature and enormously more powerful: those of the informatics revolution are machines that amplify people's cognitive functions, namely devices that enhance the capabilities of that organ whose function constitutes the distinctive trait of human beings.

We have a technical revolution, namely faster data processing, but also a social revolution, namely the generation of new knowledge. The power that is being dismantled, in this case, is that of human intelligence. Humanity has always been, throughout its entire history, master and owner of its machines. For the first time this supremacy risks being called into question: we have machines that exhibit behaviors that, when enacted by human beings, are considered manifestations of intelligence.

We started with simple things, like sorting lists of names, but now we can recognize whether a fruit is ripe or whether fabric has defects, to cite a couple of examples made possible by that part of informatics that goes by the name of artificial intelligence. Certain cognitive activities are no longer the exclusive domain of humanity: we see this in various board games (checkers, chess, go, ...), once a unit of measurement for intelligence and in which computers now regularly beat world champions. We see it in a whole series of work activities, once the exclusive domain of people, in which so-called bots are now routinely used, computer systems based on machine learning techniques.

Finally, generative artificial intelligence systems have arrived (like ChatGPT, to be clear) that everyone has now heard about, which exhibit a competence in conversation with human beings that is objectively astounding. Unfortunately, this competence can be marred by errors or inaccuracies that are difficult to notice, unless we already know the correct answer. It happens that these systems exhibit excellent competence with words that describe the world but do not truly possess competence about the world, they do not have true understanding of the meaning of the words they use, despite appearances. In other words, we project onto what these systems produce the meaning that is within us: true intelligence is in the brain of the reader and not in generative artificial intelligence systems.

Postponing to future posts a more in-depth discussion of the role that such systems can play in the future, it is therefore interesting to touch on a couple of problems that apply to all cognitive machines, even to these more sophisticated versions.

The first is that in their current state cognitive machines have neither flexibility nor adaptability to change their way of operating when context conditions change. It is true that approaches based on machine learning techniques allow them to detect changes in their environment and adapt their actions, but this space for adaptation has severe limits. All possible future scenarios must have been somehow foreseen by the designers. People are intrinsically able to learn what they don't know, while cognitive machines can only learn what they were designed for. People have learned, through millions of years of evolution, to flexibly adapt to unexpected changes in the environment, while knowledge machines can – once again – only adapt to anticipated changes. We therefore cannot let them operate alone, unless they are in contexts where there is certainty that everything has been taken into consideration.

The second is that cognitive machines are completely detached from what it means to be human. Some see this as an advantage, for me it is an enormous flaw. I believe that there is no possibility of determining a single best way to make decisions. Those who think that through artificial intelligence human society can be governed in the best way for everyone are deluded (or have hidden interests). Since human society has existed, it has been politics' job to determine the synthesis between the conflicting needs that always exist in every community. And such synthesis cannot ignore our being human. The only intelligence that can make appropriate decisions in this context is the embodied intelligence of people, not the artificial intelligence of cognitive machines.

This does not imply that there is no role for cognitive machines. Their use should remain confined to that of powerful personal assistants, which relieve us from the burden of routine intellectual work, helping us not to make mistakes due to fatigue or oversights. But people must always have control and final decisions, especially those that – directly or indirectly – have significant consequences for other people, must always be made by human beings. We will discuss this again in future posts.

[[The posts in this series are based on the Author's book (in Italian) La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, (= The Informatics Revolution: Knowledge, Awareness and Power in the Digital Society) to which readers are referred for further reading]].

--
The original version (in italian) has been published by "Osservatorio sullo Stato digitale" (= Observatory on Digital State) of IRPA - Istituto di Ricerche sulla Pubblica Amministrazione (= Research Institute on Public Administration) on 5 February 2025.

A passeggio con l'informatica #18 – Macchine cognitive

di Enrico Nardelli

Avendo terminato con il post precedente un rapido excursus sui concetti fondamentali più rilevanti dell’informatica come disciplina scientifica, in questa seconda parte iniziamo una serie di riflessione sul suo impatto su persone e società.

L’attuale società digitale è pervasa da macchine cognitive, che realizzano cioè operazioni di natura cognitiva. Sottolineo che con tale termine non sto assegnando a queste macchine un’intrinseca capacità cognitiva simile a quella degli esseri umani, ma solo che le funzioni che esse meccanicamente svolgono sono analoghe a quelle di elaborazione puramente logico-razionale che svolgono le persone. È inoltre opportuno aggiungere che negli individui, avvenendo tali elaborazioni in una mente incarnata in un corpo fisico, è difficile, se non impossibile in certe situazioni, farle accadere su un piano esclusivamente logico-razionale.

Si tratta di una vera e propria rivoluzione, la “rivoluzione informatica”, che ho caratterizzato come la terza “rivoluzione dei rapporti di potere”, e di cui parlo estesamente nel mio libro La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, perché per la prima volta nella storia dell’umanità complesse funzioni cognitive di tipo logico-razionale vengono svolte da macchine. Questa terza rivoluzione “rompe” il potere dell’intelligenza umana, realizzando artefatti che possono meccanicamente replicare azioni cognitive che erano finora caratteristiche esclusive dell’uomo.

Per certi versi queste macchine ricordano quelle che, nel corso della rivoluzione industriale, hanno reso possibile la trasformazione della società da contadina a industriale: tali macchine industriali sono degli amplificatori della forza fisica dell’uomo. In questo caso abbiamo macchine di natura diversa ed enormemente più potenti: queste della rivoluzione informatica sono macchine che amplificano le funzioni cognitive delle persone, vale a dire dispositivi che potenziano le capacità di quell’organo la cui funzione costituisce il tratto distintivo dell’essere umano.

Abbiamo una rivoluzione tecnica, cioè l’elaborazione più veloce dei dati, ma anche una rivoluzione sociale, cioè la generazione di nuova conoscenza. Il potere che viene scardinato, in questo caso, è quello dell’intelligenza umana. L’umanità è sempre stata, in tutta la sua storia, signora e padrona delle sue macchine. Per la prima volta questa supremazia rischia di essere messa in crisi: abbiamo delle macchine che esibiscono comportamenti che, quando vengono attuati dagli esseri umani, sono considerati manifestazioni di intelligenza.

Abbiamo iniziato con cose semplici, come mettere in ordine delle liste di nomi, ma adesso possiamo riconoscere se un frutto è maturo o se un tessuto presenta difetti, per citare un paio di esempi resi possibili da quella parte dell’informatica che va sotto il nome di intelligenza artificiale. Certe attività cognitive non sono più dominio esclusivo dell’umanità: lo vediamo nei vari giochi da scacchiera (dama, scacchi, go, …), un tempo unità di misura per l’intelligenza e nei quali ormai il computer batte regolarmente i campioni del mondo. Lo vediamo in tutta una serie di attività lavorative, un tempo appannaggio esclusivo delle persone, nelle quali sono ormai abitualmente utilizzati i cosiddetti bot, sistemi informatici basati su tecniche di apprendimento automatico (machine learning).

Infine, sono arrivati i sistemi di intelligenza artificiale generativa (tipo ChatGPT, per intenderci) di cui tutti ormai hanno sentito parlare, che esibiscono una competenza nella conversazione con gli esseri umani che è oggettivamente stupefacente. Purtroppo, tale competenza può essere macchiata da errori o imprecisioni di cui è difficile accorgersi, se non conosciamo già la risposta corretta. Accade che questi sistemi esibiscono una competenza eccellente con le parole che descrivono il mondo ma non posseggono davvero competenza sul mondo, non hanno una vera comprensione del significato delle parole che usano, nonostante le apparenze. In altri termini, noi proiettiamo su quanto questi sistemi producono il significato che è dentro di noi: la vera intelligenza è nel cervello di chi legge e non nei sistemi di intelligenza artificiale generativa.

Rimandando a successivi post una discussione più approfondita sul ruolo che tali sistemi possono giocare in futuro, è interessante quindi accennare a un paio di problemi che si applicano a tutte le macchine cognitive, anche a queste versioni più sofisticate.

Il primo è che allo stato attuale le macchine cognitive non hanno né flessibilità né adattabilità per cambiare il loro modo di operare al mutare delle condizioni di contesto. È vero che gli approcci basati su tecniche di apprendimento automatico consentono di rilevare cambiamenti nel loro ambiente e di adattare le loro azioni, però questo spazio di adattamento ha limiti severi. Tutti i possibili scenari futuri devono essere stati in qualche modo previsti dai progettisti. Le persone sono intrinsecamente in grado di apprendere ciò che non sanno, mentre le macchine cognitive possono apprendere solo ciò per cui sono state progettate. Le persone hanno imparato, attraverso milioni di anni di evoluzione, ad adattarsi flessibilmente a cambiamenti imprevisti nell’ambiente, mentre le macchine della conoscenza possono – ancora una volta – adattarsi solo ai cambiamenti previsti. Non possiamo quindi lasciarle operare da sole, a meno che non siano in contesti in cui c’è la certezza che tutto è stato tenuto in considerazione.

Il secondo è che le macchine cognitive sono del tutto distaccate da cosa significhi essere persone. Qualcuno lo vede come un pregio, per me è un enorme difetto. Io ritengo che non esista la possibilità di determinare un unico modo migliore di prendere le decisioni. Quelli che pensano che mediante l’intelligenza artificiale si possa governare la società umana nel modo migliore per tutti sono degli illusi (o hanno interessi nascosti). Da che esiste la società umana è compito della politica determinare la sintesi tra le esigenze contrastanti che sempre esistono in ogni consesso. E tale sintesi non può prescindere dal nostro essere umani. L’unica intelligenza che può prendere decisioni appropriate in questo contesto è l’intelligenza incarnata delle persone, non quella artificiale delle macchine cognitive.

Questo non implica che non ci sia un ruolo per le macchine cognitive. Il loro uso dovrebbe rimanere confinato a quello di potenti assistenti personali, che ci alleviano la pesantezza del lavoro intellettuale di routine, aiutandoci a non fare errori a causa della fatica o di sviste. Ma le persone devono sempre avere il controllo e le decisioni finali, soprattutto quelle che – direttamente o indirettamente – hanno conseguenze rilevanti per altre persone, devono sempre essere prese da esseri umani.

Ne riparleremo in post futuri.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 5 febbraio 2025.

sabato 1 febbraio 2025

Strolling through informatics #17 – Self-reproducing bits

by Enrico Nardelli

(versione italiana qua)

In the previous post (Data or programs? That is the problem) we discussed how, at the level of the programming language that the physical machine is able to execute directly through its electronic circuits, there is no intrinsic distinction between what constitutes an instruction and what constitutes data. Only the instructions of the Control Unit of the register machine, which are those placed inside the circles in the second figure of post #4 (How a computer works), are intrinsically instructions. What we commonly call a "program" (regardless of whether it is in symbolic language or machine language) is, at the directly executable physical level, simply a sequence of zero and one bits. This constitutes an advantage, because it allows us to process programs by treating them simply as data, but it can also constitute a weakness, if bit sequences that had been considered data are instead interpreted as instructions and executed. The latter is indeed the mechanism by which computer viruses spread: in the absence of appropriate countermeasures, they are transferred from one computer to another as if they were data and then executed.

This dual nature possessed by bit sequences, together with the fact that – precisely because of this duality – the same bit sequence can be interpreted in both ways and can therefore manipulate itself, gives informatics a power of reproduction whose only other existing manifestation in nature is that possessed by biological systems.

Let us illustrate this power of reproduction with a very simple automaton. I first describe its simple instruction repertoire and then present a program that, despite the simplicity of the automaton, is capable of reproducing itself.

The first instruction in the repertoire is an assignment instruction of the type

P=100;

which assigns the value 100 to P. We note that each instruction is terminated by a semicolon (;). This is just an example of using the instruction, another could be

Q=3;

which assigns the value 3 to Q. We then have a print instruction of the type

print P;

which, having executed the assignment instruction previously described, produces as a result

100

Clearly the instruction «print Q;» would instead have produced «3»: observe that in this case we have used double open angle brackets («) and closed ones (») to denote precisely in the body of the text the instructions we are talking about or their effect, while before we had presented them each isolated on a line.

The automaton also possesses a variant of this print instruction, namely

print "P";

whose execution no longer produces the printing of the value possibly assigned to P but produces as a result literally what is contained between the double quotes, that is

P

(similarly «print "Q";» would produce «Q»). We observe at this point that the print instruction can have multiple objects to print, as for example happens with

print P Q;

which produces

100    3

and with

print "P=" P;

which instead produces

P=100

Finally, the automaton possesses a repetition convention, according to which, for example

3|X;

constitutes an abbreviated way of representing

X; X; X;

We therefore have that the program (made up of two instructions which for simplicity we write on the same line)

P=3|X;      print P;

produces as output

X; X; X;

while the program

P=3|X;      print "P=" P;

produces as output

P=X; X; X;

We are ready at this point to present and discuss the program that replicates itself, which consists of these two instructions only, presented below on the same line

P=2|print "P=2|" P;      print "P=2|" P;

Let us determine what the automaton does when it executes this program. With the first instruction it assigns to P – based on the repetition convention described above – the value «print "P=2|" P; print "P=2|" P;». With the second instruction it produces as output the value «P=2|» followed by the value just assigned to P, that is

P=2|print "P=2|" P; print "P=2|" P;

The execution of the program has therefore produced as output an exact copy of itself! Note that the space between the two instructions in the first case (the program text) is greater than in the second (the result of its execution) only for typographical clarity reasons.

We have obtained a behavior that, at an abstract level, is exactly the same behavior that a DNA sequence realizes during replication, a key process for biological reproduction. In our case, we obtain the "reproduction of bits" and this aspect of informatics perhaps constitutes the most important of its conceptual contributions to the panorama of scientific culture.

[[The posts in this series are based on the Author's book (in Italian) La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, (= The Informatics Revolution: Knowledge, Awareness and Power in the Digital Society) to which readers are referred for further reading]].

--
The original version (in italian) has been published by "Osservatorio sullo Stato digitale" (= Observatory on Digital State) of IRPA - Istituto di Ricerche sulla Pubblica Amministrazione (= Research Institute on Public Administration) on 29 January 2025.

A passeggio con l'informatica #17 – Bit che si riproducono

di Enrico Nardelli

Nel precedente post (Dati o programmi? Questo è il problema) abbiamo discusso come, a livello del linguaggio di programmazione che la macchina fisica è in grado di eseguire direttamente attraverso i suoi circuiti elettronici, non vi sia una distinzione intrinseca tra cosa costituisce un’istruzione e cosa un dato. Solo le istruzioni dell’Unità di Controllo della macchina a registri, che sono quelle poste all’interno dei cerchi della seconda figura del post n.4 (Come funziona un computer), sono intrinsecamente delle istruzioni. Quello che comunemente chiamiamo “programma” (indipendentemente se sia in linguaggio simbolico o in linguaggio macchina) è, al livello fisico direttamente eseguibile, solo una sequenza di bit zero e uno.

Questo costituisce un vantaggio, perché ci permette di elaborare i programmi trattandoli semplicemente come dati, ma può costituire anche una debolezza, se delle sequenze di bit che erano state considerate dei dati vengono invece interpretate come istruzioni e sono eseguite. Quest’ultimo è infatti il meccanismo con cui i virus informatici si diffondono: in assenza di opportune contromisure, vengono trasferiti da un computer a un altro come se fossero dei dati e poi vengono eseguiti.

Questa natura duale posseduta dalle sequenze di bit, insieme al fatto che – proprio a causa di tale dualità – una stessa sequenza di bit può essere interpretata in entrambi i modi e può quindi manipolare se stessa, conferisce all’informatica un potere di riproduzione di cui l’unica altra manifestazione esistente in natura è quella posseduta dai sistemi biologici.

Illustriamo questo potere di riproduzione con un automa molto semplice. Descrivo prima il suo semplice repertorio di istruzioni e poi presento un programma che, nonostante la semplicità dell’automa, è in grado di riprodurre se stesso. La prima istruzione del repertorio è un’istruzione di assegnazione del tipo

P=100;

che assegna a P il valore 100. Notiamo che ogni istruzione è terminata da un punto e virgola (;). Questo è solo un esempio di uso dell’istruzione, un altro potrebbe essere

Q=3;

che assegna a Q il valore 3. Abbiamo poi un’istruzione di stampa del tipo

stampa P;

che, avendo eseguito l’istruzione di assegnazione precedentemente descritta, produce come risultato

100

Chiaramente l’istruzione «stampa Q;» avrebbe invece prodotto «3»: osservate che in questo caso abbiamo usato le doppie parentesi angolari aperte («) e chiuse (») per denotare con precisione nel corpo del testo le istruzioni di cui parliamo o il loro effetto, mentre prima le avevamo presentate ognuna isolata su una riga. L’automa possiede anche una variante di tale istruzione di stampa, cioè

stampa “P”;

la cui esecuzione non produce più la stampa del valore eventualmente assegnato a P ma produce come risultato letteralmente quanto è contenuto tra i doppi apici, cioè

P

(analogamente «stampa “Q”;» produrrebbe «Q»). Osserviamo a questo punto che l’istruzione di stampa può avere più oggetti da stampare, come per esempio accade con

stampa P Q;

che produce

100    3

e con

stampa “P=” P;

che invece produce

P=100

Infine, l’automa possiede una convenzione di ripetizione, in base alla quale, ad esempio

3|X;

costituisce un modo abbreviato di rappresentare

X; X; X;

Abbiamo pertanto che il programma (fatto da due istruzioni che per semplicità scriviamo sulla stessa riga)

P=3|X; stampa P;

produce in uscita

X; X; X;

mentre il programma

P=3|X; stampa “P=” P;

produce in uscita

P=X; X; X;

Siamo pronti a questo punto a presentare e discutere il programma che riproduce se stesso, che è costituito da queste due sole istruzioni, presentate di seguito sulla stessa riga

P=2|stampa “P=2|” P;      stampa “P=2|” P;

Determiniamo cosa fa l’automa quando esegue questo programma. Con la prima istruzione assegna a P – in base alla convenzione di ripetizione sopra descritta – il valore «stampa “P=2|” P; stampa “P=2|” P;». Con la seconda istruzione produce in uscita il valore «P=2|» seguito dal valore appena assegnato a P, cioè

P=2|stampa “P=2|” P; stampa “P=2|” P;

L’esecuzione del programma ha quindi prodotto in uscita una copia esatta di se stesso! Notate che lo spazio tra le due istruzioni nel primo caso (il testo del programma) è maggiore del secondo (il risultato della sua esecuzione) solo per motivi di chiarezza tipografica.

Abbiamo ottenuto un comportamento che, a livello astratto, è esattamente lo stesso comportamento che realizza una sequenza di DNA durante la replicazione, processo chiave per la riproduzione biologica. Nel nostro caso, otteniamo la “riproduzione dei bit” e questo aspetto dell’informatica costituisce forse il più importante dei suoi apporti concettuali al panorama della cultura scientifica.

--
Versione originale pubblicata da "Osservatorio sullo Stato digitale" dell'IRPA - Istituto di Ricerche sulla Pubblica Amministrazione il 29 gennaio 2025.

sabato 25 gennaio 2025

Strolling through informatics #16 – Data or programs? That is the question

by Enrico Nardelli

(versione italiana qua)

In this final post dedicated to presenting the fundamental concepts of informatics, we begin to address what is perhaps the most significant cultural contribution this discipline has made to our worldview

The concepts of algorithm, language, and automaton, which – together with others – we have explored in the previous posts in this series, are part of a computer scientist's conceptual toolkit and serve as the intellectual tools that a computer scientist uses to model and interpret the world. They can be successfully employed to provide complementary descriptions to those offered by other sciences, to express the informatics perspective on phenomena, thereby enriching our capacity to understand the reality around us.

In post #5 (How to instruct a computer), we presented a simple program written in symbolic language for a very simple register machine (RM). We then commented that such an automaton, in order to actually execute the program, needs it to be translated into machine language. As we explained in the previous post (From virtualization to the cloud), the physical machine level is the only one that can concretely execute programs and needs a language at its level (see the figure in that post).

In the figure below, where instructions are on the left and data on the right, the machine language version of the program presented in post #5 is shown.

Referring to section 4.2.2 of the volume The Informatics Revolution for a detailed explanation of how such a program is obtained from the symbolic language version, here we take it as is because we need it to begin discussing a very important concept in informatics: the dual nature that representation has for the executor.

Indeed, what is written in the memory cells of the RM has no intrinsic characterization as either data or instruction. In the example of a symbolic language program for RM presented in the figure of post #5 (How to instruct a computer), we distinguished the memory area with the program from that with the data for purely educational purposes. In that example, we, as human beings, can distinguish whether what we read in a cell is an instruction or data, but from the machine's own perspective, this distinction doesn't actually exist. Let's consider the second figure from post #4 (How a computer works): in that figure, it says that the RM "reads the instruction at address IC," when in reality the RM is simply reading a sequence of "0s" and "1s" and has no awareness – unlike us humans – that what it's reading is an instruction. Only the action expressed at the bottom of the same figure, "execute instruction read," will assign the actual nature of instruction to that binary sequence.

This becomes clear in the machine language version of the program shown in the figure above. Indeed, in that figure, in the memory cell at address 0 (which contains an instruction) the sequence "0000 00 0001" is written, but also in the memory cells at addresses 15 and 16 (which contain data that the program must process), the same value "0000 00 0001" is written (remember that spaces don't count). Similarly, in cell 6 (instruction) "0000 00 0000" is written, which is the same value written in both cell 10 and 17 (both data).

This observation implies that every piece of data handled by an RM, or by any computer, actually has a dual nature, being able to also be interpreted as an instruction for the machine. This dual nature of data provides informatics with a power of "replication" that was previously possessed only by biological systems. It is precisely this dual nature that serves as the basic conceptual mechanism for constructing computer viruses, which arrive in digital devices as data and then spring into action as programs.

In the next post, we will see a concrete example of such replication capability.

[[The posts in this series are based on the Author's book (in Italian) La rivoluzione informatica: conoscenza, consapevolezza e potere nella società digitale, (= The Informatics Revolution: Knowledge, Awareness and Power in the Digital Society) to which readers are referred for further reading]].

--
The original version (in italian) has been published by "Osservatorio sullo Stato digitale" (= Observatory on Digital State) of IRPA - Istituto di Ricerche sulla Pubblica Amministrazione (= Research Institute on Public Administration) on 22 January 2025.