«Prima di lui, la Silicon Valley era solo Valley», ha detto Bill Gates. Federico Faggin è una figura iconica della tecnologia contemporanea, è inventore del primo microprocessore, ma è anche pensatore critico capace di spingersi oltre l’invisibile, come recita il titolo del suo ultimo libro.
Ho avuto il privilegio di ascoltarlo dal vivo a Gorizia, durante il Festival Internazionale della Salute e Sicurezza sul Lavoro, organizzato dalla Fondazione Rubes Triva. L’intervento dell’ingegner Faggin non è stato solo una lezione di scienza, ma un invito a ripensare il nostro rapporto con la tecnologia e, soprattutto, con noi stessi.
A fine conferenza, ho avuto anche l’opportunità di scambiare qualche parola con lui e durante la cena ha approfondito con i commensali i temi trattati.
Il suo punto di partenza è chiaro e controcorrente: l’intelligenza artificiale non sarà mai cosciente. Per quanto possa imitare comportamenti umani, rispondere in modo plausibile, perfino “conversare”, l’IA non prova nulla. Non ha emozioni, né volontà, né consapevolezza di sé. Simula, ma non è.
È come paragonare un attore che interpreta un dolore in scena, con chi quel dolore lo ha davvero vissuto. La macchina può replicare i gesti, le parole, perfino il tono. Però non c’è nessuno dentro.
Secondo Faggin, la coscienza è un fenomeno fondamentale ed irriducibile, forse legato alla struttura più profonda della realtà, quella quantistica, dove la materia ancora non è materia. Non è un effetto del cervello, ma qualcosa che lo precede e lo attraversa. Questa prospettiva sfida l’idea – oggi dominante – che tutto, persino l’uomo, sia spiegabile come una macchina biologica complessa.
Da giurista, non posso non interrogarmi: se la coscienza non può essere replicata, può una macchina essere davvero “autonoma” in senso giuridico? O ancora: possiamo attribuire responsabilità a un sistema che non comprende ciò che fa, che non distingue il bene dal male, che agisce senza intenzione?
Immaginiamo un’auto a guida autonoma che investe un pedone. Chi è responsabile? Il costruttore? Il programmatore? L’algoritmo? E se dotassimo la macchina di una “personalità giuridica”, come si ipotizza in alcune proposte normative, non rischieremmo di svuotare di senso la responsabilità, trasferendola a un soggetto privo di coscienza?
Senza una chiara idea di ciò che rende umano un essere umano, anche i diritti rischiano di diventare funzioni: revocabili, contrattabili, programmabili.
Un altro passaggio centrale dell’intervento è stato il richiamo a superare il dualismo tra scienza e spiritualità. L’ Ing. Faggin non propone una fuga nel misticismo; propone un allargamento dello sguardo: la scienza non può spiegare tutto. E ciò che sfugge alle sue misure – come la coscienza, l’amore, l’intuizione – non è per questo meno reale.
Pensiamo alla musica. Possiamo analizzare frequenze, onde sonore, decibel. Tuttavia nessuna formula potrà spiegare perché una melodia ci commuove, ci fa piangere o ci ricorda casa. È questa dimensione invisibile, ma vissuta che, secondo Faggin, la scienza dovrebbe accogliere senza ridurre.
Infine, un tema che mi sta particolarmente a cuore: l’etica dello sviluppo tecnologico. Tecnologia e coscienza: chi guida chi? Faggin lancia un monito chiaro. L’IA non deve mai diventare un fine in sé, ma restare uno strumento al servizio dell’uomo. E la tecnologia, da sola, non è né buona né cattiva.
In conclusione, l’incontro con Faggin mi ha lasciato diversi interrogativi: se la coscienza è un fenomeno irriducibile, che non può essere simulato né replicato, come possiamo legittimamente normare sistemi che “scelgono” senza comprendere? E se davvero si ipotizza di attribuire personalità giuridica alle macchine, come possiamo difendere la centralità della persona umana, se smettiamo di riconoscerne ciò che la rende inimitabile?
Avv. Simona Maruccio

Giornalista pubblicista, opera da molti anni nel settore della compliance aziendale, del marketing e della comunicazione.