L’illusione delle 21:30. L’intelligenza artificiale che sbaglia sempre nello stesso modo

Attualità
Mi è capitato per caso, quasi per gioco.

Ho chiesto a un’intelligenza artificiale generativa — prima a ChatGPT, poi a Gemini, infine a Claude — di creare un’immagine che mostrasse un orologio con le lancette sulle 21:30. Una richiesta semplice, chiarissima. Mi aspettavo una risposta corretta. Invece no.

Tutte le volte, invariabilmente, il risultato è stato lo stesso: l’immagine di un orologio che segnava le 10:10.

E quel che è più paradossale è che l’IA accompagna l’immagine con una descrizione sicura: “Ecco l’orologio che segna le 21:30”.

Nessuna incertezza, nessun dubbio. Eppure l’errore è lì, davanti agli occhi. Ripetuto ed ostinato.

All’inizio ho sorriso. Poi ho iniziato a riflettere.

Questo fenomeno ha un nome, nel linguaggio tecnico, si chiama allucinazione. Quando un sistema di intelligenza artificiale genera un contenuto scorretto, ma lo presenta come corretto, sta allucinando. Non si tratta di una bugia. L’IA non mente, semplicemente non comprende. Non sa. E non sa di non sapere.

La cosa interessante è che l’errore non è casuale, perchè l’immagine dell’orologio con le lancette sulle 10:10 è uno standard grafico, onnipresente nei set pubblicitari e nei database iconografici su cui i modelli sono stati addestrati.

È l’estetica della simmetria, della leggibilità. Una convenzione.

Ma quando l’IA deve costruire un’immagine a partire da un’ora arbitraria — le 21:30, per esempio — finisce per rientrare sempre in quella stessa gabbia visiva.

Una risposta predittiva, non reale. Una suggestione, non una rappresentazione.

Per chi lavora nel campo dell’intelligenza artificiale e del diritto delle nuove tecnologie, come me, si tratta un campanello d’allarme importante, perchè dietro l’apparente efficacia comunicativa dei chatbot c’è un limite strutturale profondo ovvero non c’è interpretazione. C’è solo calcolo statistico.

E quando il calcolo è basato su immagini ricorrenti, su pattern ridondanti, l’errore diventa sistemico. Automatizzato. Invisibile.

L’ esperienza che sto raccontando mi ha riportato a un principio giuridico che mi è caro: la responsabilità non è delegabile a una macchina.

E se non possiamo fidarci di un’intelligenza artificiale nemmeno per indicare l’ora su un quadrante, come potremmo affidarci ad essa per valutazioni più complesse? In un contesto medico, giuridico, educativo?

Il punto non è demonizzare la tecnologia. Né pretendere infallibilità. Il punto è riconoscerne i limiti strutturali e costruire intorno a questi limiti un’etica dell’uso.

Una cornice giuridica e culturale che valorizzi la supervisione umana, la competenza critica, la lentezza del controllo: il valore del dubbio, della domanda che si ferma a riflettere, della mente che non si affida ciecamente al risultato.

Ecco, allora, che quell’orologio assume un significato simbolico. Le lancette segnano le ore 10:10, ma la voce artificiale ci dice altro. A noi la scelta: accettare la risposta oppure osservare con attenzione.

Perché, in fondo, il diritto – come la verità – è sempre una questione di sguardo, di metodo, di responsabilità.

E forse, nel tempo dell’automazione diffusa, tale consapevolezza è il gesto più umano che ci resta.

Avv. Simona Maruccio

simona@maruccio.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Moderazione dei commenti attiva. Il tuo commento non apparirà immediatamente.

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.