AI Literacy: il futuro dell’intelligenza artificiale si scrive nella formazione

Attualità

Chi controlla l’intelligenza artificiale governa il futuro”. È il titolo del mio intervento al corso di formazione promosso dal Collegio Provinciale Geometri e Geometri Laureati di Novara, in collaborazione con Very Fast People, che si terrà il 16 settembre.

Non si parlerà solo di tecnologie, ma di persone. L’AI literacy – l’alfabetizzazione all’intelligenza artificiale – è oggi un obbligo giuridico introdotto dall’AIAct europeo, ma soprattutto un diritto culturale, una nuova educazione civica digitale. Riconoscere quando interagiamo con un sistema di IA, comprenderne i meccanismi e valutarne limiti ed effetti non è competenza riservata agli specialisti, è strumento di equità e di inclusione.

L’AI Act (Reg. UE 2024/1689) prevede alcuni obblighi già in vigore, tra cui la formazione di chiunque utilizzi sistemi di IA in ambito professionale. Nello specifico il citato Regolamento ha classificato i sistemi in quattro categorie: da quelli a rischio inaccettabile, come il riconoscimento biometrico remoto in tempo reale, fino ai sistemi a rischio minimo, esenti da regole specifiche. Parallelamente, il disegno di legge italiano n. 1146/2024 rafforza la governance nazionale, con norme su privacy e diritto d’autore, nonchè regole chiare per i liberi professionisti (l’uso dell’IA deve restare strumentale, mai sostitutivo del lavoro intellettuale).

Tuttavia le leggi da sole non bastano. L’uso quotidiano di strumenti come i Large Language Models (LLM) – ChatGPT, Gemini, Claude – dimostra le potenzialità e i limiti di una tale tecnologia. Possono generare testi, bozze di contratti, persino strategie aziendali. Ma non garantiscono accuratezza, non custodiscono segreti, non hanno coscienza. È necessario imparare a usarli con metodo, verificare le informazioni, proteggere i dati sensibili, integrarli responsabilmente nel lavoro. Non è in questione solo l’efficienza, ma anche l’etica professionale.

Inoltre, sempre più spesso il linguaggio comune descrive l’IA come se fosse dotata di intenzioni o coscienza, parlando di algoritmi che “pensano” o “decidono”. In realtà, sono macchine che elaborano dati. Scambiare la simulazione per esperienza autentica significa distorcere il modo in cui comprendiamo la tecnologia ed i suoi limiti.

Per questo considero l’AI literacy un pilastro della giustizia sociale. È un mezzo per proteggere i diritti fondamentali, dalla privacy alla non discriminazione, ed evitare nuove forme di esclusione basate sulla capacità di comprendere strumenti digitali.

Il corso di Novara sarà un momento di confronto a più voci: il dott. Gianluigi Bonamoni parlerà delle applicazioni dell’IA per l’amministrazione condominiale, il dott. Andrea Finizio approfondirà i profili etico-deontologici, e l’avv. Andrea Broglia si concentrerà sulla cybersecurity per gli studi professionali.

Il filo rosso che ci unisce è chiaro: l’IA non è neutra. È uno strumento che può favorire inclusione e il progresso, oppure alimentare disuguaglianza e manipolazione. Tutto dipende dal livello di consapevolezza che saremo in grado di diffondere.

Il 16 settembre a Novara iniziamo da qui: dalla formazione, perché solo diventando alfabetizzati all’IA possiamo governarla davvero, rendendola un alleato della giustizia e non una minaccia per la democrazia.

Avv. Simona Maruccio

simona@maruccio.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Moderazione dei commenti attiva. Il tuo commento non apparirà immediatamente.

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.