“Chi controlla l’intelligenza artificiale governa il futuro”. È il titolo del mio intervento al corso di formazione promosso dal Collegio Provinciale Geometri e Geometri Laureati di Novara, in collaborazione con Very Fast People, che si terrà il 16 settembre.
Non si parlerà solo di tecnologie, ma di persone. L’AI literacy – l’alfabetizzazione all’intelligenza artificiale – è oggi un obbligo giuridico introdotto dall’AIAct europeo, ma soprattutto un diritto culturale, una nuova educazione civica digitale. Riconoscere quando interagiamo con un sistema di IA, comprenderne i meccanismi e valutarne limiti ed effetti non è competenza riservata agli specialisti, è strumento di equità e di inclusione.
L’AI Act (Reg. UE 2024/1689) prevede alcuni obblighi già in vigore, tra cui la formazione di chiunque utilizzi sistemi di IA in ambito professionale. Nello specifico il citato Regolamento ha classificato i sistemi in quattro categorie: da quelli a rischio inaccettabile, come il riconoscimento biometrico remoto in tempo reale, fino ai sistemi a rischio minimo, esenti da regole specifiche. Parallelamente, il disegno di legge italiano n. 1146/2024 rafforza la governance nazionale, con norme su privacy e diritto d’autore, nonchè regole chiare per i liberi professionisti (l’uso dell’IA deve restare strumentale, mai sostitutivo del lavoro intellettuale).
Tuttavia le leggi da sole non bastano. L’uso quotidiano di strumenti come i Large Language Models (LLM) – ChatGPT, Gemini, Claude – dimostra le potenzialità e i limiti di una tale tecnologia. Possono generare testi, bozze di contratti, persino strategie aziendali. Ma non garantiscono accuratezza, non custodiscono segreti, non hanno coscienza. È necessario imparare a usarli con metodo, verificare le informazioni, proteggere i dati sensibili, integrarli responsabilmente nel lavoro. Non è in questione solo l’efficienza, ma anche l’etica professionale.
Inoltre, sempre più spesso il linguaggio comune descrive l’IA come se fosse dotata di intenzioni o coscienza, parlando di algoritmi che “pensano” o “decidono”. In realtà, sono macchine che elaborano dati. Scambiare la simulazione per esperienza autentica significa distorcere il modo in cui comprendiamo la tecnologia ed i suoi limiti.
Per questo considero l’AI literacy un pilastro della giustizia sociale. È un mezzo per proteggere i diritti fondamentali, dalla privacy alla non discriminazione, ed evitare nuove forme di esclusione basate sulla capacità di comprendere strumenti digitali.
Il corso di Novara sarà un momento di confronto a più voci: il dott. Gianluigi Bonamoni parlerà delle applicazioni dell’IA per l’amministrazione condominiale, il dott. Andrea Finizio approfondirà i profili etico-deontologici, e l’avv. Andrea Broglia si concentrerà sulla cybersecurity per gli studi professionali.
Il filo rosso che ci unisce è chiaro: l’IA non è neutra. È uno strumento che può favorire inclusione e il progresso, oppure alimentare disuguaglianza e manipolazione. Tutto dipende dal livello di consapevolezza che saremo in grado di diffondere.
Il 16 settembre a Novara iniziamo da qui: dalla formazione, perché solo diventando alfabetizzati all’IA possiamo governarla davvero, rendendola un alleato della giustizia e non una minaccia per la democrazia.
Avv. Simona Maruccio
simona@maruccio.it

Giornalista pubblicista, opera da molti anni nel settore della compliance aziendale, del marketing e della comunicazione.