Dalla Legge 132/2025 all’A.I. Act 2024: nasce una nuova responsabilità digitale.
L’intelligenza artificiale non è più un orizzonte da esplorare, ma un compagno di lavoro silenzioso che già popola gli studi professionali: avvocati, architetti, ingegneri, commercialisti, consulenti e medici utilizzano strumenti A.I. per redigere documenti, analizzare dati, pianificare attività o interagire con i clienti.
Eppure, ogni tecnologia che apprende e decide comporta anche rischi.
Con l’entrata in vigore della Legge 132/2025 e il Regolamento Europeo A.I. Act (UE 2024/1689), l’Italia ha compiuto un passo storico: riconoscere che l’intelligenza artificiale, per essere utile, deve prima di tutto essere affidabile, trasparente e sotto controllo umano.
🧭 La valutazione dei rischi: un atto di consapevolezza, non di sfiducia
Effettuare una valutazione dei rischi (A.I. Risk Assessment) all’interno di uno studio professionale non è un esercizio burocratico, ma un gesto di responsabilità.
Significa comprendere dove e come gli strumenti A.I. possono fallire, distorcere, o generare effetti non intenzionali.
Un assessment interno permette di:
- Identificare vulnerabilità come errori di calcolo, bias algoritmici, o interpretazioni errate dei dati;
- Valutare rischi operativi e reputazionali, come la perdita o la manipolazione di dati sensibili;
- Definire misure di mitigazione: procedure di verifica, controllo e revisione umana;
- Stabilire protocolli di supervisione e tracciabilità delle decisioni automatizzate.
In sostanza, l’assessment dei rischi diventa il motore operativo della conformità normativa e il primo passo verso una governance etica dell’A.I.
💡 Human in the Loop: la regola aurea
L’A.I. Act 2024 impone che l’intelligenza artificiale ad alto rischio — e molti strumenti professionali lo sono — sia sempre soggetta a supervisione umana attiva (“Human-in-the-loop”).
Questo significa che il professionista non può mai delegare totalmente una decisione o una valutazione a un algoritmo, ma deve rimanere parte integrante del processo.
La tecnologia può assistere, suggerire, accelerare, ma non sostituire il giudizio umano, che resta il presidio ultimo della responsabilità.
🔍 Informare il cliente, costruire fiducia
Un altro pilastro fondamentale è la trasparenza verso il cliente.
Ogni studio che utilizza sistemi di intelligenza artificiale dovrebbe dichiarare:
Quali strumenti A.I. utilizza;
Per quali funzioni o attività;
Quali limiti tecnici e margini di errore possono esistere;
Quali protocolli di controllo e correzione sono attivati.
Informare il cliente non è solo un obbligo etico, ma un atto di fiducia reciproca che rafforza la reputazione dello studio e garantisce la piena conformità al GDPR e all’A.I. Act.
🧠 Formarsi per governare, non subire
L’uso dell’A.I. richiede nuove competenze.
Formarsi sull’uso consapevole dell’intelligenza artificiale significa:
- Comprendere le logiche degli algoritmi e i loro limiti;
- Valutare l’impatto dei dati utilizzati;
- Saper leggere i risultati con spirito critico e metodo professionale.
Solo chi conosce il linguaggio delle macchine può parlare di etica con competenza.
E solo chi si forma può guidare la trasformazione digitale in modo sicuro, senza subirla.
🌱 Dalla tecnologia alla cultura del rischio
La vera sfida non è tecnologica, ma culturale.
Non si tratta di temere l’intelligenza artificiale, ma di riconoscerne il potere e i limiti, integrandola in processi trasparenti e sotto controllo.
Una valutazione dei rischi ben strutturata diventa così la chiave di volta dell’accountability: garantisce che ogni innovazione sia accompagnata da responsabilità, ogni algoritmo da una regola, ogni decisione automatica da una coscienza umana.
📣 Call to Action
È il momento per gli studi professionali di formalizzare la propria A.I. Policy, condurre un Assessment dei Rischi e avviare programmi di formazione interna.
Solo così potranno trasformare l’A.I. da semplice strumento digitale in alleato strategico di valore, etica e fiducia.
🧭 Checklist Operativa A.I. Risk Assessment
per Studi Tecnici, Professionali e Società di Ingegneria
#Area di Verifica
Domande / Controlli Specifici
Azioni o Misure OperativeResponsabile / Note
1) Mappatura dei sistemi A.I. in uso
• Sono utilizzati strumenti A.I. nei processi di progettazione, calcolo strutturale, modellazione 3D, BIM, diagnosi energetica o geologica?
• Si utilizzano plug-in o API A.I. integrate in software tecnici (es. Revit, AutoCAD, Archicad, GIS, Matlab)?
Creare un registro A.I. con: software, funzioni, versione, origine, finalità e data di adozione Resp. tecnico / Resp. qualità
2) Classificazione del rischio (AI Act 2024 / Legge 132/2025)
• Il sistema A.I. elabora dati tecnici che impattano sicurezza strutturale, ambientale o decisioni su salute/sicurezza nei cantieri?
• Può generare errori che compromettano la stabilità, l’efficienza o la conformità normativa del progetto?
Classificare come “High-Risk A.I. System” e attivare audit obbligatori e supervisione tecnicaResp. sicurezza / Direzione tecnica
3) Integrità e qualità dei dati tecnici
• Le basi dati di input (rilievi, simulazioni, dati climatici, geotecnici) sono aggiornate e validate?
• Sono presenti errori di misura, interpolazioni non verificate o modelli generati da dataset incompleti?
• L’A.I. è addestrata su dati contestuali italiani / europei o generici?
Creare procedure di data validation con verifica manuale di almeno un campione del 10-20% Resp. progetto / Uff. tecnico
4) Bias algoritmico e imparzialità progettuale
• Il sistema può introdurre bias nella scelta dei materiali, nel dimensionamento o nella valutazione dei rischi ambientali?
• Gli algoritmi di ottimizzazione considerano parametri sociali, ambientali, economici in modo equilibrato (criteri ESG)?
Revisione comparativa tra soluzioni A.I. e alternative umane Verifica dei criteri di equità e sostenibilitàDirezione tecnica / ESG Manager
5) Affidabilità dei modelli predittivi e simulativi
• I modelli A.I. utilizzati per analisi strutturali, idrauliche, energetiche o geotecniche sono validati da prove reali o da letteratura tecnica?
• Esiste una documentazione di test, stress-test o validazioni incrociate?
Implementare un protocollo di validazione tecnica (benchmark + test comparativi)Resp. di commessa / Quality manager
6) Cybersecurity e protezione dei dati di progetto
• I dati di rilievo, modelli 3D e progetti digitali sono protetti da accessi non autorizzati?
• Sono salvati in cloud sicuro, con backup e cifratura?
• Sono gestiti in conformità a GDPR e ai contratti d’appalto pubblici/privati?
Politiche di accesso minimo, crittografia, backup automatici e disaster recovery planResp. IT / Privacy officer
7) Supervisione umana – Human in the Loop
• È previsto l’intervento del professionista nelle fasi critiche (modellazione, calcolo, revisione)?
• L’A.I. può essere corretta, fermata o ricalibrata in tempo reale?
• Esiste un registro delle modifiche apportate manualmente?
Formalizzare punti di controllo umano per ogni processo A.I. criticoDirezione tecnica / Capo progetto8Trasparenza e spiegabilità tecnica
• È possibile spiegare come l’A.I. ha generato una determinata soluzione progettuale?
• Sono tracciabili gli input e output (parametri, log, variabili di calcolo)?
Tenere un registro di tracciabilità algoritmica per audit tecnici e legaliResp. tecnico / RQ
9) Limiti d’uso e responsabilità
• È chiaro quando il software A.I. può e non può essere usato (es. progettazione esecutiva, strutture complesse, opere pubbliche)?
• Il cliente è informato dei limiti e margini d’errore?
Inserire in ogni contratto una clausola di trasparenza A.I. (uso, limiti, supervisione umana)Ufficio legale / Direzione tecnica
10) Formazione professionale continua
• I tecnici e collaboratori sono formati sui principi A.I. Act, bias, limiti e interpretazione dei risultati?
• Esistono linee guida interne o corsi di aggiornamento periodici?
Pianificare formazione annuale A.I. e aggiornamenti su normative e standard UNIHR / Resp. formazione
11) Audit e monitoraggio periodico
• Sono previsti audit interni o esterni sui sistemi A.I.?
• Viene monitorata la performance nel tempo (accuratezza, deviazioni, errori)?
Audit semestrali e metriche di affidabilità documentateResp. qualità / Compliance
12) Gestione degli incidenti e malfunzionamenti
• Esiste una procedura per segnalare output errati o rischiosi?
• È previsto un piano d’azione per sospendere l’uso del sistema in caso di rischio concreto?Creare un Incident Response Plan con tempi di risposta, ruoli e azioni correttive Resp. sicurezza / Direzione
13) Trasparenza verso clienti e partner
• Il committente è informato se nel progetto sono stati utilizzati sistemi A.I.?
• Sono esplicitate le funzioni e i limiti tecnici?
• È garantita la possibilità di revisione manuale su richiesta del cliente?
Comunicazione chiara e informativa in ogni relazione tecnica o offertaResp. commerciale / Capo progetto
14) Compliance normativa integrata (A.I. Act – GDPR – UNI/PdR 178:2025)
• Le pratiche A.I. sono coerenti con le norme su protezione dei dati, sicurezza informatica e sostenibilità ESG di cantiere?
• Sono previste valutazioni di impatto (DPIA) per modelli ad alto rischio?
Integrare il risk assessment A.I. nei sistemi di gestione ISO/UNI già presenti (9001, 45001, 14001, 178:2025)Compliance Officer / RSGQ
15) Miglioramento continuo e feedback
• Vengono analizzati periodicamente i risultati e i margini di errore del sistema?
• Si aggiornano i dataset e i parametri del modello con feedback da esperienze reali?Adottare un ciclo PDCA per ogni strumento A.I. (Plan–Do–Check–Act)Direzione tecnica / R&D
📘 Note operative
Periodicità consigliata: aggiornare l’assessment ogni 12 mesi o ad ogni nuovo software A.I. adottato.
Documentazione: archiviare report e registri A.I. (ai fini ispettivi e di tracciabilità).
Integrazione: collegare la checklist alla Policy A.I. di studio e ai documenti di valutazione rischi aziendali (DVR, Mod.231).
Benefici attesi: maggiore accountability, conformità normativa, tutela reputazionale e trasparenza verso clienti, fornitori, banche e PA.
Diffondi questo contenuto