Vai al contenuto principale


Il 1° agosto 2024 è entrata in vigore una normativa che segna una svolta epocale: l’AI Act dell’Unione Europea, il primo regolamento al mondo che affronta in maniera organica le opportunità e i rischi legati all’intelligenza artificiale.

A differenza degli Stati Uniti, dove prevale un approccio orientato al mercato, o della Cina, che concentra il controllo nelle mani dello Stato, l’Europa sceglie una via peculiare: garantire sicurezza, tutela dei diritti fondamentali e fiducia dei cittadini.

Non si tratta solo di regolare la tecnologia, ma di affermare una visione etica e democratica.

La logica del Risk-based approach.

Il cuore dell’AI Act è l’approccio basato sul rischio. Non tutte le applicazioni di AI sono uguali: alcune sono innocue o addirittura utilissime, altre possono comportare gravi pericoli per la società.

Per questo il regolamento classifica i sistemi di intelligenza artificiale in quattro categorie:

🔴 1. Rischio inaccettabile

Sono i sistemi vietati perché incompatibili con i valori europei.

Un esempio è il social scoring: pratiche che attribuiscono punteggi ai cittadini sulla base dei loro comportamenti o dati personali. Tecnologie di questo tipo rischiano di generare discriminazioni, limitazioni delle libertà e profonde disuguaglianze.

Altri casi vietati riguardano la manipolazione subconscia o lo sfruttamento delle vulnerabilità di minori e persone fragili.🟠 2. Alto rischio

Sono ammessi, ma con obblighi molto severi di sicurezza, trasparenza e controllo.

Rientrano qui i sistemi utilizzati in ambiti delicati come: assunzioni e selezione del personale, valutazioni bancarie e creditizie, dispositivi medici, infrastrutture critiche e pubbliche amministrazioni.


Per questi sistemi è obbligatoria una valutazione d’impatto, la registrazione in appositi registri UE e un monitoraggio continuo delle performance.

🟡 3. Rischio limitato

Qui l’attenzione si concentra sulla trasparenza.

Gli sviluppatori devono garantire che l’utente sappia di interagire con una macchina (ad esempio chatbot o sistemi di generazione di contenuti). È il caso dei tool di AI generativa o dei sistemi di riconoscimento vocale.

🟢 4. Rischio minimo

La maggior parte delle applicazioni rientra in questa fascia. Si tratta di sistemi che non pongono rischi significativi e che non richiedono obblighi specifici, come ad esempio i filtri antispam delle email o gli algoritmi di raccomandazione per prodotti e film.

AI Act e GDPR: una sinergia necessariaIl nuovo regolamento sull’AI non nasce nel vuoto. Si integra con il GDPR, che già tutela i cittadini in materia di dati personali.

Il punto di contatto più importante riguarda il diritto alla trasparenza e alla contestabilità delle decisioni automatizzate. Proprio come il GDPR vieta la raccolta massiva e indiscriminata di dati senza base giuridica, così l’AI Act impone che le decisioni prese da un algoritmo siano spiegabili, comprensibili e supervisionabili dall’uomo.

Perché è importante per Professionisti e Imprese.

Per le imprese e le organizzazioni in genere, la conoscenza di questa classificazione non è solo un adempimento legale:

  1. rafforza la fiducia dei clienti e degli stakeholder,
  2. permette di evitare rischi reputazionali,
  3. apre le porte a nuove opportunità di mercato, soprattutto con partner e istituzioni che richiedono conformità alle regole europee.

👉 Conclusione: l’AI Act 2024 non frena l’innovazione, ma traccia la strada verso una intelligenza artificiale responsabile, capace di coniugare progresso tecnologico, sostenibilità e rispetto dei diritti umani.

In questa direzione, professionisti e imprese hanno l’occasione di dimostrarsi pionieri, adottando da subito pratiche di governance e compliance che li renderanno più competitivi e credibili.

Powered by

Logo Promobulls
Area riservata