AI Act: dal 2 Febbraio 2025 in vigore le Regole per l’Intelligenza Artificiale ad Alto Rischio

TL;DR: Dal 2 febbraio 2025 sono entrate in vigore le prime disposizioni dell’AI Act dell’Unione Europea, imponendo obblighi a chi utilizza sistemi di Intelligenza Artificiale (IA) classificati come ad alto rischio. Questi obblighi includono la sorveglianza umana, il monitoraggio dei sistemi, la gestione della qualità dei dati e la formazione del personale. Le aziende devono adeguarsi per garantire conformità e tutela dei diritti fondamentali.

Cosa cambia dal 2 febbraio 2025?

Il Regolamento UE 2024/1689 (AI Act), approvato il 13 giugno 2024 ed entrato in vigore il 1 agosto 2024, stabilisce regole armonizzate per lo sviluppo, l’implementazione e l’uso dell’IA nell’Unione Europea. Il suo obiettivo è favorire l’innovazione garantendo al contempo un elevato livello di tutela della salute, sicurezza e diritti fondamentali.

Dal 2 febbraio 2025, le disposizioni iniziano ad applicarsi, imponendo obblighi diretti non solo agli sviluppatori, ma anche agli utilizzatori di sistemi di IA. Se la tua azienda utilizza IA per decisioni critiche, è il momento di adeguarsi!

Quali sono i Sistemi di IA ad Alto Rischio?

L’AI Act adotta un approccio basato sul rischio, classificando i sistemi IA in quattro categorie: proibiti, ad alto rischio, a rischio limitato e a rischio minimo.

I sistemi di IA ad alto rischio sono quelli che possono avere un impatto significativo sui diritti fondamentali e la sicurezza delle persone. Ecco le categorie coinvolte:

  1. Biometria
    • Sistemi di riconoscimento facciale in spazi pubblici, che utilizzano algoritmi avanzati per identificare individui in tempo reale. Sebbene possano migliorare la sicurezza pubblica, questi sistemi sollevano preoccupazioni per la privacy e il rischio di sorveglianza di massa, richiedendo rigorose misure di trasparenza e controllo.
    • Sistemi di riconoscimento delle emozioni, impiegati in ambiti come il marketing, le selezioni del personale e il controllo delle frontiere. Tuttavia, la loro affidabilità e l’uso etico sono oggetto di dibattito, poiché possono generare discriminazioni o interpretazioni errate delle espressioni facciali e del comportamento umano.
  2. Infrastrutture Critiche
    • Sistemi di gestione della sicurezza di reti digitali, trasporti, forniture di acqua, gas ed elettricità, includendo strumenti di monitoraggio avanzati basati su IA per la rilevazione di anomalie, la prevenzione di attacchi informatici e la gestione predittiva delle risorse. Questi sistemi sono fondamentali per garantire la continuità operativa e la protezione delle infrastrutture critiche, riducendo il rischio di interruzioni e migliorando l’efficienza energetica.
  3. Istruzione e Formazione
    • IA usata per ammissioni scolastiche e universitarie, attraverso algoritmi avanzati che analizzano il profilo degli studenti basandosi su dati accademici, attività extracurriculari e parametri di equità per ridurre discriminazioni.
    • Sistemi di valutazione del rendimento degli studenti, che monitorano l’apprendimento in tempo reale e offrono analisi dettagliate sul progresso, evidenziando aree di miglioramento. Tuttavia, devono essere progettati per evitare pregiudizi algoritmici che possano penalizzare alcune categorie di studenti.
    • Personalizzazione dell’apprendimento tramite IA, attraverso l’adattamento dinamico dei contenuti didattici in base allo stile di apprendimento dello studente, fornendo materiali interattivi e suggerimenti specifici per migliorare la comprensione e il coinvolgimento.
  4. Occupazione e Risorse Umane
    • Sistemi di IA per il recruiting e la selezione del personale, che analizzano automaticamente CV e profili dei candidati, valutando competenze e idoneità sulla base di modelli predittivi. Tuttavia, devono essere implementate misure per prevenire bias discriminatori e garantire decisioni trasparenti.
    • IA per la gestione e la valutazione delle prestazioni lavorative, con strumenti che monitorano produttività, interazioni e risultati. Tali sistemi devono rispettare la privacy dei lavoratori, fornire spiegazioni sulle valutazioni effettuate e permettere l’intervento umano nelle decisioni critiche.
  5. Servizi Pubblici e Prestazioni Sociali
    • IA utilizzata per decidere l’accesso a sanità, welfare e sussidi, attraverso l’analisi automatizzata di dati personali, cartelle cliniche e informazioni economiche per determinare l’idoneità ai benefici. Questi sistemi devono garantire trasparenza, equità e rispetto della privacy per evitare discriminazioni e decisioni errate che potrebbero compromettere l’accesso a servizi essenziali.
  6. Forze dell’Ordine e Giustizia
    • Sistemi di valutazione del rischio criminale.
    • IA per l’analisi delle prove nei processi.
  7. Migrazione e Controllo delle Frontiere
    • IA per il trattamento delle richieste di asilo e visti.
    • Sistemi di individuazione dei rischi legati all’immigrazione.
  8. Credito e Finanza
    • IA per valutare il merito creditizio e l’accesso ai servizi finanziari.

Obblighi per gli Utilizzatori di Sistemi di IA ad Alto Rischio

Le aziende e gli enti pubblici che utilizzano IA ad alto rischio devono rispettare obblighi precisi per garantire sicurezza e trasparenza. Ecco i principali:

  1. Sorveglianza Umana Efficace
    • Le decisioni critiche prese dall’IA devono essere supervisionate da esseri umani.
  2. Monitoraggio del Sistema
    • Devono essere implementati strumenti per individuare malfunzionamenti e rischi.
  3. Qualità dei Dati di Input
    • Le aziende devono verificare che i dati utilizzati siano privi di bias per prevenire discriminazioni.
  4. Trasparenza e Informazione
    • I lavoratori e i sindacati devono essere informati dell’uso dell’IA nei processi aziendali.
  5. Conformità della Documentazione
    • Occorre assicurarsi che il fornitore del sistema di IA abbia rispettato tutti gli obblighi normativi e fornito la documentazione necessaria.
  6. Formazione del Personale
    • I dipendenti devono essere adeguatamente formati sull’uso e la gestione dell’IA.
  7. Procedure di Gestione del Rischio
    • Devono essere stabiliti protocolli chiari per affrontare problemi legati all’uso dell’IA.

Cosa Dice la Commissione Europea sulle Pratiche AI Vietate?

Nel frattempo, il 4 febbraio 2025 la Commissione Europea ha approvato la pubblicazione delle linee guida sulle pratiche di intelligenza artificiale che sono ritenute inaccettabili a causa dei loro potenziali rischi per i valori e i diritti fondamentali europei, che sono già disponibili in lingua inglese (Guidelines on prohibited artificial intelligence practices established by Regulation EU 2024/1689 – AI Act). Secondo il documento della Commissione Europea, alcuni sistemi di IA sono proibiti per i rischi inaccettabili che comportano. Tra questi troviamo:

  • Manipolazione cognitiva subliminale per influenzare il comportamento delle persone.
  • Classificazione sociale basata su IA, che discrimina individui in base a comportamenti passati.
  • Riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole.
  • IA utilizzata per valutazioni del rischio criminale senza giustificazione legale.

Le aziende devono quindi assicurarsi che i loro sistemi non rientrino in queste categorie, altrimenti saranno soggetti a sanzioni.

Conclusione

L’AI Act rappresenta un passaggio fondamentale per regolamentare l’uso dell’Intelligenza Artificiale nell’Unione Europea. Le aziende devono prendere sul serio questi obblighi per evitare sanzioni e garantire un utilizzo etico e responsabile dell’IA.

FAQ

1. Cos’è l’AI Act?
L’AI Act è il regolamento dell’Unione Europea che disciplina lo sviluppo e l’uso dell’Intelligenza Artificiale, con particolare attenzione ai sistemi classificati come ad alto rischio.

2. Chi è soggetto agli obblighi dell’AI Act?
Non solo gli sviluppatori, ma anche le aziende e gli individui che utilizzano sistemi di IA ad alto rischio.

3. Quali sono le sanzioni per il mancato rispetto dell’AI Act?
Le sanzioni possono includere multe significative e altre penalità a seconda della gravità della violazione.

4. Come posso sapere se il mio sistema di IA è classificato come ad alto rischio?
È importante consultare le linee guida ufficiali dell’AI Act o rivolgersi a esperti del settore per una valutazione accurata.

5. Quali sono le prossime scadenze per l’AI Act?
Le disposizioni saranno implementate gradualmente fino al 2026, con regolamenti sempre più stringenti per garantire un utilizzo etico dell’IA.

Condividi Articolo:

Picture of Luca Mainieri

Luca Mainieri

Sono Luca Mainieri, Innovation Manager e Strategic Innovation Advisor. Con oltre 25 anni di esperienza, affianco le organizzazioni nei processi di adozione della AI e digitalizzazione, pianificando e governando gli investimenti strategici in innovazione digitale e intelligenza artificiale.

Restiamo in contatto: