IL FUTURO DELL’INTELLIGENZA ARTIFICIALE: PUBBLICATO IL NUOVO REGOLAMENTO EUROPEO
Desideri ulteriori informazioni e aggiornamenti?
Pubblicato nella Gazzetta Ufficiale UE del 12/07/2024 il Regolamento UE 2024/1689: il percorso è iniziato ad aprile 2021, 3 anni di lavoro che hanno portato alla definizione del testo che si compone di 113 articoli e 13 allegati.
Il Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio, adottato il 13 giugno 2024, stabilisce un quadro armonizzato per lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale (IA) nell’Unione Europea. Questo regolamento modifica e integra vari regolamenti e direttive precedenti per garantire che l’IA sia utilizzata in conformità con i valori fondamentali dell’Unione, promuovendo una tecnologia antropocentrica, affidabile e sicura.
A CHI SI APPLICA IL REGOLAMENTO SULL’IA?
Il Regolamento (UE) 2024/1689 si applica ai seguenti soggetti:
- Fornitori e utilizzatori (deployer) di IA nell’Unione Europea
- Fornitori e utilizzatori extra UE in cui l’output prodotto dai sistemi di IA è destinato a essere utilizzato nell’Unione Europea
- Importatori e distributori di sistemi IA
Il regolamento si applica ai sistemi di IA utilizzati nel territorio dell’Unione Europea. Tuttavia non si applica ai sistemi IA destinati a scopi militari, di ricerca e sviluppo scientifici o usi non professionali e in parte per sistemi a licenza aperta e open source.
COS’È UN SISTEMA DI INTELLIGENZA ARTIFICIALE?
Con sistema di intelligenza artificiale (IA) si intende un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.
SISTEMI DI INTELLIGENZA ARTIFICIALE AD ALTO RISCHIO
I sistemi di IA ad alto rischio sono soggetti a requisiti più stringenti in termini di conformità e monitoraggio.
I fornitori di sistemi di IA ad alto rischio devono implementare un sistema di gestione del rischio che includa l’identificazione, l’analisi, la valutazione, la mitigazione e la gestione dei rischi associati ai sistemi di IA ad alto rischio per tutta la loro durata.
Prima dell’immissione sul mercato, i sistemi di IA ad alto rischio devono essere sottoposti a una valutazione della conformità, che può essere effettuata attraverso una procedura interna o con il coinvolgimento di organismi notificati.
I sistemi di IA ad alto rischio devono essere registrati in una banca dati dell’UE (art. 71 del Regolamento 2024/1689) prima dell’immissione sul mercato o della messa in servizio.
I sistemi IA ad alto rischio devono essere rintracciabili tramite documentazione tecnica dettagliata, da tenere aggiornata, e valutazione d’impatto sui diritti fondamentali. Gli utenti devono essere informati in modo chiaro e comprensibile che stanno interagendo con un sistema di IA. Devono essere fornite informazioni sull’uso previsto del sistema, le sue capacità e i limiti. Chiunque può segnalare violazioni all’autorità nazionale di vigilanza e ha diritto a spiegazioni chiare sul ruolo dell’IA in decisioni che lo riguardano.
I fornitori devono implementare sistemi di sorveglianza dopo l’immissione sul mercato per monitorare continuamente le prestazioni dei sistemi di IA ad alto rischio, raccogliere dati sull’uso e riferire eventuali incidenti gravi alle autorità competenti.
ESEMPI DI SISTEMI IA AD ALTO RISCHIO
Il Regolamento (UE) 2024/1689 definisce i sistemi di intelligenza artificiale ad alto rischio come quei sistemi che, per la loro natura, contesto di utilizzo e scopo, possono comportare rischi significativi per la salute, la sicurezza e i diritti fondamentali delle persone. Di seguito sono elencati alcuni esempi di sistemi di IA ad alto rischio:
- Sistemi di IA utilizzati in infrastrutture critiche, come energia, trasporti, acqua, gas e altre reti essenziali
- Sistemi di IA utilizzati nei contesti educativi e di formazione professionale
- Sistemi di IA utilizzati nei servizi pubblici essenziali, come l’assistenza sanitaria, la previdenza sociale e i servizi finanziari
- Sistemi di IA per l’identificazione biometrica remota delle persone in spazi pubblici, come il riconoscimento facciale, utilizzati per scopi di sorveglianza e controllo
- Sistemi di IA che influenzano la sicurezza dei prodotti immessi sul mercato, come i dispositivi medici e i veicoli autonomi
- Sistemi di IA per la manipolazione delle vulnerabilità delle persone, come l’età, disabilità, condizioni sociali o economiche
- Sistemi di IA che attribuiscono punteggi sociali alle persone basati sul loro comportamento, caratteristiche personali o valutazioni che possono portare a discriminazioni
LE TAPPE DEL REGOLAMENTO
Queste le date di entrata in vigore del Regolamento 2024/1689:
- 01/08/2024: entrata in vigore del regolamento (20 giorni dopo la pubblicazione nella G.U.)
- 02/02/2025: diventano applicabili le norme sulle pratiche di IA vietate
- 02/08/2025: si applicano le disposizioni relative alle autorità di notifica nazionali individuate e diventano applicabili i modelli di IA per finalità generali, la governance, le sanzioni (escluse le sanzioni pecuniarie per i fornitori di modelli di IA per finalità generali) e la riservatezza delle informazioni
- 02/08/2026: si applicano tutte le sezioni del regolamento, ad esclusione di quanto previsto al punto successivo
- 02/08/2027: sono applicabili gli obblighi per i sistemi ad alto rischio, prodotto o componente di un di cui all’articolo 6, paragrafo 1
Documenti correlati
News correlate
Osservatorio sicurezza sul lavoro e ambiente
Visita la nostra pagina facebook
Osservatorio sicurezza sul lavoro e ambiente
di VEGA Engineering
Iscriviti alla nostra
Newsletter
Notizie, Modulistica e Linee Guida gratuite per rimanere sempre aggiornato sulle novità legislative e normative