fbpx Skip to content

IL FUTURO DELL’INTELLIGENZA ARTIFICIALE: PUBBLICATO IL NUOVO REGOLAMENTO EUROPEO

46792

Desideri ulteriori informazioni e aggiornamenti?

Pubblicato nella Gazzetta Ufficiale UE del 12/07/2024 il Regolamento UE 2024/1689: il percorso è iniziato ad aprile 2021, 3 anni di lavoro che hanno portato alla definizione del testo che si compone di 113 articoli e 13 allegati.

Il Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio, adottato il 13 giugno 2024, stabilisce un quadro armonizzato per lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale (IA) nell’Unione Europea. Questo regolamento modifica e integra vari regolamenti e direttive precedenti per garantire che l’IA sia utilizzata in conformità con i valori fondamentali dell’Unione, promuovendo una tecnologia antropocentrica, affidabile e sicura.

A CHI SI APPLICA IL REGOLAMENTO SULL’IA?

Il Regolamento (UE) 2024/1689 si applica ai seguenti soggetti:

  • Fornitori e utilizzatori (deployer) di IA nell’Unione Europea
  • Fornitori e utilizzatori extra UE in cui l’output prodotto dai sistemi di IA è destinato a essere utilizzato nell’Unione Europea
  • Importatori e distributori di sistemi IA

Il regolamento si applica ai sistemi di IA utilizzati nel territorio dell’Unione Europea. Tuttavia non si applica ai sistemi IA destinati a scopi militari, di ricerca e sviluppo scientifici o usi non professionali e in parte per sistemi a licenza aperta e open source.

COS’È UN SISTEMA DI INTELLIGENZA ARTIFICIALE?

Con sistema di intelligenza artificiale (IA) si intende un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

SISTEMI DI INTELLIGENZA ARTIFICIALE AD ALTO RISCHIO

I sistemi di IA ad alto rischio sono soggetti a requisiti più stringenti in termini di conformità e monitoraggio.

I fornitori di sistemi di IA ad alto rischio devono implementare un sistema di gestione del rischio che includa l’identificazione, l’analisi, la valutazione, la mitigazione e la gestione dei rischi associati ai sistemi di IA ad alto rischio per tutta la loro durata.

Prima dell’immissione sul mercato, i sistemi di IA ad alto rischio devono essere sottoposti a una valutazione della conformità, che può essere effettuata attraverso una procedura interna o con il coinvolgimento di organismi notificati.

I sistemi di IA ad alto rischio devono essere registrati in una banca dati dell’UE (art. 71 del Regolamento 2024/1689) prima dell’immissione sul mercato o della messa in servizio.

I sistemi IA ad alto rischio devono essere rintracciabili tramite documentazione tecnica dettagliata, da tenere aggiornata, e valutazione d’impatto sui diritti fondamentali. Gli utenti devono essere informati in modo chiaro e comprensibile che stanno interagendo con un sistema di IA. Devono essere fornite informazioni sull’uso previsto del sistema, le sue capacità e i limiti. Chiunque può segnalare violazioni all’autorità nazionale di vigilanza e ha diritto a spiegazioni chiare sul ruolo dell’IA in decisioni che lo riguardano.

I fornitori devono implementare sistemi di sorveglianza dopo l’immissione sul mercato per monitorare continuamente le prestazioni dei sistemi di IA ad alto rischio, raccogliere dati sull’uso e riferire eventuali incidenti gravi alle autorità competenti.

ESEMPI DI SISTEMI IA AD ALTO RISCHIO

Il Regolamento (UE) 2024/1689 definisce i sistemi di intelligenza artificiale ad alto rischio come quei sistemi che, per la loro natura, contesto di utilizzo e scopo, possono comportare rischi significativi per la salute, la sicurezza e i diritti fondamentali delle persone. Di seguito sono elencati alcuni esempi di sistemi di IA ad alto rischio:

  • Sistemi di IA utilizzati in infrastrutture critiche, come energia, trasporti, acqua, gas e altre reti essenziali
  • Sistemi di IA utilizzati nei contesti educativi e di formazione professionale
  • Sistemi di IA utilizzati nei servizi pubblici essenziali, come l’assistenza sanitaria, la previdenza sociale e i servizi finanziari
  • Sistemi di IA per l’identificazione biometrica remota delle persone in spazi pubblici, come il riconoscimento facciale, utilizzati per scopi di sorveglianza e controllo
  • Sistemi di IA che influenzano la sicurezza dei prodotti immessi sul mercato, come i dispositivi medici e i veicoli autonomi
  • Sistemi di IA per la manipolazione delle vulnerabilità delle persone, come l’età, disabilità, condizioni sociali o economiche
  • Sistemi di IA che attribuiscono punteggi sociali alle persone basati sul loro comportamento, caratteristiche personali o valutazioni che possono portare a discriminazioni

LE TAPPE DEL REGOLAMENTO

Queste le date di entrata in vigore del Regolamento 2024/1689:

  • 01/08/2024: entrata in vigore del regolamento (20 giorni dopo la pubblicazione nella G.U.)
  • 02/02/2025: diventano applicabili le norme sulle pratiche di IA vietate
  • 02/08/2025: si applicano le disposizioni relative alle autorità di notifica nazionali individuate e diventano applicabili i modelli di IA per finalità generali, la governance, le sanzioni (escluse le sanzioni pecuniarie per i fornitori di modelli di IA per finalità generali) e la riservatezza delle informazioni
  • 02/08/2026: si applicano tutte le sezioni del regolamento, ad esclusione di quanto previsto al punto successivo
  • 02/08/2027: sono applicabili gli obblighi per i sistemi ad alto rischio, prodotto o componente di un di cui all’articolo 6, paragrafo 1

Documenti correlati

News correlate

Caricamento news correlate...

Richiedi informazioni

Azienda

CONSENSO AL TRATTAMENTO DEI DATI PERSONALI AI SENSI DELL'ART. 13 DEL REGOLAMENTO UE 2016/679

I dati personali saranno trattati come indicato nella nostra informativa sulla privacy, predisposta ai sensi del Regolamento UE 2016/679