"AI Act": la legge sull'intelligenza artificiale è entrata in vigore

Il primo regolamento al mondo sull'AI che ha l'obiettivo di proteggere i diritti fondamentali delle persone

Oggi, giovedì 1 agosto 2024, entra in vigore la legge europea sull'intelligenza artificiale, il primo regolamento al mondo concepito per garantire che questa sia sviluppata e utilizzata nell'UE rispettando i diritti fondamentali delle cittadine e dei cittadini dell'Unione. La legge sull'IA si basa su un approccio incentrato sulla sicurezza e, infatti, il quadro normativo individua quattro livelli di rischio per i sistemi di intelligenza artificiale:

1) Rischio minimo: La maggior parte dei sistemi, come i sistemi di raccomandazione basati sull'IA e i filtri spam, rientra in questa categoria. Tali sistemi non sono soggetti a obblighi a causa del loro rischio minimo per i diritti e la sicurezza dei cittadini. Le imprese possono adottare volontariamente codici di condotta aggiuntivi.

2) Rischio limitato: I sistemi di IA come i chatbot devono comunicare chiaramente agli utenti che stanno interagendo con una macchina. Alcuni contenuti generati dall'IA, compresi i deep fake, devono essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che il contenuto sintetico di audio, video, testo e immagini sia marcato in un formato leggibile meccanicamente e rilevabile come generato o manipolato artificialmente.

3) Rischio elevato: Questi sistemi sono tenuti a rispettare requisiti rigorosi, tra cui i sistemi di attenuazione dei rischi, l'elevata qualità dei set di dati, la registrazione delle attività, la documentazione dettagliata, informazioni chiare per gli utenti, la sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza. Gli spazi di sperimentazione normativa agevoleranno l'innovazione responsabile e lo sviluppo di sistemi di IA conformi. Tali sistemi di IA ad alto rischio comprendono, ad esempio, i sistemi utilizzati per il reclutamento o per valutare se qualcuno ha diritto a ottenere un prestito o a gestire robot autonomi.

4) Rischio inaccettabile: I sistemi considerati una chiara minaccia per i diritti fondamentali delle persone sono vietati. Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per eludere la libera volontà degli utenti, come i giocattoli che utilizzano l'assistenza vocale che incoraggiano comportamenti pericolosi dei minori, i sistemi che consentono il "punteggio sociale" da parte di governi o imprese e alcune applicazioni di polizia predittiva. Inoltre, sono vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi per classificare le persone o l'identificazione biometrica remota in tempo reale.

Gli Stati membri hanno tempo fino al 2 agosto 2025 per designare autorità nazionali competenti, che vigileranno sull'applicazione delle norme per i sistemi di intelligenza artificiale e svolgeranno attività di vigilanza del mercato. L'ufficio per l'IA della Commissione europea sarà il principale organismo di attuazione della legge sull'IA a livello dell'UE, nonché il responsabile dell'applicazione delle norme per i modelli di IA per finalità generali.
La maggior parte delle norme della legge sull'IA inizierà ad applicarsi il 2 agosto 2026. Tuttavia, i divieti dei sistemi di IA che si ritiene presentino un rischio inaccettabile si applicheranno già dopo sei mesi, mentre le norme per i cosiddetti modelli di IA per finalità generali si applicheranno dopo 12 mesi.

Per maggiori informazioni è possibile consultare la pagina dedicata sul sito web, al link in allegato.

(t.z.)

Scroll to top of the page